JP6174676B2 - Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation - Google Patents

Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation Download PDF

Info

Publication number
JP6174676B2
JP6174676B2 JP2015506331A JP2015506331A JP6174676B2 JP 6174676 B2 JP6174676 B2 JP 6174676B2 JP 2015506331 A JP2015506331 A JP 2015506331A JP 2015506331 A JP2015506331 A JP 2015506331A JP 6174676 B2 JP6174676 B2 JP 6174676B2
Authority
JP
Japan
Prior art keywords
endoscope
image set
module
interest
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015506331A
Other languages
Japanese (ja)
Other versions
JP2015514492A (en
JP2015514492A5 (en
Inventor
アレクサンドラ ポポヴィッチ
アレクサンドラ ポポヴィッチ
ハイサム エルハワリー
ハイサム エルハワリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2015514492A publication Critical patent/JP2015514492A/en
Publication of JP2015514492A5 publication Critical patent/JP2015514492A5/ja
Application granted granted Critical
Publication of JP6174676B2 publication Critical patent/JP6174676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/0016Holding or positioning arrangements using motor drive units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Gynecology & Obstetrics (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)

Description

本開示は医療機器及びより具体的には内視鏡を手動操作するためのガイダンスツールに関する。   The present disclosure relates to a medical device and more specifically to a guidance tool for manually operating an endoscope.

冠動脈バイパス移植術(CABG)は閉塞した冠動脈の血行再建のための外科手術である。低侵襲CABGは手術部位からの唯一のフィードバックとして内視鏡を用いて実行される。低侵襲CABG術のための標準的な設定では、助手が内視鏡を保持しながら外科医が両手を使って器具を持つ。内視鏡は典型的には患者の右側から若しくは前後方向から胸腔に挿入される。これは三つの関連する座標系をもたらし得る:内視鏡(例えばカメラ)の座標系、外科医の座標系、及び助手の座標系。これは複数の問題につながり得る。例えば、外科医が前方の画面を見ている間、カメラは側面からの解剖学的構造をあらわしている。加えて、内視鏡の上端にあるカメラが180°回転されるとした場合、画像は画面上で逆転して見えることになる。しかしながら、現在カメラの配向を知る方法はない。さらに、助手は内視鏡の動かし方について外科医からの指示に応えなければならない。"右"などの命令は内視鏡を左及び下に動かすことに対応する場合があり、これは助手にとって非常に反直感的であり、試行錯誤手法につながり得る。これらの問題は長期の手術室滞在時間と、ワークフローにおける非効率性につながり得る。   Coronary artery bypass grafting (CABG) is a surgical procedure for revascularization of a blocked coronary artery. Minimally invasive CABG is performed using an endoscope as the only feedback from the surgical site. In a standard setting for minimally invasive CABG surgery, the surgeon holds the instrument with both hands while the assistant holds the endoscope. An endoscope is typically inserted into the thoracic cavity from the right side of the patient or from the anteroposterior direction. This can result in three related coordinate systems: an endoscope (eg, camera) coordinate system, a surgeon's coordinate system, and an assistant's coordinate system. This can lead to multiple problems. For example, while the surgeon is looking at the front screen, the camera shows the anatomy from the side. In addition, if the camera at the upper end of the endoscope is rotated 180 °, the image will appear reversed on the screen. However, there is currently no way to know the camera orientation. In addition, the assistant must respond to instructions from the surgeon on how to move the endoscope. A command such as “Right” may correspond to moving the endoscope to the left and down, which is very counter-intuitive to the assistant and can lead to a trial and error approach. These problems can lead to long operating room residence times and inefficiencies in the workflow.

本発明の原理によれば、内視鏡を手動操作するためのガイダンスツールにとって新しい解決法が提供される。   In accordance with the principles of the present invention, a new solution is provided for a guidance tool for manually operating an endoscope.

一実施形態において、本発明の原理は術前及び/又は術中画像を内視鏡の画像とレジストレーションすることを含み得る。ユーザが内視鏡を選択された関心領域の方へナビゲートすることを可能にするガイダンスツールとして、視覚的な手掛かりが内視鏡ビュー上にオーバーレイされ得る。内視鏡の動きは視覚的な手掛かりを更新するために画像特徴を用いてリアルタイムに追跡され得る。別の実施形態において、本発明の原理はカメラの座標系がユーザの好適な座標系と対応するように内視鏡のカメラを事前に方向付け得る。内視鏡のカメラは、ユーザの好適な方向に対応するようにカメラを回転させることによって内視鏡を事前に方向付ける作動プラットフォーム上に取り付けられ得る。有利なことに、本発明の原理は内視鏡を手動ナビゲートする効率的な操作を提供する。これは手術室滞在時間の削減とより効率的なワークフローにつながり得る。   In one embodiment, the principles of the present invention may include registering pre-operative and / or intra-operative images with endoscopic images. Visual cues can be overlaid on the endoscopic view as a guidance tool that allows the user to navigate the endoscope toward a selected region of interest. Endoscope movement can be tracked in real time using image features to update visual cues. In another embodiment, the principles of the present invention may pre-orient the endoscope camera such that the camera coordinate system corresponds to the user's preferred coordinate system. The endoscope camera may be mounted on an operating platform that pre-orients the endoscope by rotating the camera to correspond to the user's preferred orientation. Advantageously, the principles of the present invention provide an efficient operation for manually navigating the endoscope. This can lead to reduced operating room residence time and a more efficient workflow.

ガイド下内視鏡ナビゲーションのためのシステムは、プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするように構成されるレジストレーションモジュールを含む。選択モジュールは第1の画像セット上の選択された関心領域を受信し、選択された関心領域を内視鏡座標フレームへ変換するように構成される。ガイダンスモジュールは内視鏡のユーザが選択された関心領域へナビゲートすることを可能にするように第2の画像セット上にガイダンスツールをオーバーレイするように構成される。   A system for guided endoscopic navigation includes a registration module configured to register a first image set of an endoscope with a second image set using a processor. The selection module is configured to receive the selected region of interest on the first set of images and convert the selected region of interest into an endoscopic coordinate frame. The guidance module is configured to overlay a guidance tool on the second set of images to allow an endoscope user to navigate to a selected region of interest.

ガイド下内視鏡ナビゲーションのためのシステムは、プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするように構成されるレジストレーションモジュールを含む。選択モジュールは第1の画像セット上の選択された関心領域を受信し、選択された関心領域を内視鏡座標フレームへ変換するように構成される。ガイダンスモジュールはガイダンスツールを第2の画像セット上にオーバーレイするように構成される。作動モジュールは内視鏡のユーザが選択された関心領域へナビゲートすることを可能にするためにカメラの座標系がユーザの座標系と対応するように内視鏡のカメラを方向付けるように構成される。   A system for guided endoscopic navigation includes a registration module configured to register a first image set of an endoscope with a second image set using a processor. The selection module is configured to receive the selected region of interest on the first set of images and convert the selected region of interest into an endoscopic coordinate frame. The guidance module is configured to overlay the guidance tool on the second set of images. The actuation module is configured to direct the endoscope camera such that the camera coordinate system corresponds to the user coordinate system to allow the endoscope user to navigate to the selected region of interest. Is done.

ガイド下内視鏡ナビゲーションのための方法は、プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするステップを含む。第1の画像セット上で関心領域が選択され、選択された関心領域は内視鏡座標フレームへ変換される。内視鏡のユーザが選択された関心領域へナビゲートすることを可能にするよう、ガイダンスツールが第2の画像セット上にオーバーレイされる。   A method for guided endoscopic navigation includes registering a first image set of an endoscope with a second image set using a processor. A region of interest is selected on the first set of images, and the selected region of interest is converted to an endoscopic coordinate frame. A guidance tool is overlaid on the second set of images to allow the user of the endoscope to navigate to the selected region of interest.

本開示のこれらの及び他の目的、特徴及び利点は、添付の図面に関連して読まれるその実施形態例の以下の詳細な説明から明らかとなる。   These and other objects, features and advantages of the present disclosure will become apparent from the following detailed description of example embodiments thereof read in conjunction with the accompanying drawings.

本開示は以下の図面を参照して以下の好適な実施形態の説明を詳細に提示する。   The present disclosure presents in detail the following description of preferred embodiments with reference to the following drawings.

一実施形態にかかる、ガイダンスツールを用いて内視鏡を手動操作するためのシステムを示すブロック/フロー図である。FIG. 3 is a block / flow diagram illustrating a system for manually operating an endoscope using a guidance tool, according to one embodiment. 一実施形態にかかる、方向、経路及び方向誤差インジケータがオーバーレイされた内視鏡画像の一実施例である。FIG. 3 is an example of an endoscopic image with overlayed direction, path and direction error indicators according to one embodiment. FIG. 一実施形態にかかる、距離を示す距離誤差インジケータがオーバーレイされた内視鏡画像の一実施例である。6 is an example of an endoscopic image overlaid with a distance error indicator indicating distance according to one embodiment. 一実施形態にかかる、仮想ばねを用いる距離誤差インジケータがオーバーレイされた内視鏡画像の一実施例である。FIG. 4 is an example of an endoscopic image overlaid with a distance error indicator using a virtual spring, according to one embodiment. FIG. 一実施形態にかかる、内視鏡カメラの座標系を内視鏡ユーザの座標系と方向付けるためのシステムを示すブロック/フロー図である。FIG. 2 is a block / flow diagram illustrating a system for orienting an endoscope camera coordinate system with an endoscope user coordinate system, according to one embodiment. 一実施形態にかかる、内視鏡カメラの座標系を内視鏡ユーザの座標系と方向付ける内視鏡画像の一実施例である。It is one Example of the endoscopic image which orient | assigns the coordinate system of an endoscope camera to the coordinate system of an endoscope user concerning one Embodiment. 一実施形態にかかる、ガイダンスツールを用いて内視鏡を手動操作するための方法を示すブロック/フロー図である。FIG. 5 is a block / flow diagram illustrating a method for manually operating an endoscope using a guidance tool, according to one embodiment.

本発明の原理によれば、システム、装置及び方法のための実施形態は内視鏡を手動操作するためのガイダンスツールを提供する。一実施形態において、術前及び/又は術中画像が内視鏡の画像とレジストレーションされる。ユーザ(例えば外科医助手)が選択された関心領域の方へ内視鏡を操作することを可能にするガイダンスツールとして、視覚的な手掛かりが内視鏡ビュー上にオーバーレイされ得る。内視鏡の動きは視覚的な手掛かりを更新するために画像特徴を用いてリアルタイムに追跡され得る。視覚的な手掛かりは、限定されないが、選択された関心領域への方向を示す方向インジケータ、内視鏡の動きを示す内視鏡トレーサ、選択された関心領域への方向と比較して内視鏡の動きの角度誤差を示す方向誤差インジケータ、選択された関心領域への距離を示す距離誤差インジケータ、及び解剖学的方向を示す解剖学的基準方向を含み得る。他の視覚的な手掛かりが可能であり、本発明の原理の範囲内で考慮されている。   In accordance with the principles of the present invention, embodiments for systems, devices and methods provide guidance tools for manually operating an endoscope. In one embodiment, pre-operative and / or intra-operative images are registered with endoscopic images. Visual cues can be overlaid on the endoscopic view as a guidance tool that allows a user (eg, a surgeon's assistant) to manipulate the endoscope toward a selected region of interest. Endoscope movement can be tracked in real time using image features to update visual cues. Visual cues include, but are not limited to, a directional indicator that indicates the direction to the selected region of interest, an endoscopic tracer that indicates the movement of the endoscope, an endoscope compared to the direction to the selected region of interest A direction error indicator indicating the angular error of the movement, a distance error indicator indicating the distance to the selected region of interest, and an anatomical reference direction indicating the anatomical direction. Other visual cues are possible and are considered within the principles of the present invention.

別の実施形態において、本発明の原理は内視鏡カメラの座標系をユーザの好適な座標系と事前に方向付け得る。カメラを好適な方向に事前に方向付けるために、内視鏡のカメラは作動プラットフォーム上に取り付けられ得る。内視鏡ユーザは例えば画像中の"上向き"方向に対応することを好む物理的方向に内視鏡を動かす。内視鏡の物理的運動と画像中の実際の上向き方向との間の角度が決定され、作動プラットフォームがそれに従ってカメラを回転させて座標フレームを事前に方向付ける。本発明の原理は上向き方向に限定されず、いかなる方向も含み得ることが留意される。   In another embodiment, the principles of the present invention may pre-orient the endoscopic camera coordinate system with the user's preferred coordinate system. In order to pre-orient the camera in a suitable direction, the endoscope camera can be mounted on a working platform. The endoscope user moves the endoscope in a physical direction that prefers to correspond, for example, to the “upward” direction in the image. The angle between the physical movement of the endoscope and the actual upward direction in the image is determined, and the actuation platform rotates the camera accordingly to pre-orient the coordinate frame. It is noted that the principles of the present invention are not limited to the upward direction and can include any direction.

本発明は内視鏡に関して記載されるが、本発明の教示はもっと広く、分岐、湾曲、コイル状、若しくは他の形状のシステムの内部ビューイングに利用されることができるいかなる光学スコープにも適用可能であることが理解されるべきである。一部の実施形態において、本発明の原理は複雑な生物学的若しくは機械的系(例えば消化系、循環系、配管系、通路、鉱山、洞窟など)を追跡若しくは分析するのに利用される。特に、本発明の原理は生体系の内部追跡手順、肺、胃腸管、排泄器官、血管などといった身体の全領域における手順に適用可能である。図面に描かれる要素はハードウェア及びソフトウェアの様々な組み合わせで実現され、単一の要素若しくは複数の要素に組み合され得る機能を提供し得る。本明細書に記載の実施形態は好適にはディスプレイモニタ上のビューのために表示される。こうしたモニタは、限定されないが(例えば携帯情報端末、電話機などの)手持ち式ディスプレイ、コンピュータディスプレイ、テレビ、専用モニタなどを含む任意の適切な表示装置を含み得る。スコープに応じて、ディスプレイはシステムの一部として提供され得るか、又は別のユニット若しくは装置であり得る。   Although the present invention will be described with respect to an endoscope, the teachings of the present invention are broader and apply to any optical scope that can be utilized for internal viewing of bifurcated, curved, coiled, or other shaped systems. It should be understood that this is possible. In some embodiments, the principles of the present invention are utilized to track or analyze complex biological or mechanical systems (eg, digestive systems, circulatory systems, piping systems, passageways, mines, caves, etc.). In particular, the principles of the present invention can be applied to procedures in the entire region of the body such as internal tracking procedures of biological systems, lungs, gastrointestinal tract, excretory organs, blood vessels and the like. The elements depicted in the drawings can be implemented in various combinations of hardware and software and provide functionality that can be combined into a single element or multiple elements. The embodiments described herein are preferably displayed for view on a display monitor. Such monitors may include any suitable display device including, but not limited to, handheld displays (such as personal digital assistants, telephones, etc.), computer displays, televisions, dedicated monitors, and the like. Depending on the scope, the display can be provided as part of the system or can be a separate unit or device.

光学スコープはスコープに接続される若しくは付随する複数の異なる装置を含み得ることも理解されるべきである。こうした装置はライト、切断装置、ブラシ、バキューム、カメラなどを含み得る。これらの構成要素はスコープの遠位端部の先端と一体化して形成され得る。光学スコープはスコープの先端に配置されるカメラを含み得るか、若しくはカメラは先端と反対側の光ケーブルの端部に配置され得る。   It should also be understood that the optical scope may include a plurality of different devices connected to or associated with the scope. Such devices can include lights, cutting devices, brushes, vacuums, cameras, and the like. These components can be integrally formed with the distal tip of the scope. The optical scope can include a camera positioned at the tip of the scope, or the camera can be positioned at the end of the optical cable opposite the tip.

図面に示す様々な要素の機能は専用ハードウェア及び適切なソフトウェアと関連してソフトウェアを実行することができるハードウェアを用いて提供され得る。プロセッサによって提供されるとき、機能は単一の専用プロセッサによって、単一の共有プロセッサによって、若しくはその一部が共有され得る複数の個別プロセッサによって提供され得る。さらに、"プロセッサ"若しくは"コントローラ"という語の明示的な使用は、ソフトウェアを実行することができるハードウェアを排他的にあらわすものと解釈されるべきではなく、限定されることなく、デジタル信号プロセッサ("DSP")ハードウェア、ソフトウェアを保存するためのリードオンリーメモリ("ROM")、ランダムアクセスメモリ("RAM")、不揮発性記憶装置などを非明示的に含み得る。   The functions of the various elements shown in the figures can be provided using dedicated hardware and hardware capable of executing software in conjunction with appropriate software. When provided by a processor, functionality may be provided by a single dedicated processor, by a single shared processor, or by multiple individual processors, some of which may be shared. In addition, the explicit use of the word “processor” or “controller” should not be construed to represent exclusively hardware capable of executing software, but is not limited to digital signal processors. ("DSP") hardware, read only memory ("ROM") for storing software, random access memory ("RAM"), non-volatile storage, etc. may be implicitly included.

さらに、本発明の原理、態様、及び実施形態、並びにその特定の実施例を列挙する本明細書の全記述は、その構造的及び機能的な均等物の両方を包含することが意図される。加えて、こうした均等物は現在既知の均等物並びに将来開発される均等物(すなわち構造にかかわらず同じ機能を実行する開発される任意の要素)の両方を含むことが意図される。従って、例えば、当業者に当然のことながら、本明細書に提示するブロック図は本発明の原理を具体化する例示的なシステムコンポーネント及び/又は回路の概念図をあらわす。同様に、当然のことながら任意のフローチャート、フロー図及び同様のものは、実質的にコンピュータ可読記憶媒体にあらわされ、コンピュータ若しくはプロセッサによって(こうしたコンピュータ若しくはプロセッサが明示されているか否かにかかわらず)そのように実行され得る様々なプロセスをあらわす。   Moreover, all statements herein reciting principles, aspects, and embodiments of the invention, as well as specific examples thereof, are intended to encompass both structural and functional equivalents thereof. In addition, such equivalents are intended to include both presently known equivalents as well as equivalents developed in the future (ie, any element developed that performs the same function regardless of structure). Thus, for example, as will be appreciated by those skilled in the art, the block diagrams presented herein represent conceptual diagrams of exemplary system components and / or circuits that embody the principles of the invention. Similarly, it will be appreciated that any flowcharts, flow diagrams, and the like may be represented substantially on a computer-readable storage medium and by a computer or processor (whether or not such computer or processor is explicitly specified). Represents the various processes that can be performed as such.

さらに、本発明の実施形態はコンピュータ若しくは任意の命令実行システムによって又はそれらと関連して使用するためのプログラムコードを提供するコンピュータ使用可能若しくはコンピュータ可読記憶媒体からアクセス可能なコンピュータプログラム製品の形をとり得る。この記載の目的で、コンピュータ使用可能若しくはコンピュータ可読記憶媒体は、命令実行システム、機器、若しくは装置によって又はそれらと関連して使用するためのプログラムを包含、保存、通信、伝搬、若しくは輸送し得る任意の機器であり得る。媒体は電子、磁気、光学、電磁、赤外線、若しくは半導体システム(又は機器若しくは装置)又は伝搬媒体であり得る。コンピュータ可読媒体の実施例は半導体若しくは固体メモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、固定磁気ディスク及び光ディスクを含む。光ディスクの現在の実施例はコンパクトディスク‐リードオンリーメモリ(CD‐ROM)、コンパクトディスク‐リード/ライト(CD‐R/W)、Blu‐Ray(登録商標)、及びDVD(登録商標)を含む。   Furthermore, embodiments of the present invention take the form of a computer program product accessible from a computer-usable or computer-readable storage medium that provides program code for use by or in connection with a computer or any instruction execution system. obtain. For purposes of this description, a computer usable or computer readable storage medium is any that can contain, store, communicate, propagate, or transport a program for use by or in connection with an instruction execution system, device, or apparatus. Equipment. The medium can be an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system (or apparatus or device) or a propagation medium. Examples of computer readable media include semiconductor or solid state memory, magnetic tape, removable computer diskettes, random access memory (RAM), read only memory (ROM), fixed magnetic disks and optical disks. Current examples of optical disks include compact disk-read only memory (CD-ROM), compact disk-read / write (CD-R / W), Blu-Ray (R), and DVD (R).

図面において類似する数字は同一若しくは同様の要素をあらわし、最初に図1を参照すると、ガイダンスツールを用いて内視鏡を手動操作するためのシステム100が一実施形態に従って例示的に描かれる。システム100はワークステーション若しくはコンソール108を含み、そこから手順(例えば内視鏡検査)が管理され制御される。ワークステーション108は好適には一つ以上のプロセッサ138と、プログラム及びアプリケーションを保存するためのメモリ110を含む。システム100の機能と構成要素は一つ以上のワークステーション若しくはシステムに統合され得ることが理解されるべきである。   In the drawings, like numerals represent the same or similar elements, and referring initially to FIG. 1, a system 100 for manually manipulating an endoscope using a guidance tool is illustratively depicted in accordance with one embodiment. System 100 includes a workstation or console 108 from which procedures (eg, endoscopy) are managed and controlled. The workstation 108 preferably includes one or more processors 138 and a memory 110 for storing programs and applications. It should be understood that the functions and components of the system 100 can be integrated into one or more workstations or systems.

メモリ110は画像112を保存し得る。画像112は術前画像と術中画像を含み、これは限定されないが磁気共鳴イメージング(MRI)システム、コンピュータ断層撮影(CT)システム、x線システム、3D超音波システムなどを含むシステムから受信され得る。メモリ110はスコープ102から受信されるスコープ画像114も保存し得る。好適な実施形態において、スコープ102はカメラ106から手術部位の術中画像をキャプチャする内視鏡である。スコープ画像114は好適には内視鏡102のカメラ106からのビデオを含み得る。   Memory 110 may store image 112. Image 112 includes pre-operative and intra-operative images, which may be received from systems including, but not limited to, magnetic resonance imaging (MRI) systems, computed tomography (CT) systems, x-ray systems, 3D ultrasound systems, and the like. The memory 110 may also store a scope image 114 received from the scope 102. In the preferred embodiment, the scope 102 is an endoscope that captures intraoperative images of the surgical site from the camera 106. Scope image 114 may preferably include video from camera 106 of endoscope 102.

本発明の原理は内視鏡ガイド下低侵襲外科手術の異なる用途に適用され得る。例えば、本発明の原理は心臓手術(例えば低侵襲冠動脈バイパス移植術、心房中隔欠損縫合、弁修復/置換術など)、腹腔鏡手術(例えば子宮摘出術、前立腺切除術、胆嚢手術など)、自然開口部越経管腔的手術、肺/気管支鏡手術、脳神経外科インターベンション、及びビデオ補助下胸部手術のために使用され得る。しかしながら、本発明の教示はこれよりももっと広く、スコープ102は様々なタイプの用途のためのいかなるタイプのスコープも含み得る。一実施形態例において、本発明の原理は"plumber's snake"を配管を通して手動でナビゲートするために適用され得る。他の用途も考慮される。   The principles of the present invention can be applied to different applications of endoscopic guided minimally invasive surgery. For example, the principles of the present invention include cardiac surgery (eg, minimally invasive coronary artery bypass grafting, atrial septal defect suture, valve repair / replacement, etc.), laparoscopic surgery (eg, hysterectomy, prostatectomy, gallbladder surgery, etc.) It can be used for natural orifice transluminal surgery, pulmonary / bronchoscopic surgery, neurosurgery interventions, and video-assisted chest surgery. However, the teachings of the present invention are much broader and scope 102 can include any type of scope for various types of applications. In one example embodiment, the principles of the present invention may be applied to manually navigate “plumber's snack” through a pipe. Other uses are also considered.

ワークステーション108は術前及び術中画像112並びに本発明の原理のガイダンス機能を含むスコープ画像114をビューするための一つ以上のディスプレイ134を含み得る。ディスプレイ134はユーザがワークステーション108並びにそのコンポーネント及び機能とインタラクションすることも可能にし得る。これは、ユーザがワークステーション108とインタラクションすることを可能にするキーボード、マウス、ジョイスティック、又は任意の他の周辺機器若しくはコントロールを含み得るユーザインターフェース136によってさらに容易にされる。   The workstation 108 may include one or more displays 134 for viewing pre- and intra-operative images 112 and scope images 114 that include guidance features of the principles of the present invention. Display 134 may also allow a user to interact with workstation 108 and its components and functions. This is further facilitated by a user interface 136 that may include a keyboard, mouse, joystick, or any other peripheral device or control that allows the user to interact with the workstation 108.

コンピュータ実施プログラム116はワークステーション108のメモリ110に保存される。プログラム116は各々が様々な機能を実行するように構成される複数のモジュールを含み得る。モジュールはハードウェアとソフトウェアの様々な組み合わせで実施され得ることが理解されるべきである。   The computer implementation program 116 is stored in the memory 110 of the workstation 108. Program 116 may include a plurality of modules, each configured to perform various functions. It should be understood that modules can be implemented in various combinations of hardware and software.

プログラム116は画像112(例えば術前画像及び/又は術中画像)とスコープ(例えば内視鏡)画像114間のレジストレーションを実行するように構成されるレジストレーションモジュール118を含み得る。レジストレーションは当技術分野で周知の通り実行される。   The program 116 may include a registration module 118 configured to perform registration between the image 112 (eg, preoperative and / or intraoperative image) and the scope (eg, endoscopic) image 114. Registration is performed as is well known in the art.

プログラム116はユーザ(例えば外科医)が術前及び術中画像112(例えばCT若しくはx線)上の関心領域を選択することを可能にするように構成される選択モジュール120も含み得る。例えば、選択された関心領域は冠動脈バイパス移植術における標的バイパス動脈であり得る。選択モジュール120はこの選択を容易にするためにディスプレイ134及びユーザインターフェース136の使用を含み得る。そして選択モジュール120はレジストレーションモジュール118において決定されるレジストレーション変換を用いて選択された関心領域を術前及び/又は術中画像座標フレームから内視鏡座標フレームへ変換する。   Program 116 may also include a selection module 120 configured to allow a user (eg, a surgeon) to select a region of interest on pre-operative and intra-operative images 112 (eg, CT or x-ray). For example, the selected region of interest may be a target bypass artery in coronary artery bypass grafting. Selection module 120 may include the use of display 134 and user interface 136 to facilitate this selection. The selection module 120 then converts the selected region of interest using the registration transformation determined in the registration module 118 from a pre-operative and / or intra-operative image coordinate frame to an endoscopic coordinate frame.

プログラム116は内視鏡ビュー内の選択された関心領域を使用して複数のガイダンスインジケータを決定するように構成されるガイダンスモジュール122を含み得る。ガイダンスモジュール122は、限定されないが、方向モジュール124、経路モジュール126、及び距離モジュール128のいずれか若しくは全てを含み得る。他のインジケータもまた考慮されている。   The program 116 may include a guidance module 122 configured to determine a plurality of guidance indicators using a selected region of interest within the endoscopic view. Guidance module 122 may include, but is not limited to, any or all of direction module 124, path module 126, and distance module 128. Other indicators are also considered.

方向モジュール124は内視鏡画像の現在の中心から選択された関心領域への方向を決定して、方向インジケータを内視鏡画像上にオーバーレイする。少しの間図2Aを参照すると、オーバーレイされたインジケータ200を含む内視鏡画像が、一実施形態に従って例示的に描かれる。方向インジケータ206は内視鏡画像上にオーバーレイされて内視鏡画像の中心202から選択された関心領域204への方向を示す。   The direction module 124 determines the direction from the current center of the endoscopic image to the selected region of interest and overlays a direction indicator on the endoscopic image. With reference briefly to FIG. 2A, an endoscopic image including an overlaid indicator 200 is illustratively depicted in accordance with one embodiment. A direction indicator 206 is overlaid on the endoscopic image to indicate the direction from the center 202 of the endoscopic image to the selected region of interest 204.

図1のガイダンスモジュール122はユーザ(例えば外科医若しくは助手)が内視鏡をナビゲートするのをさらに助ける経路モジュール126を含み得る。少しの間図2Aに戻って参照すると、内視鏡の動きを示す内視鏡トレース208が内視鏡画像上にオーバーレイされる。トレース208は内視鏡画像の中心に位置する一つ以上の解剖学的特徴の位置を追跡し、その位置を内視鏡画像上でマークする矢印をオーバーレイすることによって生成される。各フレーム若しくはフレームの期間において、以前に画像の中心にあった特徴を追跡し続けながら、画像の中心にある現在の特徴が内視鏡画像上に矢印でオーバーレイされる。このプロセスを続けて、ユーザが選択された関心領域204へナビゲートするように内視鏡を操作するのを助ける視覚的な跡が作られ得る。   The guidance module 122 of FIG. 1 may include a path module 126 that further assists a user (eg, a surgeon or assistant) to navigate the endoscope. Referring back to FIG. 2A for a short time, an endoscopic trace 208 showing the movement of the endoscope is overlaid on the endoscopic image. Trace 208 is generated by tracking the position of one or more anatomical features located in the center of the endoscopic image and overlaying an arrow that marks the position on the endoscopic image. In each frame or frame period, the current feature at the center of the image is overlaid with an arrow on the endoscopic image while continuing to track the features that were previously at the center of the image. This process can be continued to create a visual trail that helps the user operate the endoscope to navigate to the selected region of interest 204.

トレース208の方向は視覚的な手掛かりを用いて角度誤差を表示するために標的関心領域204の方向と比較され得る。一実施形態において、それぞれ内視鏡208の動きと選択された関心領域の方向206との間の角度オフセットを示す針212と214を用いてダイヤル210が表示され得る。角度誤差を示す他の視覚的な手掛かりも考慮される。例えば、選択された関心領域206への方向と内視鏡208の動きの間の角度が(例えば度で)表示され得る。   The direction of the trace 208 can be compared to the direction of the target region of interest 204 to display the angular error using visual cues. In one embodiment, dial 210 may be displayed using needles 212 and 214 that indicate an angular offset between the movement of endoscope 208 and the direction 206 of the selected region of interest, respectively. Other visual cues that indicate angular error are also considered. For example, the angle between the direction to the selected region of interest 206 and the movement of the endoscope 208 may be displayed (eg, in degrees).

ガイダンスモジュール122は内視鏡画像の中心から標的関心領域への距離を示すように構成される距離モジュール128も含み得る。少しの間図2Bを参照すると、距離誤差インジケータ220がオーバーレイされた内視鏡画像が一実施形態に従って例示的に描かれる。内視鏡画像は内視鏡画像の中心202から標的関心領域204への方向を示す方向インジケータ206も含み得る。一実施形態において、距離222が(例えばピクセルで)画面上に数として示され得る。別の実施形態において、内視鏡画像の中心202と選択された関心領域204の間の線が距離に応じてあらわされ得る。例えば、少しの間図2Cを参照すると、仮想ばねを用いる距離インジケータがオーバーレイされた内視鏡画像240が一実施形態に従って例示的に描かれる。仮想ばね242は内視鏡画像の中心202を選択された関心領域204とつなぐ。仮想ばねは2点間の距離がさらに離れるにつれて伸張され、距離が近くなるにつれて圧縮されて見え得る。他の距離誤差インジケータも考慮されている。例えば、内視鏡画像の中心202と選択された関心領域204の間の線の色が距離によって変化することができ、色を定義する説明文が画面上に表示される。別の実施形態において、距離が変化するにつれて線の太さが修正されることができる。   Guidance module 122 may also include a distance module 128 configured to indicate the distance from the center of the endoscopic image to the target region of interest. Referring briefly to FIG. 2B, an endoscopic image with a distance error indicator 220 overlaid is illustratively depicted in accordance with one embodiment. The endoscopic image may also include a direction indicator 206 that indicates the direction from the center 202 of the endoscopic image to the target region of interest 204. In one embodiment, distance 222 may be shown as a number on the screen (eg, in pixels). In another embodiment, a line between the center 202 of the endoscopic image and the selected region of interest 204 may be represented as a function of distance. For example, referring briefly to FIG. 2C, an endoscopic image 240 overlaid with a distance indicator using a virtual spring is illustratively depicted according to one embodiment. A virtual spring 242 connects the center 202 of the endoscopic image with the selected region of interest 204. The virtual spring may appear to expand as the distance between the two points further increases and to compress as the distance decreases. Other distance error indicators are also considered. For example, the color of the line between the center 202 of the endoscopic image and the selected region of interest 204 can vary with distance, and an explanatory text defining the color is displayed on the screen. In another embodiment, the line thickness can be modified as the distance changes.

本発明の原理のさらに別の実施形態において、図1の方向モジュール124は内視鏡画像上に解剖学的基準方向をオーバーレイし得る。術前及び術中画像112がレジストレーションモジュール118によって内視鏡画像114とレジストレーションされると、術前及び術中画像の解剖学的基準方向が決定される。解剖学的基準方向は内視鏡座標系に変換され、内視鏡画像上にオーバーレイされる。解剖学的基準方向は、限定されないが、前/後、右/左、及び頭/足方向を含み得る。他の解剖学的方向も考慮される。   In yet another embodiment of the principles of the present invention, the direction module 124 of FIG. 1 may overlay an anatomical reference direction on the endoscopic image. Once the preoperative and intraoperative images 112 are registered with the endoscopic image 114 by the registration module 118, the anatomical reference directions of the preoperative and intraoperative images are determined. The anatomical reference direction is converted into an endoscopic coordinate system and overlaid on the endoscopic image. Anatomical reference directions may include, but are not limited to, anterior / posterior, right / left, and head / foot directions. Other anatomical directions are also considered.

ガイダンスモジュール122のオーバーレイされたガイダンスインジケータを用いて、ユーザは内視鏡102をナビゲートする。内視鏡102が選択された関心領域に達しているかどうかを決定するために、上述の通り、内視鏡の動きがトレースされる。ガイダンスモジュール122の操作は選択された関心領域に達するまで繰り返される。選択された関心領域に達すると、プロセスは終了する。   Using the overlaid guidance indicator of the guidance module 122, the user navigates the endoscope 102. To determine whether the endoscope 102 has reached the selected region of interest, the movement of the endoscope is traced as described above. The operation of the guidance module 122 is repeated until the selected region of interest is reached. When the selected region of interest is reached, the process ends.

本発明の原理の一実施形態において、図1のプログラム116はユーザが内視鏡102をナビゲートするのをさらに助ける作動モジュール130も含み得る。作動モジュール130はカメラの座標系がユーザの好適な座標系と対応するように作動プラットフォーム104を用いてカメラ106を事前に方向付けるように構成される。作動モジュール130はユーザが例えば上向き方向に対応することを好む方向を受信する。例えば、ユーザは好みの上向き方向に内視鏡を物理的に動かし得る。内視鏡の物理的な動きと内視鏡画像の真の上向き方向の間の角度が計算され、入力として作動プラットフォームへ渡され、作動プラットフォームはそれに従ってカメラを事前に方向付ける。対応する方向は上向き方向に限定されず、むしろいかなる方向も含み得ることが留意される。   In one embodiment of the principles of the present invention, the program 116 of FIG. 1 may also include an activation module 130 that further assists the user in navigating the endoscope 102. The actuation module 130 is configured to pre-orient the camera 106 using the actuation platform 104 such that the camera coordinate system corresponds to the user's preferred coordinate system. The actuation module 130 receives the direction that the user prefers to correspond to, for example, the upward direction. For example, the user may physically move the endoscope in a preferred upward direction. The angle between the physical movement of the endoscope and the true upward direction of the endoscopic image is calculated and passed as input to the working platform, which pre-directs the camera accordingly. It is noted that the corresponding direction is not limited to the upward direction, but rather can include any direction.

ここで図3Aを参照すると、内視鏡カメラの座標系を内視鏡ユーザの座標系300と方向付けるためのシステムが一実施形態に従って例示的に描かれる。カメラ106はスコープ102上の作動プラットフォーム104上に取り付けられる。作動プラットフォーム104は受信した角度に従って回転してそれに従ってカメラを方向付ける。少しの間図3Bを参照すると、方向付けインジケータがオーバーレイされた内視鏡画像の実施例320が一実施形態に従って図示される。ユーザは好みの上向き方向に内視鏡を動かし、画像中心インジケータ202からの内視鏡の動き324をもたらす。内視鏡の動き324と画像の真の上向き方向322の間の角度が計算されて角度326を決定し、これはそれに従ってカメラを方向付けるために作動プラットフォーム104へ渡される。   Referring now to FIG. 3A, a system for orienting an endoscope camera coordinate system with an endoscope user coordinate system 300 is illustratively depicted in accordance with one embodiment. The camera 106 is mounted on the working platform 104 on the scope 102. The actuation platform 104 rotates according to the received angle and directs the camera accordingly. Turning briefly to FIG. 3B, an example endoscopic image 320 overlaid with orientation indicators is illustrated according to one embodiment. The user moves the endoscope in the preferred upward direction, resulting in endoscope movement 324 from the image center indicator 202. The angle between the endoscope movement 324 and the true upward direction 322 of the image is calculated to determine an angle 326 that is passed to the actuation platform 104 to direct the camera accordingly.

ここで図4を参照すると、ガイダンスツールを用いて内視鏡を手動操作するための方法400が一実施形態に従って例示的に描かれる。ブロック402において、スコープ画像が術前及び/又は術中画像とレジストレーションされる。スコープ画像は好適には手術部位の術中画像をキャプチャするカメラを含む内視鏡の画像である。内視鏡画像は好適にはビデオを含み得る。術前及び/又は術中画像は、限定されないが、MRIシステム、CTシステム、x線システム、3D超音波システムなどを含むシステムから受信され得る。レジストレーションは当技術分野で周知の通り実行される。   With reference now to FIG. 4, a method 400 for manually manipulating an endoscope using a guidance tool is illustratively depicted in accordance with one embodiment. At block 402, the scope image is registered with pre-operative and / or intra-operative images. The scope image is preferably an endoscope image including a camera that captures an intraoperative image of the surgical site. The endoscopic image may preferably include a video. Pre-operative and / or intra-operative images may be received from systems including but not limited to MRI systems, CT systems, x-ray systems, 3D ultrasound systems, and the like. Registration is performed as is well known in the art.

ブロック404において、関心領域が術前及び術中画像上で選択され得る。ブロック406において、選択された関心領域は術前及び術中画像座標フレームから内視鏡画像座標フレームへ変換され得る。これはブロック402において決定されるレジストレーション変換の使用を含み得る。   At block 404, a region of interest may be selected on the pre-operative and intra-operative images. At block 406, the selected region of interest may be converted from pre-operative and intra-operative image coordinate frames to endoscopic image coordinate frames. This may include the use of registration transformations determined at block 402.

ブロック408において、内視鏡画像の現在の中心から選択された関心領域への方向が内視鏡画像において決定される。この方向を用いて、ブロック410において、ガイダンスインジケータが内視鏡画像上にオーバーレイされる。ガイダンスインジケータは、例えば、限定されないが、方向インジケータ、内視鏡トレーサ、方向誤差インジケータ、距離誤差インジケータ、及び解剖学的基準方向インジケータを含み得る。他のインジケータも考慮される。   At block 408, a direction from the current center of the endoscopic image to the selected region of interest is determined in the endoscopic image. Using this direction, at block 410, a guidance indicator is overlaid on the endoscopic image. Guidance indicators may include, for example, without limitation, direction indicators, endoscopic tracers, direction error indicators, distance error indicators, and anatomical reference direction indicators. Other indicators are also considered.

一実施形態において、ガイダンスインジケータは内視鏡画像の現在の中心から選択された関心領域への方向を示すために内視鏡画像上にオーバーレイされる方向インジケータを含み得る。別の実施形態において、内視鏡の動きを示す内視鏡トレースが内視鏡画像上にオーバーレイされ得る。トレースは内視鏡画像の中心に位置する各解剖学的特徴の位置を追跡し、内視鏡画像上でその位置をマークする矢印をオーバーレイすることによって生成され得る。各フレーム若しくはフレームの期間において、以前に画像の中心にあった特徴を追跡し続けながら、画像の中心における現在の特徴が内視鏡画像上の矢印とオーバーレイされる。このプロセスを続けて、ユーザが内視鏡をナビゲートするのを助け得る視覚的な跡を提供するよう、特徴の各々の位置が内視鏡画像において表示される。   In one embodiment, the guidance indicator may include a direction indicator overlaid on the endoscopic image to indicate the direction from the current center of the endoscopic image to the selected region of interest. In another embodiment, an endoscopic trace indicating the movement of the endoscope may be overlaid on the endoscopic image. The trace can be generated by tracking the position of each anatomical feature located at the center of the endoscopic image and overlaying an arrow marking that position on the endoscopic image. In each frame or frame period, the current feature at the center of the image is overlaid with an arrow on the endoscopic image, keeping track of the features that were previously in the center of the image. Continuing this process, the location of each feature is displayed in the endoscopic image to provide a visual trail that can help the user navigate the endoscope.

さらに別の実施形態において、内視鏡の動きと選択された関心領域への方向との間の角度オフセットをあらわす角度誤差を決定するために、内視鏡トレースが選択された関心領域の方向と比較され得る。角度誤差は視覚的な手掛かりを用いて内視鏡画像上にオーバーレイされ得る。一実施形態において、二つの針を含むダイヤルが内視鏡画像上にオーバーレイされ、各針は内視鏡のトレースと選択された関心領域への方向をそれぞれ示す。別の実施例において、角度誤差は内視鏡画像上に角度を(例えば度で)表示することによって示され得る。   In yet another embodiment, to determine an angular error that represents an angular offset between the movement of the endoscope and the direction to the selected region of interest, the endoscope trace is Can be compared. Angular errors can be overlaid on the endoscopic image using visual cues. In one embodiment, a dial containing two needles is overlaid on the endoscopic image, each needle indicating an endoscope trace and a direction to a selected region of interest, respectively. In another example, the angle error may be indicated by displaying the angle (eg, in degrees) on the endoscopic image.

一実施形態において、ガイダンスインジケータは内視鏡画像上にオーバーレイされる距離誤差インジケータを含み得る。内視鏡が動かされると、内視鏡画像の中心から選択された関心領域への距離が変化する。距離誤差はユーザが内視鏡をナビゲートするのを助けるために内視鏡画像上にオーバーレイされ得る。例えば、距離が(例えばピクセルで)画面の数として示され得る。別の実施例において、内視鏡画像の中心と選択された関心領域をつなぐ線が距離に応じてあらわされ得る。これは距離が大きくなるにつれて伸張され距離が小さくなるにつれて圧縮されて見え得る仮想ばねとして線をあらわすことを含み得る。代替的に、線の色若しくは太さが距離に従って変化し得る。距離誤差の他の表現も考慮される。   In one embodiment, the guidance indicator may include a distance error indicator overlaid on the endoscopic image. When the endoscope is moved, the distance from the center of the endoscopic image to the selected region of interest changes. The distance error can be overlaid on the endoscopic image to help the user navigate the endoscope. For example, distance may be indicated as the number of screens (eg, in pixels). In another embodiment, a line connecting the center of the endoscopic image and the selected region of interest may be represented as a function of distance. This can include representing the line as a virtual spring that can be stretched as the distance increases and compressed as the distance decreases. Alternatively, the color or thickness of the line can change according to the distance. Other representations of distance error are also considered.

別の実施形態において、解剖学的基準方向が内視鏡画像上にオーバーレイされ得る。術前及び術中画像がレジストレーションされると(ブロック402)、術前及び術中画像の解剖学的基準方向が決定され、内視鏡ビューに変換される。解剖学的基準方向は、例えば、前/後、右/左、及び頭/足方向を含み得る。他の解剖学的基準方向も考慮される。   In another embodiment, the anatomical reference direction can be overlaid on the endoscopic image. Once the pre-operative and intra-operative images are registered (block 402), the anatomical reference direction of the pre-operative and intra-operative images is determined and converted to an endoscopic view. Anatomic reference directions may include, for example, anterior / posterior, right / left, and head / foot directions. Other anatomical reference directions are also considered.

ブロック414において、内視鏡画像上にオーバーレイされるガイダンスインジケータを用いて、ユーザはより効率的に内視鏡をナビゲートすることができる。選択関心領域に達するかどうかを決定するために内視鏡の動きが追跡される。ブロック416において、選択された関心領域に達していない場合、ブロック418において選択された関心領域に達するまでステップ408,410,414及び416が繰り返される。有利なことに、本発明の原理はユーザが効率的に内視鏡をナビゲートするのを助け、手術室滞在時間の短縮をもたらす。   At block 414, the guidance indicator overlaid on the endoscopic image can be used to allow the user to navigate the endoscope more efficiently. The movement of the endoscope is tracked to determine if the selected region of interest is reached. If at block 416 the selected region of interest has not been reached, steps 408, 410, 414 and 416 are repeated until the selected region of interest is reached at block 418. Advantageously, the principles of the present invention help the user navigate the endoscope efficiently, resulting in reduced operating room residence time.

本発明の一実施形態において、ブロック412において、内視鏡のカメラはカメラの座標系がユーザの好適な座標系と対応するように事前に方向付けられ得る。ユーザは好みの例えば上向き方向を示し得る。これはユーザが好みの上向き方向に内視鏡を物理的に動かすことを含み得る。内視鏡の物理的な動きと内視鏡画像の実際の上向き方向との間の角度が計算され、カメラと内視鏡の間に取り付けられる作動プラットフォームへ入力として渡される。作動プラットフォームはユーザが内視鏡をナビゲートするのを助けるために受信した角度に従ってカメラを回転させる。対応する方向は上向き方向に限定されず、むしろいかなる方向も含み得ることが留意される。   In one embodiment of the present invention, at block 412, the endoscope camera may be pre-oriented so that the camera coordinate system corresponds to the user's preferred coordinate system. The user may indicate a preferred eg upward direction. This may involve the user physically moving the endoscope in the preferred upward direction. The angle between the physical movement of the endoscope and the actual upward direction of the endoscopic image is calculated and passed as input to the working platform that is mounted between the camera and the endoscope. The actuation platform rotates the camera according to the received angle to help the user navigate the endoscope. It is noted that the corresponding direction is not limited to the upward direction, but rather can include any direction.

添付の請求項において、
a)"有する"という語は所与の請求項に列挙したもの以外の要素若しくは動作の存在を除外しない。
b)ある要素に先行する"a"若しくは"an"という語はかかる要素の複数の存在を除外しない。
c)請求項における任意の参照符号はその範囲を限定しない。
d)複数の"手段"は同じ項目又はハードウェア若しくはソフトウェア実施構造若しくは機能によってあらわされ得る。
e)特に明記しない限り特定の動作順序が要求されることを意図しない。
ことが理解されるべきである。
In the appended claims:
a) the word “comprising” does not exclude the presence of other elements or acts than those listed in a given claim;
b) The word “a” or “an” preceding an element does not exclude the presence of a plurality of such elements.
c) any reference signs in the claims do not limit their scope;
d) Multiple “means” may be represented by the same item or hardware or software implementation structure or function.
e) It is not intended that a specific order of operation is required unless otherwise specified.
It should be understood.

術前及び術中3D画像を用いて内視鏡を手動操作するガイダンスツールのための好適な実施形態を記載したが(例示であって限定ではないことが意図される)、上記教示を考慮して当業者によって修正及び変更がなされ得ることが留意される。従って添付の請求項によって概説される通り本明細書に開示の実施形態の範囲内にある変更が本開示の特定の実施形態においてなされ得ることが理解されるものとする。特許法によって要求される詳細と特異点をこのように記載したが、特許証によって保護されるべき特許請求の範囲は添付の請求項に明記される。   While a preferred embodiment for a guidance tool for manually manipulating an endoscope using pre-operative and intra-operative 3D images has been described (illustrative and not limiting), in view of the above teachings It is noted that modifications and changes can be made by those skilled in the art. Accordingly, it is to be understood that changes may be made in certain embodiments of the disclosure that are within the scope of the embodiments disclosed herein as outlined by the appended claims. Having thus described the details and specificities required by the patent law, the scope of the claims to be protected by the patent certificate is set forth in the appended claims.

Claims (26)

内視鏡ナビゲーションのためのガイダンスシステムであって、
プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするレジストレーションモジュールと、
前記第1の画像セット上の選択された関心領域を受信して、前記選択された関心領域を内視鏡座標フレームへ変換する、選択モジュールと、
前記内視鏡のユーザが前記選択された関心領域へナビゲートすることを可能にするよう、前記第2の画像セット上にガイダンスツールをオーバーレイするガイダンスモジュールと
を有し、前記ガイダンスモジュールは、前記第2の画像セット上に前記内視鏡の現在の動きの経路をオーバーレイする経路モジュールを含む、システム。
A guidance system for endoscopic navigation,
A registration module that registers a first image set of the endoscope with a second image set using a processor;
A selection module that receives a selected region of interest on the first set of images and converts the selected region of interest into an endoscopic coordinate frame;
A guidance module overlaying a guidance tool on the second set of images to allow a user of the endoscope to navigate to the selected region of interest, the guidance module comprising: A system comprising a path module that overlays a path of current movement of the endoscope on a second image set.
前記内視鏡のカメラを、前記カメラの座標系が前記ユーザの座標系と対応するように方向付ける作動モジュールをさらに有する、請求項1に記載のシステム。   The system of claim 1, further comprising an actuation module that directs the endoscope camera such that a coordinate system of the camera corresponds to a coordinate system of the user. 前記作動モジュールがさらに、第1の方向と実際の方向との間の角度に従って前記カメラを含む作動プラットフォームを回転させる、請求項2に記載のシステム。   The system of claim 2, wherein the actuation module further rotates an actuation platform including the camera according to an angle between a first direction and an actual direction. 前記ガイダンスモジュールが、前記第2の画像セットのフレームの中心から前記選択された関心領域への方向インジケータを前記第2の画像セット上にオーバーレイする方向モジュールを含む、請求項1に記載のシステム。   The system of claim 1, wherein the guidance module includes a direction module that overlays a direction indicator from a center of a frame of the second image set to the selected region of interest on the second image set. 前記経路モジュールによってオーバーレイされる前記経路が前記内視鏡の前記動きの視覚的な跡を生成する、請求項1に記載のシステム。   The system of claim 1, wherein the path overlaid by the path module generates a visual trail of the movement of the endoscope. 前記第2の画像セットのフレームの中心に位置する解剖学的特徴の少なくとも一つを含む解剖学的特徴と、以前に前記フレームの中心に位置していた解剖学的特徴の位置を追跡することによって前記経路が生成される、請求項1に記載のシステム。   Tracking an anatomical feature including at least one of the anatomical features located in the center of the frame of the second image set and a position of the anatomical feature previously located in the center of the frame; The system of claim 1, wherein the path is generated. 前記方向モジュールがさらに、前記方向インジケータと前記内視鏡の動きの経路との間の角度誤差を示す角度誤差インジケータを前記第2の画像セット上にオーバーレイする、請求項4に記載のシステム。   The system of claim 4, wherein the direction module further overlays an angular error indicator on the second image set that indicates an angular error between the direction indicator and the path of movement of the endoscope. 前記ガイダンスモジュールが、前記第2の画像セットのフレームの中心から前記選択された関心領域への距離を示す距離インジケータを前記第2の画像セット上にオーバーレイする距離モジュールを含む、請求項1に記載のシステム。   The distance module of claim 1, wherein the guidance module includes a distance module that overlays a distance indicator on the second image set indicating a distance from a center of a frame of the second image set to the selected region of interest. System. 前記距離インジケータが距離に応じて変化する前記フレームの中心から前記選択された関心領域への線である、請求項8に記載のシステム。   The system of claim 8, wherein the distance indicator is a line from the center of the frame that varies with distance to the selected region of interest. 前記線が、前記距離が減少するにつれて圧縮され、前記距離が増加するにつれて伸張されて見える仮想ばねである、請求項9に記載のシステム。   The system of claim 9, wherein the line is a virtual spring that appears compressed as the distance decreases and expands as the distance increases. 前記線の色が距離に応じて変化する、請求項9に記載のシステム。   The system of claim 9, wherein the color of the line varies with distance. 前記ガイダンスモジュールが、前記第2の画像セット上に前記第1の画像セットの解剖学的方向をオーバーレイする方向モジュールを含む、請求項1に記載のシステム。   The system of claim 1, wherein the guidance module includes a direction module that overlays the anatomical direction of the first image set on the second image set. 内視鏡ナビゲーションのためのガイダンスシステムであって、
プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするレジストレーションモジュールと、
前記第1の画像セット上の選択された関心領域を受信し、前記選択された関心領域を内視鏡座標フレームへ変換する選択モジュールと、
前記第2の画像セット上にガイダンスツールをオーバーレイし、前記第2の画像セット上に前記内視鏡の現在の動きの経路をオーバーレイする経路モジュールを含むガイダンスモジュールと、
前記内視鏡のユーザが前記選択された関心領域へナビゲートすることを可能にするために、前記内視鏡のカメラを、前記カメラの座標系が前記ユーザの座標系と対応するように方向付ける作動モジュールと
を有する、システム。
A guidance system for endoscopic navigation,
A registration module that registers a first image set of the endoscope with a second image set using a processor;
A selection module for receiving a selected region of interest on the first set of images and converting the selected region of interest into an endoscope coordinate frame;
A guidance module including a path module that overlays a guidance tool on the second image set and overlays a path of current movement of the endoscope on the second image set;
In order to allow the user of the endoscope to navigate to the selected region of interest, the endoscope camera is oriented so that the camera coordinate system corresponds to the user coordinate system. A system having an actuating module attached.
前記作動モジュールがさらに、第1の方向と前記第1の方向の実際の方向との間の角度に従って前記カメラを含む作動プラットフォームを回転させる、請求項13に記載のシステム。   The system of claim 13, wherein the actuation module further rotates an actuation platform including the camera according to an angle between a first direction and an actual direction of the first direction. ガイド下内視鏡ナビゲーションのための装置の作動方法であって、
プロセッサを用いて、内視鏡の第1の画像セットを第2の画像セットとレジストレーションするステップと、
前記内視鏡のユーザが関心領域へナビゲートすることを可能にするガイダンスツールを前記第2の画像セット上にオーバーレイし、前記関心領域は前記第1の画像セット上で選択可能であり、内視鏡座標フレームへ変換可能である、ステップと
を有する、方法において、
前記オーバーレイするステップは、前記内視鏡の現在の動きの経路を前記第2の画像セット上にオーバーレイするステップを含む、ガイド下内視鏡ナビゲーションのための装置の作動方法。
A method of operating a device for guided endoscope navigation comprising:
Registering a first image set of an endoscope with a second image set using a processor;
Overlaying on the second image set a guidance tool that allows a user of the endoscope to navigate to a region of interest, the region of interest being selectable on the first image set, A method capable of being converted to an endoscopic coordinate frame,
The method of operating an apparatus for guided endoscope navigation, wherein the overlaying step includes overlaying a path of current movement of the endoscope on the second set of images.
前記内視鏡のカメラを、前記カメラの座標系が前記ユーザの座標系と対応するように方向付けるステップをさらに有する、請求項15に記載の方法。   16. The method of claim 15, further comprising directing the endoscope camera such that the camera coordinate system corresponds to the user coordinate system. 方向付けるステップが、第1の方向と前記第1の方向の実際の方向との間の角度に従って前記カメラを含む作動プラットフォームを回転させるステップを含む、請求項16に記載の方法。   The method of claim 16, wherein the directing includes rotating an actuation platform including the camera according to an angle between a first direction and an actual direction of the first direction. オーバーレイするステップが、前記第2の画像セットのフレームの中心から前記選択された関心領域への方向インジケータを前記第2の画像セット上にオーバーレイするステップを含む、請求項15に記載の方法。   16. The method of claim 15, wherein overlaying comprises overlaying a direction indicator from the center of the frame of the second image set to the selected region of interest on the second image set. 前記内視鏡の前記現在の動きの前記経路を前記第2の画像セット上にオーバーレイするステップを含むが前記内視鏡の前記動きの視覚的な跡を生成する、請求項15に記載の方法。   16. The method of claim 15, comprising overlaying the path of the current movement of the endoscope on the second set of images but generating a visual trail of the movement of the endoscope. . 前記経路が、前記第2の画像セットのフレームの中心に位置する解剖学的特徴の少なくとも一つを含む解剖学的特徴と、以前に前記フレームの中心に位置していた解剖学的特徴の位置を追跡することによって生成される、請求項15に記載の方法。   An anatomical feature that includes at least one of the anatomical features located in the center of the frame of the second image set, and the location of the anatomical feature previously located in the center of the frame. 16. The method of claim 15, wherein the method is generated by tracking. オーバーレイするステップが、前記方向インジケータと前記内視鏡の動きの経路との間の角度誤差を示す角度誤差インジケータを前記第2の画像セット上にオーバーレイするステップを含む、請求項18に記載の方法。   19. The method of claim 18, wherein overlaying includes overlaying an angular error indicator on the second image set that indicates an angular error between the direction indicator and the path of motion of the endoscope. . オーバーレイするステップが、前記第2の画像セットのフレームの中心から前記選択された関心領域への距離を示す距離インジケータを前記第2の画像セット上にオーバーレイするステップを含む、請求項15に記載の方法。   16. Overlaying comprises overlaying a distance indicator on the second image set indicating a distance from a center of a frame of the second image set to the selected region of interest. Method. 前記距離インジケータが、距離に応じて変化する前記フレームの中心から前記選択された関心領域への線である、請求項22に記載の方法。   23. The method of claim 22, wherein the distance indicator is a line from the center of the frame that varies with distance to the selected region of interest. 前記線が、前記距離が減少するにつれて圧縮され、前記距離が増加するにつれて伸張されて見える仮想ばねである、請求項23に記載の方法。   24. The method of claim 23, wherein the line is a virtual spring that appears compressed as the distance decreases and expands as the distance increases. 前記線の色が距離に応じて変化する、請求項23に記載の方法。   24. The method of claim 23, wherein the color of the line varies with distance. オーバーレイするステップが、前記第1の画像セットの解剖学的方向を前記第2の画像セット上にオーバーレイするステップを含む、請求項15に記載の方法。   The method of claim 15, wherein overlaying comprises overlaying the anatomical direction of the first image set on the second image set.
JP2015506331A 2012-04-19 2013-04-08 Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation Active JP6174676B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261635327P 2012-04-19 2012-04-19
US61/635,327 2012-04-19
PCT/IB2013/052797 WO2013156893A1 (en) 2012-04-19 2013-04-08 Guidance tools to manually steer endoscope using pre-operative and intra-operative 3d images

Publications (3)

Publication Number Publication Date
JP2015514492A JP2015514492A (en) 2015-05-21
JP2015514492A5 JP2015514492A5 (en) 2016-06-02
JP6174676B2 true JP6174676B2 (en) 2017-08-02

Family

ID=48539312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015506331A Active JP6174676B2 (en) 2012-04-19 2013-04-08 Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation

Country Status (6)

Country Link
US (1) US11452464B2 (en)
EP (1) EP2838412B1 (en)
JP (1) JP6174676B2 (en)
CN (1) CN104244800B (en)
RU (1) RU2668490C2 (en)
WO (1) WO2013156893A1 (en)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9510771B1 (en) 2011-10-28 2016-12-06 Nuvasive, Inc. Systems and methods for performing spine surgery
US9295372B2 (en) * 2013-09-18 2016-03-29 Cerner Innovation, Inc. Marking and tracking an area of interest during endoscopy
US9848922B2 (en) 2013-10-09 2017-12-26 Nuvasive, Inc. Systems and methods for performing spine surgery
WO2015054543A1 (en) 2013-10-09 2015-04-16 Nuvasive, Inc. Surgical spinal correction
US20150157197A1 (en) * 2013-12-09 2015-06-11 Omer Aslam Ilahi Endoscopic image overlay
US10772684B2 (en) 2014-02-11 2020-09-15 Koninklijke Philips N.V. Spatial visualization of internal mammary artery during minimally invasive bypass surgery
DE102014203097A1 (en) * 2014-02-20 2015-08-20 Siemens Aktiengesellschaft A method of assisting navigation of an endoscopic device
CN111184577A (en) * 2014-03-28 2020-05-22 直观外科手术操作公司 Quantitative three-dimensional visualization of an instrument in a field of view
US10368054B2 (en) * 2014-03-28 2019-07-30 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes
EP3157425A4 (en) 2014-06-17 2017-11-15 Nuvasive, Inc. Systems and methods for planning, performing, and assessing spinal correction during surgery
JP6663571B2 (en) 2014-11-06 2020-03-13 ソニー株式会社 Endoscope image processing apparatus, method of operating endoscope image processing apparatus, and program
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US20160262800A1 (en) 2015-02-13 2016-09-15 Nuvasive, Inc. Systems and methods for planning, performing, and assessing spinal correction during surgery
US10406054B1 (en) 2015-02-18 2019-09-10 Nuvasive, Inc. Systems and methods for facilitating surgical procedures
JP6577031B2 (en) * 2015-07-08 2019-09-18 オリンパス株式会社 Endoscope device
WO2017114855A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
WO2017122322A1 (en) * 2016-01-14 2017-07-20 オリンパス株式会社 Medical manipulator system
JP6894441B2 (en) 2016-01-22 2021-06-30 ニューヴェイジヴ,インコーポレイテッド Systems and methods to facilitate spinal surgery
BR112018067591B1 (en) 2016-03-02 2023-11-28 Nuvasive, Inc. SYSTEM FOR SURGICAL PLANNING AND EVALUATION OF CORRECTION OF SPINAL DEFORMITY IN AN INDIVIDUAL
JP7041068B6 (en) * 2016-03-17 2022-05-30 コーニンクレッカ フィリップス エヌ ヴェ Control units, systems, and methods for controlling hybrid robots with proximal and flexible distal parts.
WO2018005861A1 (en) 2016-06-30 2018-01-04 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information during an image-guided procedure
KR102420386B1 (en) 2016-06-30 2022-07-13 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Graphical user interface for displaying guidance information in multiple modes during video-guided procedures
CN118078431A (en) * 2017-04-18 2024-05-28 直观外科手术操作公司 Graphical user interface for monitoring image-guided procedures
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
JP6990292B2 (en) * 2018-02-21 2022-01-12 オリンパス株式会社 Medical system and how to operate the medical system
US10667875B2 (en) * 2018-06-27 2020-06-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
US20210290317A1 (en) * 2018-07-31 2021-09-23 Intuitive Surgical Operations, Inc. Systems and methods for tracking a position of a robotically-manipulated surgical instrument
US11229492B2 (en) 2018-10-04 2022-01-25 Biosense Webster (Israel) Ltd. Automatic probe reinsertion
CN110742690A (en) * 2019-09-12 2020-02-04 东南大学苏州医疗器械研究院 Method for configuring endoscope and terminal equipment
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
WO2022044606A1 (en) * 2020-08-24 2022-03-03 富士フイルム株式会社 Medical image processing apparatus, medical image processing method, endoscope system, and medical image processing program
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US20220202500A1 (en) * 2020-12-30 2022-06-30 Canon U.S.A., Inc. Intraluminal navigation using ghost instrument information
WO2022146996A1 (en) * 2020-12-30 2022-07-07 Intuitive Surgical Operations, Inc. Systems for updating a graphical user interface based upon intraoperative imaging
US20230053189A1 (en) * 2021-08-11 2023-02-16 Terumo Cardiovascular Systems Corporation Augmented-reality endoscopic vessel harvesting

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997029709A1 (en) * 1996-02-15 1997-08-21 Biosense, Inc. Medical procedures and apparatus using intrabody probes
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
GR1004180B (en) 2000-03-28 2003-03-11 ����������� ����� ��������� (����) Method and system for characterization and mapping of tissue lesions
WO2002024051A2 (en) * 2000-09-23 2002-03-28 The Board Of Trustees Of The Leland Stanford Junior University Endoscopic targeting method and system
EP2316328B1 (en) * 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US20060036162A1 (en) * 2004-02-02 2006-02-16 Ramin Shahidi Method and apparatus for guiding a medical instrument to a subsurface target site in a patient
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US8199984B2 (en) * 2006-05-02 2012-06-12 National University Corporation Nagoya University System that assists in observing a luminal organ using the structure of the luminal organ
US20080287783A1 (en) 2007-05-16 2008-11-20 General Electric Company System and method of tracking delivery of an imaging probe
CN101826780B (en) * 2009-03-07 2013-08-21 深圳先进技术研究院 System for driving capsule endoscope
WO2010111090A1 (en) * 2009-03-26 2010-09-30 Intuitive Surgical Operations, Inc. System for providing visual guidance for steering a tip of an endoscopic device towards one or more landmarks and assisting an operator in endoscopic navigation
JP4810622B2 (en) * 2009-04-20 2011-11-09 オリンパスメディカルシステムズ株式会社 In-subject inspection system

Also Published As

Publication number Publication date
EP2838412B1 (en) 2020-09-09
WO2013156893A1 (en) 2013-10-24
US11452464B2 (en) 2022-09-27
RU2014146310A (en) 2016-06-10
CN104244800B (en) 2017-05-17
JP2015514492A (en) 2015-05-21
RU2668490C2 (en) 2018-10-01
US20150073265A1 (en) 2015-03-12
EP2838412A1 (en) 2015-02-25
CN104244800A (en) 2014-12-24

Similar Documents

Publication Publication Date Title
JP6174676B2 (en) Guidance tool for manually operating an endoscope using pre- and intra-operative 3D images and method of operating a device for guided endoscope navigation
US11413099B2 (en) System, controller and method using virtual reality device for robotic surgery
US10835344B2 (en) Display of preoperative and intraoperative images
JP6382802B2 (en) Improving blood vessel visualization using a robot-operated endoscope
JP6649260B2 (en) Visualization of blood vessel depth and position and robot-guided visualization of blood vessel cross-section
CN106030656B (en) System and method for visualizing an anatomical target
EP2747695B1 (en) Endoscopic registration of vessel tree images
RU2692206C2 (en) Robotic control of endoscope based on anatomical features
CN108472090A (en) System, control unit and method for controlling surgical operation robot
CN107847111B (en) Endoscopic guidance of interactive planar slices from volumetric images
JP2015523133A (en) Guided incision plan for endoscopic minimally invasive surgery
Abdurahiman et al. Human-computer interfacing for control of angulated scopes in robotic scope assistant systems
US20200359994A1 (en) System and method for guiding ultrasound probe
Rassweiler et al. Augmented reality for percutaneous renal interventions
US20230215059A1 (en) Three-dimensional model reconstruction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170131

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170706

R150 Certificate of patent or registration of utility model

Ref document number: 6174676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250