JP2022510393A - 画像誘導手術のための照明補正近赤外線(nir)イメージング - Google Patents

画像誘導手術のための照明補正近赤外線(nir)イメージング Download PDF

Info

Publication number
JP2022510393A
JP2022510393A JP2021531598A JP2021531598A JP2022510393A JP 2022510393 A JP2022510393 A JP 2022510393A JP 2021531598 A JP2021531598 A JP 2021531598A JP 2021531598 A JP2021531598 A JP 2021531598A JP 2022510393 A JP2022510393 A JP 2022510393A
Authority
JP
Japan
Prior art keywords
surgical
surgical scene
sensor
visual representation
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021531598A
Other languages
English (en)
Inventor
エム. ディカルロ,ジェフリー
イー. マクドウォール,イアン
ジェイ. トレジョ,マックス
Original Assignee
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテュイティブ サージカル オペレーションズ, インコーポレイテッド filed Critical インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Publication of JP2022510393A publication Critical patent/JP2022510393A/ja
Priority to JP2024125722A priority Critical patent/JP2024149625A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)

Abstract

本明細書に記載される技術は、手術シーンの部分の視覚的表現を表示する方法で具体化することができる。この方法は、手術装置と関連付けられたカメラの第1のセンサを使用してキャプチャされた情報を表すデータを受信するステップを含み、この情報は、手術シーンの部分から放射される蛍光の量を表す第1の量を示す。本方法はまた、手術シーンの部分から蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得るステップと、第1の量及び第2の量の関数として正規化された蛍光シグナルを生成するステップとを含む。この方法は、さらに、正規化された蛍光シグナルに基づいて手術シーンの部分の視覚的表現を生成するステップと、手術装置に関連付けられたディスプレイ装置に視覚的表現を提示するステップとを含む。

Description

(関連出願の相互参照)
本出願は、2018年12月5日に出願された“Illumination Corrected Near-Infrared (NIR) Imaging for Image Guided Surgery”と題する米国仮出願第62/775,451号の利益を主張する。前述の出願の開示は、その全体が参照により本明細書に組み込まれる。
本開示は、内視鏡手術システムにおいて使用される近赤外線(NIR)イメージングに関する。
外科的介入を受ける患者が経験する外傷を減らすために、低侵襲手術システムが開発されている。これらのシステムは小さい切開部だけを必要とし、外科医は手術を行うためにスティック状のカメラや器具を使用する。外傷を減少させることに加えて、このタイプの遠隔操作システムは、外科医の器用さを増加させ、また、外科医が遠隔位置から患者に対して手術を行うことを可能にする。遠隔手術は、手術システムの一般的な用語であり、外科医は、手術器具を直接手で保持したり動かしたりするのではなく、手術器具の動きを操作するために、例えばサーボ機構などの何らかの形態の遠隔制御を使用する。このような遠隔手術システムでは、外科医は、ディスプレイ装置を通して手術部位の画像を提供される。ディスプレイ装置を通して受け取った視覚的なフィードバックに基づいて、外科医は、マスター制御入力装置を操作することによって、患者に対する手術処置を実行し、このマスター制御入力装置は、遠隔ロボット器具の動作を制御する。
一態様では、本明細書は、手術シーンの部分の視覚的表現を表示する方法を特徴とする。この方法は、手術装置と関連付けられたカメラの第1のセンサを使用してキャプチャされた情報を表すデータを受信するステップを含み、この情報は、手術シーンの部分から放射される蛍光の量を表す第1の量を示す。本方法はまた、手術シーンの部分から蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得るステップと、1つ又は複数の処理装置によって、第1の量及び第2の量の関数として正規化された蛍光シグナルを生成するステップとを含む。本方法はさらに、正規化された蛍光シグナルに基づいて手術シーンの部分の視覚的表現を生成するステップと、手術シーンの部分の視覚的表現を手術装置に関連付けられるディスプレイ装置に提示するステップとを含む。
別の態様では、本明細書は、第1の画像センサ及びレンダリングエンジンを含むイメージングシステムを特徴とする。第1の画像センサは、手術シーンの部分から放射される蛍光の量を表す第1の量を示す情報を感知するように構成される。レンダリングエンジンは、1つ又は複数の処理装置を含み、手術シーンの部分から蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得る、第1の量及び第2の量の関数として正規化された蛍光シグナルを生成する、及び正規化された蛍光シグナルに基づいて手術シーンの部分の視覚的表現を生成するように構成される。システムはまた、視覚的表現を提示するように構成されたディスプレイ装置を含む。
別の態様では、本明細書は、1つ又は複数の処理装置に種々の動作を実行させるための命令をエンコードした1つ又は複数の非一時的な機械可読記憶装置を特徴とする。動作は、手術装置と関連付けられたカメラの第1のセンサを使用してキャプチャされた情報を表すデータを受信することを含む。情報は、手術シーンの部分から放射される蛍光の量を表す第1の量を示す。動作はまた、手術シーンの部分から蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得ることと、第1の量及び第2の量の関数として正規化された蛍光シグナルを生成することとを含む。動作は、さらに、正規化された蛍光シグナルに基づいて手術シーンの部分の視覚的表現を生成することと、手術シーンの部分の視覚的表現を手術装置に関連付けられたディスプレイ装置に提示させることを含む。
上記の態様の実装は、以下の特徴の1つ又は複数を含むことができる。
第2の量を示す情報を得ることは、手術シーンの部分から反射される励起シグナルの部分を受信することと、第2のセンサを使用して励起シグナルの部分をキャプチャすることと、第2のセンサからの出力信号に基づいて第2の量を決定することとを含むことができる。第1のセンサ及び第2のセンサの各々は、近赤外線(NIR)センサであることができる。励起シグナルの部分をキャプチャすることは、第2のセンサへ向かって励起シグナルの部分の伝搬の方向を変更することを含むことができる。伝搬の方向は、伝搬の方向に対してある角度に配置された反射要素を用いて変化させることができる。第2の量を示す情報を得ることは、励起シグナルのソースに関連する深度マップにアクセスすることを含むことができ、深度マップは、ソースからの空間的分離(spatial separation)の関数として、励起シグナルの強度変動に関する情報を提供する。第2の量を示す情報を得ることはまた、手術シーンの部分と励起シグナルのソースとの間の空間的分離に関する情報を表すデータを受信することと、(i)手術シーンの部分とソースとの間の空間的分離、及び(ii)深度マップに基づいて第2の量を決定することとを含むことができる。空間的分離に関する情報を表すデータは、第3のセンサから受信することができる。手術シーンの部分とソースとの間の空間的分離に関する情報は、(i)手術シーンの部分とソースとの間の角度、及び(ii)手術シーンの部分とソースとの間の距離のうちの少なくとも1つを含むことができる。視覚的表現を提示することは、正規化された蛍光シグナルに関連する閾値条件に関するユーザ入力を受信することと、正規化された蛍光シグナルが閾値条件を満たす領域を決定することと、正規化された蛍光シグナルが閾値条件を満たす領域の識別を視覚的表現が含むように視覚的表現を生成することを含むことができる。ある場合には、ユーザ入力は、ディスプレイ装置上の手術シーンの視覚的表現を提示することに応答して受信することができ、ユーザ入力は、手術シーンにおいて手術装置を操作することに関する。カメラは、手術装置内に配置することができる。第1の量及び第2の量の関数は、第1の量と第2の量の比率を含むことができる。
本明細書に記載する実施形態のいくつか又は全ては、以下の利点の1つ又は複数を提供し得る。対応する部分に入射する励起エネルギの量を表す値に関してNIR画像の画素値を正規化することによって、画像にわたる照明変動による望ましくない影響は実質的に緩和され得る。これは、NIR蛍光の検出強度が内視鏡位置に依存しないことを可能にし得る。このような位置的独立性は、特定の組織型における色素(dye)(例えば、インドシアニングリーン(ICG))の実際の量のより正確な測定を可能にすることができ、外科医が、癌などの疾患に罹患した組織領域の辺縁(margins)を位置特定する(locate)ことをより容易にし得る。
コンピュータ支援遠隔操作手術システムの例示的な患者側カートの斜視図である。 コンピュータ支援遠隔操作手術システムの例示的な外科医コンソールの正面図である。 コンピュータ支援遠隔操作手術システムの例示的なロボットマニピュレータアームアセンブリの側面図である。 標準的な近赤外線(NIR)画像の一例である。 本明細書に記載の技術を実装する例示的な内視鏡システムのブロック図である。 標準的な近赤外線(NIR)画像の一例である。 本明細書に記載される技術に従って生成されたNIR画像の一例である。 本明細書に記載の技術に従ってNIR画像を生成するための例示的なプロセスのフローチャートである。
本明細書は、画像の様々な部分に対する検出された蛍光シグナルが、そのような部分に対応する組織に入射することになると推定される励起エネルギの測度(measure)に関して正規化される近赤外線(NIR)イメージング技術を記述する。励起エネルギの測度は、複数の方法で決定することができる。いくつか場合には、励起エネルギの測度は、組織から反射される励起エネルギの量を感知するように構成されたセンサの出力に基づいて導出される。いくつかの場合には、励起エネルギの測度は、内視鏡から組織に向けられた電磁放射の物理学を表す理論的又は経験的モデルを使用して計算することができる。本明細書に記載される技術を使用して生成される正規化されたNIR画像は、入射励起エネルギの量の変動(例えば、エネルギ源に対する異なる距離、向きに起因する)による蛍光シグナルの変動を説明し、下にある蛍光のより正確な表現を提供し得る。いくつかの場合には、これは、組織の対応する部分によって吸収される色素(例えば、インドシアニングリーン(ICG))の真の量を決定するためにより信頼性をもって使用され得、従って、NIRイメージングの診断能力を改善する。
この技術の態様は、主に、カリフォルニア州サニーベールのIntuitive Surgical, Inc.によって開発されたda Vinci(登録商標)手術システムを使用した実装に関して説明されている。このような手術システムの例としては、da Vinci(登録商標)Xi(商標)手術システム(モデルIS4000)がある。本明細書に開示される態様は、コンピュータ支援、非コンピュータ支援、並びに手動及びコンピュータ支援のハイブリッドの組み合わせの実施形態及び実装形態を含む種々の方法で実施及び実装され得ることを理解されたい。da Vinci(登録商標)手術システム、例えば、モデルIS4000に関する実装は、説明のために記載されており、本明細書に開示されている発明の態様の範囲を限定するものとみなされるべきではない。適用可能な場合、本発明の態様は、追加の機械的支持を有する、比較的小さい、ハンドヘルドの、手動の装置及び比較的大きなシステムの両方、ならびにコンピュータ支援遠隔操作医療装置の他の実施形態において具体化され、実装され得る。この技術は、主としてピアインディスプレイの例を参照して説明されているが、この技術は、例えば、バーチャル又は拡張現実(VR/AR)システムで使用されるヘッドマウントディスプレイ装置のような、他のタイプのウェアラブル又は非ウェアラブルディスプレイ装置にも使用され得る。キャプチャされた画像は、3DTVのような装置や、ある種のスクリーンに投影され、正しい画像が正しい眼に確実に届くようにしてステレオ効果を完成させるメガネを着用しているユーザによって観察される画像のような、大きなフォーマットのディスプレイ上に表示されることもできる。代替的には、オートステレオタイプのディスプレイ、例えば、視聴者(ユーザ)のヘッド及び/又はアイトラッキングを組み込むこともできるレンチキュラベースのLCDタイプのディスプレイを使用してもよい。
図1及び図2を参照すると、低侵襲コンピュータ支援遠隔手術(MISとも称する)のためのシステムは、患者側カート100及び外科医コンソール50を含むことができる。遠隔手術は、手術システムの一般的な用語であり、外科医は、手術器具を直接手で保持したり動かしたりするのではなく、手術器具の動きを操作するために、例えばサーボ機構などの何らかの形態の遠隔制御を使用する。ロボット操作可能な手術器具は、患者体内の手術部位の組織を治療するために、小さい、低侵襲の手術開口部を通して挿入することができ、開腹手術に必要とされるかなり大きい切開部に関連する外傷を回避する。これらのロボットシステムは、器具のシャフトを低侵襲開口部で旋回させる(pivoting)こと、開口部を通ってシャフトを軸方向にスライドさせること、開口部内でシャフトを回転させること、及び/又は類似のものによって、非常に複雑な手術タスクを実行するのに十分な器用さで手術器具の作用端部を動かすことができる。
図示された実施形態では、患者側カート100は、ベース110、第1のロボットマニピュレータアームアセンブリ120、第2のロボットマニピュレータアームアセンブリ130、第3のロボットマニピュレータアームアセンブリ140、及び第4のロボットマニピュレータアームアセンブリ150を含む。各ロボットマニピュレータアームアセンブリ120、130、140、及び150は、ベース110に旋回可能(pivotably)に結合されている。いくつかの実施形態では、4個未満又は4個超のロボットマニピュレータアームアセンブリが、患者側カート100の一部として含まれてもよい。図示された実施形態では、ベース110は、可動性を容易にするためのキャスタを含むが、いくつかの実施形態では、患者側カート100は、床、天井、手術台、構造骨組(structural framework)などに固定して取り付けられる。
典型的な用途では、ロボットマニピュレータアームアセンブリ120、130、140、又は150のうちの2つが手術器具を保持し、第3のものがステレオ(立体)内視鏡を保持する。残りのロボットマニピュレータアームアセンブリは、第3の器具が作業サイトに導入され得るように利用可能である。代替的には、残りのロボットマニピュレータアームアセンブリは、第2の内視鏡又は超音波トランスデューサなどの他の画像キャプチャ装置を作業サイトに導入するために使用されてもよい。
ロボットマニピュレータアームアセンブリ120、130、140、及び150の各々は、作動可能なジョイントを介して一緒に結合され操作されるリンクから通常形成される。ロボットマニピュレータアームアセンブリ120、130、140、及び150の各々は、セットアップアーム及び装置マニピュレータを含む。セットアップアームは、患者への入口開口部にピボットポイントが生じるように、保持された装置を位置決めする。次いで、装置マニピュレータは、保持された装置がピボットポイントの周りで旋回し、入口開口部に挿入され、入口開口部から引き出され、そのシャフト軸の周りに回転し得るように、その保持された装置を操作し得る。
図示された実施形態では、外科医コンソール50は、立体視ピアインディスプレイ45を含み、これにより、ユーザは、患者側のカート100と共に使用される立体カメラによってキャプチャされた画像から、立体視で手術作業サイトを見ることができる。左右の接眼レンズ(eyepieces)46、47が立体視ピアインディスプレイ45に設けられ、これによりユーザがディスプレイ45内の左右のディスプレイスクリーンをユーザの左右の目でそれぞれ見ることができるようになっている。典型的には、適切なビューア又はディスプレイ上で手術部位の画像を観察しながら、外科医は、ロボット器具の動作を制御するマスター制御入力装置を操作することによって、患者への手術処置を実行する。
外科医コンソール50はまた、患者側カート100のロボットマニピュレータアームアセンブリ120、130、140、及び150によって保持されている装置(例えば、手術器具)を好ましくは6自由度(DOF)以上で操作するために、ユーザが自分の左手及び右手でそれぞれ把持し得る左及び右入力装置41、42を含む。トー部及びヒール部を持つフットペダル44が、フットペダルに関連する装置の動き及び/又は作動をユーザが制御できるように、外科医のコンソール50に設けられている。
処理装置43が、制御及び他の目的のために外科医コンソール50に設けられている。処理装置43は、医療ロボットシステムにおいて種々の機能を実行する。処理装置43によって実行される一つの機能は、入力装置41、42の機械的運動を変換及び伝達して、外科医が手術器具などの装置を効果的に操作できるように、関連するロボットマニピュレータアームアセンブリ120、130、140、及び150内の対応する関節を作動させることである。処理装置43の別の機能は、本明細書に記載の方法、クロスカップリング制御ロジック、及びコントローラを実装することである。
処理装置43は、1つ又は複数のプロセッサ、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、及び/又はマイクロコントローラを含むことができ、ハードウェア、ソフトウェア、及び/又はファームウェアの組み合わせとして実装され得る。また、本明細書に記載されるその機能は、1つのユニットによって実行されてもよく、又は多数のサブユニットに分割されてもよく、サブユニットの各々は、ハードウェア、ソフトウェア及びファームウェアの任意の組み合わせによって実装されてもよい。さらに、外科医コンソール50の一部として示されているか、又は外科医コンソール50に物理的に隣接しているが、処理装置43は遠隔手術システム全体にサブユニットとして分散されてもよい。サブユニットの1つ又は複数は、遠隔手術システムに対して物理的にリモートにあってもよい(例えば、遠隔サーバー上に配置されてもよい)。
図3も参照すると、ロボットマニピュレータアームアセンブリ120、130、140、及び150は、内視鏡ステレオカメラ及び手術器具などの装置を操作して、低侵襲手術を行うことができる。例えば、図示された構成では、ロボットマニピュレータアームアセンブリ120は、器具ホルダ122に旋回可能に結合されている。カニューレ180及び手術器具200は、次に、器具ホルダ122に解放可能に結合される。カニューレ180は、手術中に患者インターフェース部位(patient interface site)に位置する中空の管状部材である。カニューレ180は、内視鏡カメラ(又は内視鏡)又は手術器具200の細長いシャフト220が摺動可能に配置される管腔を画定する。以下にさらに説明されるように、いくつかの実施形態では、カニューレ180は、体壁リトラクタ部材(body wall retractor member)を有する遠位端部を含む。器具ホルダ122は、ロボットマニピュレータアームアセンブリ120の遠位端部に旋回可能に結合されている。いくつかの実施形態では、器具ホルダ122とロボットマニピュレータアームアセンブリ120の遠位端部との間の旋回可能な結合は、外科医のコンソール50から処理装置43を使用して作動可能なモータ駆動ジョイント(motorized joint)である。
器具ホルダ122は、器具ホルダフレーム124と、カニューレクランプ126と、器具ホルダキャリッジ128とを含む。図示された実施形態では、カニューレクランプ126は、器具ホルダフレーム124の遠位端部に固定される。カニューレクランプ126は、カニューレ180と結合する又はカニューレ180から分離するように作動することができる。器具ホルダキャリッジ128は、器具ホルダフレーム124に移動可能に結合される。より詳細には、器具ホルダキャリッジ128は、器具ホルダフレーム124に沿って直線的に移動可能である。いくつかの実施形態では、器具ホルダフレーム124に沿った器具ホルダキャリッジ128の移動は、処理装置43によって作動可能/制御可能であるモータ駆動の並進移動である。手術器具200は、トランスミッションアセンブリ210、細長いシャフト220、及びエンドエフェクタ230を含む。トランスミッションアセンブリ210は、器具ホルダキャリッジ128に解放可能に結合され得る。シャフト220は、トランスミッションアセンブリ210から遠位に延びる。エンドエフェクタ230は、シャフト220の遠位端部に配置される。
シャフト220は、カニューレ180の長手方向軸と一致する長手方向軸222を規定する。器具ホルダキャリッジ128が器具ホルダフレーム124に沿って並進すると、手術器具200の細長いシャフト220は、長手方向軸222に沿って移動する。このような方法で、エンドエフェクタ230は、患者の体内の手術作業空間に挿入される及び/又はそこから引込められることができる。
腹腔鏡下手術は、外科医が内視鏡を用いて手術部位を観察し、診査、切開、縫合、及び他の手術作業のために腹腔鏡器具を用いて精密な運動操作を行うことを必要とする。これらの作業は、しばしば組織との微細な両手操作の相互作用(bi-manual interactions)を必要とする。いくつかの場合には、このような両手操作の運動タスクは、外科医が手術シーンの3Dビューを提示されるときに、一般的により容易に実行され得る。患者の体内の手術ワークスペース(手術シーン)は、立体視ディスプレイ45を介して外科医に3D視覚化として提供されることができる。本明細書に記載される技術は、主にピアイン立体視ディスプレイ装置の例を使用するが、他のタイプの立体視ディスプレイ装置及び非立体視ディスプレイ装置も本技術の範囲内である。ピアイン立体視ディスプレイとは、ユーザがディスプレイを、それを着用することなく又はそれを他のユーザと同時に共有することなく、見ることを可能にするディスプレイをいう。立体顕微鏡は、ピアイン立体視ディスプレイの一例である。図2に示す立体視ディスプレイ装置45は、ピアイン立体視ディスプレイ装置の別の例である。
いくつかの実装形態では、立体視ディスプレイ45は、外科医にNIR画像を提示するように構成することができる。このためには、ICGのような色素が患者又は被験体に投与され、色素の位置がNIR励起シグナルの下で画像化される。ICGなどの色素は蛍光を発生し、これはNIR励起下で検出することができる。ディスプレイ上にNIR画像を提示することは、対応する手術領域の画像を生成し、その上にICGによって生成された蛍光シグナルの表現(representation)を重ね合わせることを含むことができる。手術領域の画像は白黒画像として表示され、蛍光シグナルは典型定期には、白黒画像の上に緑色で表示される。このようなNIR画像400の一例を図4に示す。
NIR画像における緑色蛍光シグナルの強度は、種々のパラメータの関数とすることができる。例えば、組織内のICGの量の関数であることに加えて、蛍光の強度は、ICGが存在する組織の部分に入射するNIR光の量に直接関連する。図4の例では、部分405における蛍光シグナルの強度は、部分410における蛍光シグナルの強度よりも高い。しかしながら、強度変化の少なくとも一部は、対応する部分に入射するNIR励起エネルギの量に起因し得る。例えば、部分405におけるより高い強度は、部分405上に入射する励起エネルギの量が(部分410上に入射するものと比較して)より高いためであることがあり、必ずしも部分405におけるICGの量がより大きいためではない。また、内視鏡光源は、典型的には内視鏡プローブの先端に位置するので、ICGに影響を与える光又は励起エネルギの強度(従って、対応する組織から放射される蛍光の量)は、内視鏡の位置(例えば、組織からの距離、角度など)に依存する。例えば、蛍光の強度が、ICGに入射するNIRの量に直接比例する場合、NIR光源(NIR光が最も明るい)の視野(FOV)の中心のICGは、明るい緑色を輝かせる。しかしながら、同じ部分をFOVの側部に移動させると、NIR光がFOVの縁部でそれほど強くなければ、蛍光強度は顕著に減少する。さらに、内視鏡を組織に向かって前方に又は組織から離れて後方に動かすと、蛍光の強度は、前方の動きに伴って増加し、後方の動きに伴って減少することによって変化する。
NIRイメージングから収集された情報が主として組織内のICGの量に依存する場合には、組織に入射する励起エネルギの量の変動による蛍光の変動は望ましくない。本明細書に記載される技術は、基準(reference)NIR信号を使用して、あらゆる内視鏡位置効果を補償及び補正することを記載する。このような位置的独立性は、例えば、外科医が特定の組織型におけるICGの量を決定することを容易にすることによって、NIRイメージングの診断能力を改善することができる。いくつかの場合では、本明細書に記載される技術によって提供される改良された可視化は、(例えば、癌性細胞をより正確に検出することによって)罹患組織の辺縁の位置を容易に特定し、それによって、潜在的に根底にある外科的プロセスを改善する。
図5は、本明細書に記載の技術を実装する例示的な内視鏡システム500のブロック図である。システム500は、人体に挿入されるように構成された内視鏡シャフト505を含む。組織を照明するために励起エネルギを放射するように構成された1つ又は複数の照明源を、内視鏡シャフト505の先端部510に配置することができる。1つ又は複数の照明源は、可視範囲及び/又は他の波長範囲の電磁放射線を放射するように構成されたNIR光源及び/又はソースを含むことができる。いくつかの実装態様では、1つ又は複数の先端部510及びシャフト505は、組織/手術シーンからの光をシャフト505を通してシャフト505の反対側の端部に配置された1つ又は複数の画像センサ又はカメラに向ける種々の光学素子を含むことができる。
いくつかの実装形態では、システム500は、先端部510に配置された1つ又は複数の照明源を使用して照明された組織/手術シーンから発する蛍光を感知するように構成される蛍光検出カメラ515を含む。蛍光検出カメラ515は、蛍光シグナルが期待される波長範囲の電磁エネルギを感知するように構成された画像センサ520を含む。例えば、ICGがNIRイメージングにおいて色素として使用される場合、予想される蛍光スペクトルは約750~950nmである。このような場合、画像センサ520は、光学経路内の画像センサ520の前に光学フィルタを配置することによって、蛍光スペクトルを感知するように構成することができ、光学フィルタの通過帯域は、750~950nmの範囲内にある。画像化される組織に関連する色素及び/又は吸収/発光スペクトルに応じて、他の光学フィルタを使用してもよい。
いくつかの実装形態では、NIR励起エネルギに関連する波長範囲は、蛍光スペクトルと一致する。例えば、NIR励起エネルギは、800nmの電磁放射を介して供給されることができる。従って、蛍光スペクトル内の信号を通過させるように構成された光学フィルタは、画像センサ520の出力に対するNIR励起エネルギの影響を低減する停止バンドを含むように構成されることもできる。このようなフィルタは、組織から反射されるNIR励起エネルギの少なくとも一部を吸収/ブロックする。
本明細書に記載される技術は、少なくとも部分的に、組織の部分から反射されたNIR励起エネルギが、組織のその部分に入射する励起エネルギの量の測度として使用されることができるという実現から生じる。例えば、FOV全体の反射率が一様であると仮定すると、FOVの異なる部分から反射される励起エネルギの量の変化は、対応する部分に入射する励起エネルギの量の測度として使用することができる。FOV内の組織の反射率特性が既知である場合、適切な補正/調整を組み込んで、対応する部分に入射する励起エネルギの量を推定することができる。いずれの場合においても、FOVの異なる部分に入射する励起エネルギの量の推定値を使用して、補正された出力が励起エネルギの不均一な分布による変動から実質的に独立であるように、画像センサ520のセンサ出力を補正することができる。例えば、組織の部分に入射する励起エネルギの推定量が高い場合、それに応じて、センサ520の出力の対応する部分を減衰させることができる。他方、組織の一部に入射する励起エネルギの推定量が低い場合、それに応じて、センサ520の出力の対応する部分をブーストすることができる。幾つかの実装形態では、そのような補正は、以下の方程式を使用して表すことができる:
[絶対蛍光シグナル]=[感知蛍光シグナル]/[推定励起シグナル] (1)
ここで感知蛍光シグナルは、FOVの部分に対応する1つ又は複数のピクセルに対する画像センサ520の出力を表し、推定励起シグナルは、FOVの対応する部分に入射する励起エネルギの推定量を表し、絶対蛍光シグナルは、補正シグナルを表す。
FOVの異なる部分に入射する励起エネルギの量は、様々な方法で決定することができる。いくつかの実装形態では、入射励起エネルギの量は、1つ又は複数のセンサを使用して検出することができる。例えば、図5に示すように、システム500は、NIR励起エネルギを感知するための画像センサ535を含む別個のNIRカメラ530を含むことができる。このような場合、システム500は、反射されたNIR励起エネルギを吸収/ブロックする代わりに、そのようなエネルギを選択的に画像センサ535に向かって反射するフィルタ525も含む。フィルタ525は、NIR励起シグナル528を選択的に画像センサ535に向かって反射し、一方、蛍光シグナル527を画像センサ520に向かって通過させる反射面を含むことができる。幾つかの実装形態では、他の構成が使用されてもよい。例えば、蛍光検出カメラ515及びNIRカメラの位置を逆にすることができ、フィルタ525は、NIR励起シグナル528を通過させながら、蛍光シグナル527を選択的に反射するように構成することができる。いずれの場合も、蛍光検出カメラ515は、蛍光を検出し、NIRカメラ530は、組織に入射する励起エネルギの量が画像センサ535の出力に基づいて推定されるように、組織から反射される励起エネルギを検出する。
いくつかの実装態様では、内視鏡シャフト505の先端部510に配置された1つ又は複数の照明源からの電磁エネルギの分布/伝搬パターンを表すモデルに基づいて、FOVの異なる部分に入射する励起エネルギの量を決定することができる。例えば、理論的/経験的モデル(例えば、深度マップ)が、照明の強度が照明源からの距離/角度とともにどのように低下するかについての情報を提供し得、そのようなモデルは、FOV内の特定の部分で入射する励起エネルギの量を決定するために使用され得る。モデルは、例えば、対応するソースの特定の照明パターンによる強度の変化、及び/又は強度のコサイン因子低下(cosine factor fall-off)を考慮するように構成することができる。内視鏡システム500は、FOV内の組織から照明源の距離を測定/推定するための距離センサ(例えば、内視鏡シャフト505の先端部510に配置された距離センサ)を含むことができ、距離情報を使用して、FOV内の様々な部分に入射する励起エネルギの量を判定/推定することができる。
システム500は、画像センサ520及び535から受信されたセンサ出力に基づいて補正されたNIR画像を生成するように構成されたレンダリングエンジン540を含むことができる。レンダリングエンジンは、1つ又は複数の処理装置(例えば、図2に示される処理装置43)を含むことができ、これらの処理装置は、上記式(1)に従って、FOVに対応する各画素についての絶対蛍光シグナルを計算するように構成することができる。いくつかの実装形態では、推定励起シグナルがゼロに近いピクセルに関して、レンダリングエンジン540は、ゼロに近い値による除算から生じる不安定性を回避するために、補正プロセスをマスクするように構成することができる。次いで、レンダリングエンジン540は、補正されたNIR画像がディスプレイ550に提示されるように、ディスプレイ550のための制御信号を生成することができる。いくつかの実装態様では、ディスプレイ550は、図1を参照して上述した立体視ディスプレイ45の一部として配置することができる。
入射励起エネルギの対応する推定値に関するNIR画像画素値の正規化は、いくつかの利点を提供することができる。幾つかのそのような利点は、図6Aおよび6Bの例において説明される。具体的には、図6Aは、本明細書に記載される補正なしの標準近赤外線(NIR)画像の一例であり、図6Bは、本明細書に記載される技術に従って生成されるNIR画像の一例である。図6Aにおいて、領域605aにおける蛍光の強度は、領域610aにおける蛍光の強度よりも小さい。これは、外科医又は医療専門家が、領域610aにおけるICGの量が領域605aにおけるICGの量よりも多いと信じるに至る可能性がある。しかし、図6Bに示すように、本明細書に記載された技術に従ってNIR画像を補正すると、逆が真であるように見える。具体的には、図6Bにおいて、領域610bは、領域605bよりも暗く見え、それによって、領域610bにおけるICGの量は、領域605bにおけるICGの量よりも少ないことを示す。したがって、図6Aの表現は、図6Bの補正された画像で説明される入射励起エネルギの差分量の影響を受けた。
図6A及び6Bの比較例によって示されるように、本明細書に記載される技術は、組織の種々の部分によって吸収されるICGのような色素の実際の量の可視化を可能にすることができる。図6A及び図6Bに示す例は、吸収されたICGが可視化される組織の表面又はその近傍にあると仮定している。いくつかの実装形態では、追加の補正を組み込んで、比較的深く組織に吸収されたICGを考慮することができる。いくつかの実装形態では、組織によって吸収された色素の実際の量を検出する能力は、NIRイメージングに関連する種々のタイプの可視化を容易にする。例えば、補正されたNIR画像のデータは、吸収された色素の量に応じて異なる領域を区別する(demarcate)ために使用することができる。いくつかの実装形態では、これは、外科医が罹患領域の輪郭をより良く識別するのを助けることができる。図5に戻って参照すると、レンダリングエンジン540は、例えば、ユーザ入力に基づいて、ICG吸収が閾値(例えば、最大吸収の50%、90%、又は別のパーセンテージ)を超える画像内の領域を識別するように構成することができる。次いで、対応する輪郭が、ディスプレイ装置550に提示されることができる。いくつかの実装形態では、補正されたNIR画像及び/又は上述の輪郭を見ることに応答して、図1及び図2に示すシステムのような遠隔操作手術システムを操作するために外科医からのユーザ入力を受け取ることができる。
図7は、ディスプレイ装置に手術シーンの部分の視覚的表現を表示するための例示的プロセス700のフローチャートである。いくつかの実装形態では、ディスプレイ装置は、図2を参照して上述した立体視ディスプレイ45であることができる。いくつかの実装形態では、プロセス700の少なくとも一部は、図2を参照して上述した処理装置43によって実行され得る。プロセス700の動作は、手術装置と関連付けられたカメラの第1のセンサを使用してキャプチャされた情報を表すデータを受信すること含むことができる(710)。第1のセンサを使用してキャプチャされた情報は、手術シーンの部分から放射される蛍光の量を表す第1の量を示す。いくつかの実装形態では、カメラは、内視鏡装置に配置されたNIRカメラであることができる。蛍光は、手術シーンの組織に存在する色素(例えば、ICG)が、ソース(例えば、NIR光源)によって提供される励起エネルギを吸収し、異なる波長範囲で吸収エネルギの一部を再放射する場合に生じ得る。再放射が起こる波長範囲は、蛍光スペクトルと呼ぶことができる。
また、プロセス700の動作は、手術シーンの部分から蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得ることを含む(720)。いくつかの実装形態では、第2の量を示す情報は、図5に示す内視鏡システムのようなデュアルセンサシステムを用いて得られる。例えば、第2の量を示す情報を得ることは、手術シーンの部分から反射される励起シグナルの一部を受信することと、図5に示すNIRカメラ530の画像センサ535のような第2のセンサを使用して励起シグナルの一部をキャプチャすることとを含むことができる。次いで、第2の量は、第2のセンサからの出力信号に基づいて決定されることができる。幾つかの実装形態では、第1のセンサ及び第2のセンサの各々は、近赤外線(NIR)センサであることができる。いくつかの実装形態では、励起シグナルの一部をキャプチャすることは、第2のセンサに向かって励起シグナルの一部の伝搬の方向を変更することを含む。これは、例えば、反射されたNIRシグナル528の伝搬の初期方向(又は蛍光シグナル527の伝搬の方向)に対してある角度に配置された反射面又は素子を含む光学フィルタ525(図5)を使用して行うことができる。
いくつかの実装形態では、第2の量を示す情報を得ることは、励起シグナルのソースに関連する深度マップにアクセスすることも含むことができる。このような深度マップは、ソースからの空間的分離の関数として、励起シグナルの強度変動に関する情報を提供することができる。このような深度マップアプローチを使用する実装形態では、手術シーンの部分と励起シグナルのソースとの間の空間的分離に関する情報を表すデータを受信することができ、次いで、第2の量は、(i)手術シーンの部分とソースとの間の空間的分離、及び(ii)深度マップから得られた情報に基づいて決定されることができる。空間的分離に関する情報を表すデータは、内視鏡装置の先端部に配置された距離センサのような第3のセンサから受信することができる。手術シーンの部分とソースとの間の空間的分離に関する情報は、手術シーンの部分とソースとの間の角度、及び/又は手術シーンの部分とソースとの間の距離を含むことができる。
プロセス700の動作は、さらに、第1の量及び第2の量の関数として正規化された蛍光シグナルを生成することを含む(730)。いくつかの実装形態では、第1の量と第2の量の関数は、式(1)の右辺で表される比のように、第1の量と第2の量の比を含むことができる。
プロセス700の動作はまた、正規化された蛍光シグナルに基づいて手術シーンの部分の視覚的表現を生成すること(740)と、手術シーンの部分の視覚的表現を手術装置と関連付けられたディスプレイ装置に提示すること(750)を含む。いくつかの実装形態では、これは、正規化された蛍光シグナルに関連する閾値条件に関するユーザ入力を受信することと、正規化された蛍光シグナルが閾値条件を満たす領域を決定することと、視覚的表現が正規化された蛍光シグナルが閾値条件を満たす領域の識別を含むように視覚的表現を生成することとを含むことができる。例えば、外科医は、ICG吸収が閾値を超える領域の輪郭を表示することを要求するユーザ入力を提供することができ、次いで、視覚的表現は、それに応じて、そのような輪郭を含むことができる。いくつかの実装形態では、ディスプレイ装置に手術シーンの視覚的表現を提示すること応答して、手術シーンでの手術装置を操作することに関するユーザ入力を受信することができる。
本明細書に記載される遠隔操作手術システム又はその一部の機能性、及びその種々の修正(以下「機能」という)は、少なくとも部分的には、コンピュータプログラム製品、例えば、1つ又は複数の非一時的機械可読媒体又は記憶装置などの情報キャリア内に実体的に具現化されたコンピュータプログラムを介して、1つ又は複数のデータ処理装置、例えば、プログラマブルプロセッサ、DSP、マイクロコントローラ、コンピュータ、複数のコンピュータ、及び/又はプログラマブル論理コンポーネントの動作を実行又は制御するために、実装することができる。
コンピュータプログラムは、コンパイル又は解釈された言語を含む任意の形態のプログラミング言語で書くことができ、また、スタンドアロンプログラム若しくはモジュール、コンポーネント、サブルーチン、又はコンピューティング環境での使用に適した他のユニットとして、任意の形態で展開することができる。コンピュータプログラムは、1つのサイトで1つ又は複数の処理装置上で実行されるか、又は複数のサイトに分散され、ネットワークによって相互接続されるように展開することができる。
機能の全部又は一部を実装することに関連するアクションは、本明細書に記載されるプロセスの機能を実行するために、1つ又は複数のコンピュータプログラムを実行する1つ又は複数のプログラマブルプロセッサ又は処理装置によって実行することができる。機能の全部又は一部は、特殊目的論理回路、例えば、FPGA及び/又はASIC(特定用途向け集積回路)として実装することができる。
コンピュータプログラムの実行に適したプロセッサは、例えば、汎用及び専用マイクロプロセッサの両方、及び任意の種類のデジタルコンピュータの任意の1つ又は複数のプロセッサを含む。一般に、プロセッサは、読み出し専用メモリ又はランダムアクセスメモリ又はその両方から命令及びデータを受信する。コンピュータのコンポーネントは、命令を実行するためのプロセッサと、命令及びデータを記憶するための1つ又は複数のメモリデバイスとを含む。
本明細書は多くの特定の実装の詳細を含んでいるが、これらは、請求項に記載され得るものを限定するものではなく、むしろ、特定の実施形態に特有であり得る特徴の説明として解釈されるべきである。他の実施形態も、本明細書に記載される技術の範囲内にあり得る。別々の実施形態の文脈において本明細書に記載されるいくつかの特徴は、単一の実施形態において組み合わせて実施することもできる。逆に、単一の実施形態の文脈において説明される種々の特徴は、複数の実施形態において別々に、又は任意の適切なサブコンビネーションで実施することもできる。さらに、特徴は、本明細書中では、特定の組み合わせで作用するものとして記載され、最初にそのように請求項に記載されてもよいが、請求項に記載された組み合わせからの1つ又は複数の特徴は、場合によっては、組み合わせから切り出され得、請求項に記載された組み合わせは、サブコンビネーション又はサブコンビネーションのバリエーションに向けられ得る。
本明細書に記載された異なる実施形態の要素は、上に具体的に記載されていない他の実施形態を形成するために組み合わされてもよい。要素は、それらの動作に悪影響を与えることなく、本明細書に記載される構造から除外され得る。さらに、種々の別々の要素を1つ又は複数の個々の要素に組み合わせて、本明細書に記載の機能を実行することができる。

Claims (26)

  1. 手術シーンの部分の視覚的表現を表示する方法であって、前記方法は:
    手術装置と関連付けられたカメラの第1のセンサを使用してキャプチャされた情報を表すデータを受信するステップであって、前記情報は、前記手術シーンの前記部分から放射される蛍光の量を表す第1の量を示す、ステップと;
    前記手術シーンの前記部分から前記蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得るステップと;
    1つ又は複数の処理装置によって、前記第1の量及び前記第2の量の関数として正規化された蛍光シグナルを生成するステップと;
    前記正規化された蛍光シグナルに基づいて前記手術シーンの前記部分の前記視覚的表現を生成するステップと;
    前記手術シーンの前記部分の前記視覚的表現を前記手術装置に関連付けられたディスプレイ装置に提示するステップと;を含む、
    方法。
  2. 前記第2の量を示す前記情報を得るステップは:
    前記手術シーンの前記部分から反射される前記励起シグナルの部分を受信するステップと;
    第2のセンサを使用して前記励起シグナルの前記部分をキャプチャするステップと、
    前記第2のセンサからの出力信号に基づいて前記第2の量を決定するステップと;を含む、
    請求項1に記載の方法。
  3. 前記第1のセンサ及び前記第2のセンサの各々は、近赤外線(NIR)センサである、
    請求項2に記載の方法。
  4. 前記励起シグナルの前記部分をキャプチャするステップは:
    前記第2のセンサへ向かって前記励起シグナルの前記部分の伝搬の方向を変更するステップを含む、
    請求項2に記載の方法。
  5. 前記伝搬の方向は、前記伝搬の方向に対してある角度に配置された反射要素を用いて変化する、
    請求項4に記載の方法。
  6. 前記第2の量を示す前記情報を得るステップは:
    前記励起シグナルのソースに関連する深度マップにアクセスするステップであって、前記深度マップは、前記ソースからの空間的分離の関数として、前記励起シグナルの強度変動に関する情報を提供する、ステップと;
    前記手術シーンの前記部分と前記励起シグナルの前記ソースとの間の空間的分離に関する情報を表すデータを受信するステップと、
    (i)前記手術シーンの前記部分と前記ソースとの間の前記空間的分離、及び(ii)前記深度マップに基づいて前記第2の量を決定するステップと;を含む、
    請求項1に記載の方法。
  7. 前記空間的分離に関する情報を表す前記データは、第3のセンサから受信される、
    請求項6に記載の方法。
  8. 前記手術シーンの前記部分と前記ソースとの間の前記空間的分離に関する前記情報は、(i)前記手術シーンの前記部分と前記ソースとの間の角度、及び(ii)前記手術シーンの前記部分と前記ソースとの間の距離のうちの少なくとも1つを含む、
    請求項6に記載の方法。
  9. 前記視覚的表現を提示するステップは:
    前記正規化された蛍光シグナルに関連する閾値条件に関するユーザ入力を受信するステップと;
    前記正規化された蛍光シグナルが前記閾値条件を満たす領域を決定するステップと;
    前記正規化された蛍光シグナルが前記閾値条件を満たす前記領域の識別を前記視覚的表現が含むように前記視覚的表現を生成するステップと;を含む、
    請求項1に記載の方法。
  10. 前記ディスプレイ装置上の前記手術シーンの前記視覚的表現を提示することに応答してユーザ入力を受信するステップをさらに含み、前記ユーザ入力は、前記手術シーンにおいて前記手術装置を操作することに関する、
    請求項1に記載の方法。
  11. 前記カメラは、前記手術装置内に配置される、
    請求項1に記載の方法。
  12. 前記第1の量及び前記第2の量の前記関数は、前記第1の量と前記第2の量の比率を含む、
    請求項1に記載の方法。
  13. 手術シーンの部分から放射される蛍光の量を表す第1の量を示す情報を感知するように構成される第1の画像センサと;
    1つ又は複数の処理装置を含むレンダリングエンジンであって:
    前記手術シーンの前記部分から前記蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得る、
    前記第1の量及び前記第2の量の関数として正規化された蛍光シグナルを生成する、及び
    前記正規化された蛍光シグナルに基づいて前記手術シーンの前記部分の視覚的表現を生成する、
    ように構成される、レンダリングエンジンと;
    前記視覚的表現を提示するように構成されたディスプレイ装置と;
    を有する、
    イメージングシステム。
  14. 前記手術シーンの前記部分から反射される前記励起シグナルの部分をキャプチャするように構成される第2の画像センサを有する、
    請求項13に記載のイメージングシステム。
  15. 前記レンダリングエンジンは、前記第2の画像センサからの出力信号に基づいて前記第2の量を決定するように構成される、
    請求項14に記載のイメージングシステム。
  16. 前記第1の画像センサ及び前記第2の画像センサの各々は、近赤外線(NIR)センサである、
    請求項14に記載のイメージングシステム。
  17. 前記手術シーンの前記部分から放射された前記蛍光の少なくとも一部が前記第1の画像センサに向かって伝搬することを可能にしながら、前記第2の画像センサに向かって前記励起シグナルの前記部分の伝搬の方向を選択的に変更するように構成された光学フィルタを有する、
    請求項14に記載のイメージングシステム。
  18. 前記光学フィルタは、前記伝搬の方向に対してある角度に配置された反射要素を有する、
    請求項17に記載のイメージングシステム。
  19. 前記レンダリングエンジンは:
    前記励起シグナルのソースに関連する深度マップにアクセスし、前記深度マップは、前記ソースからの空間的分離の関数として、前記励起シグナルの強度変動に関する情報を提供し;
    前記手術シーンの前記部分と前記励起シグナルの前記ソースとの間の空間的分離に関する情報を表すデータを受信し;
    (i)前記手術シーンの前記部分と前記ソースとの間の前記空間的分離、及び(ii)前記深度マップに基づいて前記第2の量を決定する;
    ように構成される、
    請求項13に記載のイメージングシステム。
  20. 前記空間的分離に関する情報を表す前記データを提供するように構成される第3のセンサを有する、
    請求項19に記載のイメージングシステム。
  21. 前記手術シーンの前記部分と前記ソースとの間の前記空間的分離に関する前記情報は、(i)前記手術シーンの前記部分と前記ソースとの間の角度、及び(ii)前記手術シーンの前記部分と前記ソースとの間の距離のうちの少なくとも1つを含む、
    請求項19に記載のイメージングシステム。
  22. 前記レンダリングエンジンは:
    前記正規化された蛍光シグナルに関連する閾値条件に関するユーザ入力を受信し;
    前記正規化された蛍光シグナルが前記閾値条件を満たす領域を決定し;
    前記正規化された蛍光シグナルが前記閾値条件を満たす前記領域の識別を前記視覚的表現が含むように前記視覚的表現を生成する;
    ように構成される、
    請求項13に記載のイメージングシステム。
  23. 前記イメージングシステムは、1つ又は複数の入力装置を有する手術装置の一部として配置され、前記1つ又は複数の入力装置は、前記ディスプレイ装置上への前記手術シーンの前記視覚的表現の提示に応答してユーザ入力を受信するように構成され、前記ユーザ入力は、前記手術シーンにおいて前記手術装置を操作することに関する、
    請求項13に記載のイメージングシステム。
  24. 前記第1の画像センサは、内視鏡装置のカメラに配置される、
    請求項13に記載のイメージングシステム。
  25. 前記第1の量及び前記第2の量の前記関数は、前記第1の量と前記第2の量の比率を含む、
    請求項13に記載のイメージングシステム。
  26. 1つ又は複数の処理装置に動作を実行させるための命令をエンコードした1つ又は複数の非一時的な機械可読記憶装置であって、前記動作は:
    手術装置と関連付けられたカメラの第1のセンサを使用してキャプチャされた情報を表すデータを受信することであって、前記情報は、手術シーンの部分から放射される蛍光の量を表す第1の量を示す、受信することと;
    前記手術シーンの前記部分から前記蛍光を放射させる励起シグナルの量を表す第2の量を示す情報を得ることと;
    前記第1の量及び前記第2の量の関数として正規化された蛍光シグナルを生成することと;
    前記正規化された蛍光シグナルに基づいて前記手術シーンの前記部分の視覚的表現を生成することと;
    前記手術シーンの前記部分の前記視覚的表現を前記手術装置に関連付けられたディスプレイ装置に提示させることと;を含む、
    1つ又は複数の非一時的な機械可読記憶装置。
JP2021531598A 2018-12-05 2019-12-03 画像誘導手術のための照明補正近赤外線(nir)イメージング Pending JP2022510393A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024125722A JP2024149625A (ja) 2018-12-05 2024-08-01 画像誘導手術のための照明補正近赤外線(nir)イメージング

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862775451P 2018-12-05 2018-12-05
US62/775,451 2018-12-05
PCT/US2019/064142 WO2020117744A1 (en) 2018-12-05 2019-12-03 Illumination corrected near-infrared (nir) imaging for image guided surgery

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024125722A Division JP2024149625A (ja) 2018-12-05 2024-08-01 画像誘導手術のための照明補正近赤外線(nir)イメージング

Publications (1)

Publication Number Publication Date
JP2022510393A true JP2022510393A (ja) 2022-01-26

Family

ID=69005964

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021531598A Pending JP2022510393A (ja) 2018-12-05 2019-12-03 画像誘導手術のための照明補正近赤外線(nir)イメージング
JP2024125722A Pending JP2024149625A (ja) 2018-12-05 2024-08-01 画像誘導手術のための照明補正近赤外線(nir)イメージング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024125722A Pending JP2024149625A (ja) 2018-12-05 2024-08-01 画像誘導手術のための照明補正近赤外線(nir)イメージング

Country Status (5)

Country Link
US (1) US20220015857A1 (ja)
EP (1) EP3890583A1 (ja)
JP (2) JP2022510393A (ja)
CN (2) CN118542731A (ja)
WO (1) WO2020117744A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039586A1 (en) 2022-08-15 2024-02-22 Intuitive Surgical Operations, Inc. Systems and methods for detecting and mitigating extraneous light at a scene

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10108831A (ja) * 1996-10-09 1998-04-28 Fuji Photo Film Co Ltd 内視鏡装置
JP2001224549A (ja) * 2000-02-18 2001-08-21 Fuji Photo Film Co Ltd 内視鏡画像取得方法および装置
JP2003339623A (ja) * 2002-05-27 2003-12-02 Fuji Photo Film Co Ltd 蛍光診断情報生成方法および装置
JP2008229025A (ja) * 2007-03-20 2008-10-02 Olympus Corp 蛍光観察装置
JP2009542415A (ja) * 2006-07-11 2009-12-03 ザ ジェネラル ホスピタル コーポレイション 蛍光光画像の発生システムおよび方法
WO2011111619A1 (ja) * 2010-03-09 2011-09-15 オリンパス株式会社 蛍光内視鏡装置
JP2011194164A (ja) * 2010-03-23 2011-10-06 Olympus Corp 蛍光観察装置
JP2013056001A (ja) * 2011-09-07 2013-03-28 Olympus Corp 蛍光観察装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020138008A1 (en) * 2000-01-13 2002-09-26 Kazuhiro Tsujita Method and apparatus for displaying fluorescence images and method and apparatus for acquiring endoscope images
JP2004008230A (ja) * 2002-06-03 2004-01-15 Fuji Photo Film Co Ltd 蛍光診断情報生成装置
US7697975B2 (en) * 2003-06-03 2010-04-13 British Colombia Cancer Agency Methods and apparatus for fluorescence imaging using multiple excitation-emission pairs and simultaneous multi-channel image detection
US7729750B2 (en) * 2005-01-20 2010-06-01 The Regents Of The University Of California Method and apparatus for high resolution spatially modulated fluorescence imaging and tomography
US8803955B2 (en) * 2008-04-26 2014-08-12 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot using a camera unit with a modified prism
WO2015023990A1 (en) * 2013-08-15 2015-02-19 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
JP6030035B2 (ja) * 2013-09-27 2016-11-24 富士フイルム株式会社 蛍光観察装置、内視鏡システム及びプロセッサ装置並びに作動方法
US20160029892A1 (en) * 2014-07-30 2016-02-04 Novartis Ag Vital stain visualization in ophthalmic surgical procedures and associated devices, systems, and methods
WO2016127173A1 (en) * 2015-02-06 2016-08-11 The University Of Akron Optical imaging system and methods thereof
US20190353663A9 (en) * 2017-01-25 2019-11-21 Regents Of The University Of Minnesota High precision spectral fret assays

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10108831A (ja) * 1996-10-09 1998-04-28 Fuji Photo Film Co Ltd 内視鏡装置
JP2001224549A (ja) * 2000-02-18 2001-08-21 Fuji Photo Film Co Ltd 内視鏡画像取得方法および装置
JP2003339623A (ja) * 2002-05-27 2003-12-02 Fuji Photo Film Co Ltd 蛍光診断情報生成方法および装置
JP2009542415A (ja) * 2006-07-11 2009-12-03 ザ ジェネラル ホスピタル コーポレイション 蛍光光画像の発生システムおよび方法
JP2008229025A (ja) * 2007-03-20 2008-10-02 Olympus Corp 蛍光観察装置
WO2011111619A1 (ja) * 2010-03-09 2011-09-15 オリンパス株式会社 蛍光内視鏡装置
JP2011194164A (ja) * 2010-03-23 2011-10-06 Olympus Corp 蛍光観察装置
JP2013056001A (ja) * 2011-09-07 2013-03-28 Olympus Corp 蛍光観察装置

Also Published As

Publication number Publication date
CN118542731A (zh) 2024-08-27
WO2020117744A1 (en) 2020-06-11
CN113164022B (zh) 2024-05-17
CN113164022A (zh) 2021-07-23
JP2024149625A (ja) 2024-10-18
EP3890583A1 (en) 2021-10-13
US20220015857A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
US11792386B2 (en) Medical devices, systems, and methods using eye gaze tracking for stereo viewer
JP2024149625A (ja) 画像誘導手術のための照明補正近赤外線(nir)イメージング
US20220015616A1 (en) Combining near-infrared information with colored images in image-guided surgery
WO2019134945A1 (en) System and method for detecting abnormal tissue using vascular features
CN113164027B (zh) 组织中的发色团浓度的确定
CN111246818B (zh) 增强计算机辅助远程操作外科手术中不同组织之间的可见差异
US20230099835A1 (en) Systems and methods for image mapping and fusion during surgical procedures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240801

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240814