JP2020518349A - 光学イメージングにおいての測距 - Google Patents

光学イメージングにおいての測距 Download PDF

Info

Publication number
JP2020518349A
JP2020518349A JP2019559091A JP2019559091A JP2020518349A JP 2020518349 A JP2020518349 A JP 2020518349A JP 2019559091 A JP2019559091 A JP 2019559091A JP 2019559091 A JP2019559091 A JP 2019559091A JP 2020518349 A JP2020518349 A JP 2020518349A
Authority
JP
Japan
Prior art keywords
imaging system
tissue
camera
nir
spots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019559091A
Other languages
English (en)
Inventor
フランギオーニ、ジョン、ブイ.
ボルド、マーク、ダブリュー.
Original Assignee
キュラデル、エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キュラデル、エルエルシー filed Critical キュラデル、エルエルシー
Publication of JP2020518349A publication Critical patent/JP2020518349A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6886Monitoring or controlling distance between sensor and tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/02Devices for withdrawing samples
    • G01N1/04Devices for withdrawing samples in the solid state, e.g. by cutting
    • G01N1/06Devices for withdrawing samples in the solid state, e.g. by cutting providing a thin slice, e.g. microtome
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/286Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q involving mechanical work, e.g. chopping, disintegrating, compacting, homogenising
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6486Measuring fluorescence of biological material, e.g. DNA, RNA, cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • A61B2560/0228Operational features of calibration, e.g. protocols for calibrating sensors using calibration standards
    • A61B2560/0233Optical standards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/286Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q involving mechanical work, e.g. chopping, disintegrating, compacting, homogenising
    • G01N2001/2873Cutting or cleaving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Hematology (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)
  • Sampling And Sample Adjustment (AREA)

Abstract

1つの実施例において、イメージング・システムは、イメージング・システムのカメラの視野の中で、近赤外NIR光の1つ又は複数のスポットを組織の表面に照明する。イメージング・システムは、イメージング・システムのカメラの視野の中で、NIR光の1つ又は複数のスポットの画像を捕捉する。イメージング・システムは、捕捉された画像においてのNIR光の1つ又は複数のスポットの各々に対して、捕捉された画像においてのスポット直径、スポット位置、又はスポット形状を算出する。イメージング・システムは、捕捉された画像においてのNIR光の1つ又は複数のスポットの算出されたスポット直径、スポット位置、又はスポット形状に基づいて、イメージング・システムと組織の表面との間の距離を決定する。イメージング・システムは、イメージング・システムと、組織の表面との間の決定された距離を指示するデータを、電子ディスプレイに提供する。

Description

本出願は、John V. Frangioniによる、「RANGE−FINDING IN OPTICAL IMAGING」という表題の、2017年4月27日に出願された、米国仮特許出願第62/490,924号の優先権を主張するものであり、その米国仮特許出願の内容は、参照により本明細書に組み込まれている。
本開示は、一般的には、イメージング・システムに、及び、より詳しくは、光学イメージングにおいての測距に関係する。
様々な形式のイメージング・システムが、今日、健康管理及び研究分野において使用される。一部の事例において、イメージングは、イン・ビボで、すなわち、生きている有機体の中で遂行され得る。そのようなイメージング・システムは、例えば、内視鏡イメージング・システム、腹腔鏡イメージング・システム、開放空間イメージング・システム、及び同類のものを含み得る。他の事例において、イメージングは、生検される組織をイメージングすることの事例においてなどで、エクス・ビボで遂行され得る。
使用事例に応じて、イメージング・システムからの画像は、顕微鏡的又は肉眼的スケールのものであり得る。例えば、レンズが、システムが捕捉する画像を拡大するために、イメージング・システムにおいて使用され得る。別の実例において、拡大は、捕捉された画像データの処理の間に達成され得る。かくして、イメージング・システムは、多種多様の異なるビューをユーザにもたらし得る。
典型的には、イメージング・システムの先端部と、イメージングされる被写体(例えば、イン・ビボ又はエクス・ビボ組織)との間の距離は、ほとんど不明である。しかしながら、多くのイメージング・システムの高強度照明は、さらには、イメージング・システムが被写体にあまりにも接近して置かれるならば、加熱すること及び焼くことに起因する組織損傷につながり得る。例えば、神経系外科手術などの際どい外科手術の事例において、イメージング・システムがあまりにも接近しているならば、そのことが、神経を裂くこと又は焼くことなどの医原性損傷につながり得る。他の事例において、さらには作動距離(WD:working distance)として知られている、被写体までのイメージング・システムの距離は、水平スケール・バーなどの他の属性が算出及び表示され得るように、精密に知られることを必要とする。
本明細書においての実施例は、同類の参照番号が、同一に又は機能的に同様の要素を指示する、付随する図面と併せて、後に続く説明を参照することにより、より良好に理解され得る。
イメージング・システムの実例実施例を示す図である。 可視及び蛍光画像の組み合わせを示す図である。 イメージング・システムに対する実例コントローラを例示する図である。 光学イメージング・システムにおいての測距の実例を例示する図である。 光学イメージング・システムにおいての測距の実例を例示する図である。 スコープの端部からの測距の実例を例示する図である。 スコープの端部からの測距の実例を例示する図である。 スコープの端部からの測距の実例を例示する図である。 スコープの端部からの測距の実例を例示する図である。 スコープの端部からの測距の実例を例示する図である。 測距スポットを使用して距離を決定することの実例を例示する図である。 測距スポットを使用して距離を決定することの実例を例示する図である。 測距スポットを使用して距離を決定することの実例を例示する図である。 測距スポットを使用して距離を決定することの実例を例示する図である。 測距スポットを使用して距離を決定することの実例を例示する図である。 ミクロトームに対する実例イメージング・システムを例示する図である。 発光ダイオード(LED:light emitting diode)装着の実例を例示する図である。 発光ダイオード(LED)装着の実例を例示する図である。 発光ダイオード(LED)装着の実例を例示する図である。 発光ダイオード(LED)装着の実例を例示する図である。 発光ダイオード(LED)装着の実例を例示する図である。 発光ダイオード(LED)装着の実例を例示する図である。 イメージング・システムにおいて測距を遂行するための、実例の単純化された手順を例示する図である。
図において、参照番号は、図面のいくつもの図の全体を通して、本発明の同じ又は均等なパートを指す。
本明細書において説明される技法によれば、イメージング・デバイスは、照明光及び測距(RF:range−finding)光の両方を使用して、組織などの被写体をイメージングする。デバイスは、画像において現れるRF照明光の、1つ又は複数の属性を査定することにより、イメージング・デバイスの端部と、イメージングされている被写体との間のレンジを算出し得る。
一部の実施例において、イメージング・システムにより、イメージング・システムのカメラの視野の中で、近赤外(NIR:near−infrared)光の、1つ又は複数のスポットを、組織の表面に照明するステップを含む方法が開示される。方法は、さらには、イメージング・システムにより、イメージング・システムのカメラの視野の中で、NIR光の1つ又は複数のスポットの画像を捕捉するステップを含む。方法は、イメージング・システムにより、及び、捕捉された画像においてのNIR光の1つ又は複数のスポットの各々に対して、捕捉された画像においてのスポット直径、スポット位置、又はスポット形状を算出するステップをさらに含む。方法は、さらには、イメージング・システムにより、捕捉された画像においてのNIR光の1つ又は複数のスポットの、算出されたスポット直径、スポット位置、又はスポット形状に基づいて、イメージング・システムと組織の表面との間の距離を決定するステップを含む。方法は、イメージング・システムにより、イメージング・システムと、組織の表面との間の決定された距離を指示するデータを、電子ディスプレイに提供するステップをさらに含む。
さらなる実施例において、近赤外(NIR)光源と、可視光カメラと、NIRカメラとを含むイメージング・システムが開示される。イメージング・システムは、さらには、NIR光源と、可視光カメラと、NIRカメラとに結合されるコントローラを含む。コントローラは、プロセスを実行するように構成されるプロセッサと、プロセスを記憶するように構成されるメモリとを含む。実行されるとき、プロセスは、NIR光源を使用して、可視光カメラの視野の中で、NIR光の1つ又は複数のスポットを組織の表面に照明するように構成される。プロセスは、実行されるとき、さらには、NIRカメラを使用して、可視光カメラの視野の中で、NIR光の1つ又は複数のスポットの画像を捕捉するように構成される。プロセスは、実行されるとき、追加的に、捕捉された画像においてのNIR光の1つ又は複数のスポットの各々に対して、捕捉された画像においてのスポット直径、スポット位置、又はスポット形状を算出するように構成される。プロセスは、実行されるとき、さらには、捕捉された画像においてのNIR光の1つ又は複数のスポットの、算出されたスポット直径又はスポット位置に基づいて、イメージング・システムと組織の表面との間の距離を決定するように構成される。プロセスは、実行されるとき、イメージング・システムと、組織の表面との間の決定された距離を指示するデータを、電子ディスプレイに提供するようにさらに構成される。
追加的な実施例において、ミクロトームが開示される。ミクロトームは、組織のブロックを保持するように構成される組織ホルダを含む。ミクロトームは、さらには、組織の保持されるブロックを横切って移動して、組織のブロックから組織試料のスライスを生み出すように構成されるブレードを含む。ミクロトームは、組織のブロックに関して蛍光イメージングを遂行することと、組織のブロック、組織ホルダ、又はブレードのうちの少なくとも1つに関して測距を遂行することとを行うように構成されるイメージング・システムをさらに含む。
本発明の総体的な理解を招来するために、重畳される循環及び組織画像をビデオ・フォーマットで生成するためのシステムを含む、所定の例示的な実施例を、今から説明する。しかしながら、本明細書において説明される方法及びシステムは、可視光組織画像が、可視光レンジの外側から取得される、及び、可視光画像上へと重畳される、診断画像情報とともに有用に表示され得る、他の医療イメージング用途に、適するように適応させられ得るということが理解されるであろう。より一般的には、本明細書において説明される方法及びシステムは、可視光画像が、色素又は他の材料により可視光レンジの外側の光子を放射するために機能的にマーキングされる、可視光画像の中の区域から捕捉される重畳される画像とともに有用に表示され得る、任意のイメージング用途に適応させられ得る。例えば、システム及び方法は、標的病理、組織タイプ、又は細胞が、蛍光色素、又は、他の蛍光物質によってラベリングされ得る、広範なレンジの診断又は外科手術用途に応用可能である。本明細書において説明されるシステムの、これら及び他の用途は、本発明の範囲の中に収まることが意図される。
図1は、例えば、イン・ビボ又はエクス・ビボのいずれかの組織をイメージングするために使用され得るイメージング・システムの実施例を示す。イメージング・システム100は、一般的には、コントローラ102、ディスプレイ104、近赤外(NIR)カメラ104、測距光源118、可視光カメラ106、スプリッタ機構108、1つ若しくは複数の光源110、及び/又は、光透過/収集部材112を含み得る。察知されることになるように、イメージング・システム100は、開放外科手術イメージング、内視鏡若しくは腹腔鏡イメージング、ブロック面イメージング(例えば、組織試料の)、又は同類のものを含むが、それらに制限されない、任意の数の使用に対して適応させられ得る。イメージング・システム100の実例は、マサチューセッツ州マールボロのCuradel LLCから入手可能なFLARE(登録商標)(蛍光支援切除及び診査(FLuorescence−Assisted Resection and Exploration))イメージング・システム、及び、任意の他のタイプの光学イメージング・システムを含む。
様々な実施例において、イメージング・システム100は、そのカメラ104、106を使用して、有機組織などの被写体116の蛍光画像を捕捉するように構成され得る。被写体116をイメージングするより前に、及び/又は、イメージング・システム100によるイメージングの間、被写体116は、光の所定の波長に露出されるときに光学的に反応性である蛍光色素(例えば、フルオロフォア)を注入され得る。一般的には、被写体116は、様々な実施例において、開放又は腹腔鏡/内視鏡セッティングにおいての、任意の形式の有機組織であり得る。例えば、一部の色素は、NIRレンジ内でフォト反応性であり得るものであり、このレンジ内の照明に露出されるときに光を放射し得る。このことを活用して、イメージング・システム100は、被写体116、及び、その被写体116内にインフュージョンされる色素の、リン光/NIR画像を捕捉するNIRカメラ104、並びに、被写体116の可視光画像を捕捉する可視光カメラ106によって、被写体116の、コントラストのある画像を捕捉し得る。一般的に、近赤外は、本明細書において使用される際、660〜900ナノメートル(「nm」)の間の波長のレンジを指す。
一般的には、及び、下記でより詳細に説明されるように、コントローラ102は、照明光源110、1つ又は複数の測距光源118、及び、カメラ104、106にわたる電子制御を提供して、それぞれ、被写体116のNIR及び可視光画像を捕捉し得る。コントローラ102は、さらには、一部の実施例において、両方のタイプの捕捉された画像からのイメージング・データを、組み合わされた画像へと組み合わせ得る。例えば、そのような組み合わされた画像は、NIR/蛍光画像データを、可視画像データに対するオーバーレイとして提示し得るものであり、そのことにより、蛍光色素が置かれる被写体116の中の場所の視覚的指示を提供する。例えば、所定の色素は、特定の腫瘍と結び付き得るものであり、そのことにより、被写体116の中の腫瘍の視覚化を手助けする。別の実例において、そのような色素は、生きた患者の血流内へと注入され得るものであり、そのことにより、イメージング・システム100のユーザが、被写体116の中の色素の拡散することを視覚化することを可能とする。NIR及び可視光画像データが処理されてしまうと、コントローラ102は、視覚化、及び、ユーザによる再検討のために、ローカル又はリモート(例えば、ネットワークを経て接続される)ディスプレイ104に、処理された画像データを提供し得る。
一部の実施例において、照明光源110は、可視光カメラ106に対する光源の役目をする可視光源を含み得る。例えば、可視光源は、例えば、近赤外減損白色光源であり得る。注目すべきことに、この光源は、700nmより大である波長を減損するための1つ又は複数のフィルタを伴う、150ワット・ハロゲン・ランプであり得る。一般的には、400nmから700nmの間の波長に制約される任意の光源が、光源110においての可視光源として動作し得る。しかしながら、さらなる実施例において、区域内の周囲ライティングが、可視照明を被写体116に提供するために、幾分か、又は丸ごと使用され得る。
一部の事例において、イメージング・システム100は、周囲光に対して閉鎖される動作区域(示されない)により包囲され得る。後に続くことから明確になることになるように、白熱ランプ、ハロゲン・ランプ、又は昼光などの多くの可視光源は、人間の目により検出される可視光のレンジを超えて、及び、診断画像を生成するための別々の光学チャネルとして本システムにおいて使用される波長内へと伸びる、電磁輻射の幅広いスペクトルを含み得る。これらの超可視光波長においての放射を効果的に検出するために、外科手術野、光源110、及び、カメラ104、106を、広帯域光源に露出されない区域内に囲うことが好まれる。このことは、外部光源に対して閉鎖される手術室を使用することにより、或いは、求められていないスペクトルによる侵入を防止する、外科手術野に対するフード、又は、他の囲い若しくは覆いを使用することにより達成され得る。他の事例において、このことは、単純に、干渉する光源を、イメージング・システムが最小限に影響を及ぼされるレベルまで低下させることにより達成され得る。照明光源110の可視光源は、次いで、可視光カメラ106に対する、及びさらには、可視光スペクトルの中の従来のライティングを提供するための、光源の役目をし得る。本明細書において使用される際、用語「動作区域」は、具体的には、周囲光に対して閉鎖される開放外科手術現場を指すことが意図される。下記で説明されるような内視鏡又は腹腔鏡用途は、閉鎖された体腔の中の外科手術処置に限られ、動作区域を、その用語が本明細書において意図されるようには含まない。
被写体116の可視光画像を捕捉することに加えて、イメージング・システム100のNIRカメラ104は、照明光源110内の励起NIR光源により照明される際、被写体116(及び、その被写体116内に存在する色素)のNIR画像を捕捉し得る。例えば、所定の用途において、励起光源、及び、被写体116内に存在する色素からの結果的に生じる放射は、650nmにおいて励起されるときに光を放射するCy5色素による際、700nmに近い、又は、700nmより下方の波長を有し得る。これらの近赤色素が、本システムによって使用され得るが、このことは、色素が働く可視光スペクトルの一部分を除外する可視光源、すなわち、遠赤減損白色光源を要する。同様に、蛍光物質として量子ドットを使用する用途は、可視光スペクトルにおいてのどこかに吸収又は放射波長を有し得るものであり、適している可視光源は、関心の波長において減損されるべきである。そのようなものとして、可視光源は、より一般的には、可視光の波長の、一部ではあるが、必ずしもすべてではないものを含む、光の源であると理解されるべきである。
上記で注目されたものなどの遠赤イメージング・システム又は赤外イメージング・システムにおいて、実例実施例において説明されるNIRカメラ104は、代わりに、注入される色素、又は、他の蛍光物質の放射波長に対して高感度のカメラであることになるということ、並びに、光源、フィルタ、及び、他の光学部品に対する他の修正が適切であることになるということが、さらには理解されるべきである。同様の修正が、適している光学部品、カメラ、及び色素が利用可能であるという前提で、可視光レンジの中又は外側のどこかの、色素励起及び放射に対する波長の帯域を隔離するために為され得る。他の蛍光物質が、さらには使用され得る。例えば、量子ドットは、典型的には、それらの放射波長より下方の吸収に応答して、可視光波長、遠赤、近赤外、及び赤外波長において、並びに、他の波長において放射し得る。適している調整が、そのような用途に対して、実例実施例において、励起光源、及び、放射カメラ、NIRカメラに対して為されることになる。遠赤、近赤外、及び赤外波長に対して高感度のカメラは、市販で入手可能である。
特に、光源110は、被写体116内に存在する色素を励起する波長において光を提供する励起光源を含み得る。この光源は、例えば、カリフォルニア州サンタ・ローザのLaser Componentsから取得され得る、771nm、250mWレーザ・ダイオード・システムなどのレーザ・ダイオードであり得る。他の単一波長、狭帯域、又は広帯域光源が、それらが、可視光カメラ106(例えば、ビデオ・カメラ、その他)により捕捉される可視光画像、又は、色素の放射波長に干渉しないという前提で、使用され得る。近赤外帯域は、一般的には、700nmから1000nmの間の波長を含むと理解され、本明細書において説明されるシステムによって使用され得る、いくつかのたやすく利用可能な励起光源及び色素に対する、有用な波長レンジである。適している光学結合及びレンズが、可視光源及び励起光源の各々を、被写体116の関心の区域に方向設定するために用意され得る。
一般的には、スプリッタ108が、照明される被写体116から受信されるNIR及び可視光を、分離及び方向設定するように動作可能であり得る。例えば、スプリッタ108は、捕捉のために、蛍光波長をNIRカメラ104の方に、及び、可視波長を可視光カメラ106の方に方向設定するために、任意の数のフィルタ及び/又はダイクロイック・ミラーを含み得る。カメラ104、106、及びスプリッタ108の、いくつかの配置構成が、可能であり、可視光画像又は放射波長画像のいずれかを、反射又は透過させることを必然的に含み得る。
様々な実施例において、イメージング・システム100は、さらには、光を光源110、118から表面被写体116に伝え、被写体116からの任意の光(例えば、反射させられる光、その他)があれば、それをスプリッタ108及びカメラ104、106の方に方向設定する、光透過/収集部材112を含み得る。例えば、光透過/収集部材112は、照明を光源110、118から被写体116の方に、及び、捕捉される光を被写体116からカメラ104、106の方に方向設定するために、任意の数の光学ファイバ、又は、他の光ガイド/チャネルを含み得る。さらなる実施例において、光源110は、照明を被写体116に直接的に提供するために、光透過/収集部材112から結合解除され得る。一部の実施例において、光透過/収集部材112は、さらには、光を光源110、118から被写体116の方に透過させ、光を被写体116から、カメラ104、106による処理のために収集するために、任意の数のレンズを、その部材の遠位端上に含み得る。
典型的には、照明光源110により、及び、測距光源118から提供される光は、光透過/収集部材112の中の異なるチャネルを経て透過させられ得るものであり、それらの光源は、下記でより詳細に説明される。他の実施例において、それらは、それらが、異なるサイズ、位置、及び/又は形状を伴って最終的なレンズに進入する限りにおいて混合され得る。示されるように、測距照明スポットが、イメージング・システム視野の中に収まり、発散、位置、及び/又は形状において、その視野とは異なる限りにおいて、本明細書においての技法は作動することになる。しかしながら、光透過/収集部材112は、一部の実施例において、任意選択的であり得るということに注目されたい。例えば、内視鏡、腹腔鏡、その他の用途は、部材112を用いることがあるが、開放外科手術などの他の実現例は、部材112を要さないことがあり、この構成要素は省略され得る。
NIRカメラ104は、被写体116内に存在する励起される色素の放射波長においての画像を捕捉するのに適している、任意の静止又は動画像カメラであり得る。近赤外カメラは、例えば、ゲイン7、2×2ビニング、640×480画素視野、並びに、20ミリ秒の露出時間、及び、15フレーム毎秒の有効フレーム・レートのセッティングを伴う、Orca−ER近赤外カメラであり得る。Orca−ERは、ニュー・ジャージー州ブリッジウォーターのHamamatsu Photonic Systemsから市販で入手可能である。図1においてのNIRカメラ104は、実例にすぎないということが理解されるであろう。赤外カメラ、遠赤カメラ、又は、何らかの他のカメラ若しくはビデオ・デバイスが、放射波長画像を捕捉するために使用され得るものであり、カメラ、及び、任意の関連付けられるフィルタは、イメージング・システムによって使用される対応する蛍光物質の波長によって選択される。本明細書において使用される際、用語「放射波長カメラ」は、本明細書において説明されるシステムによって使用され得る、任意のそのようなカメラを指すことが意図される。
可視光カメラ106は、可視光スペクトルにおいて外科手術野106の画像を捕捉するのに適している、任意のビデオ・カメラであり得る。さらなる実施例において、可視光カメラ106は、代わりに、ビデオではなく、静止画像をとるように構成されるカメラであり得る。1つの実施例において、カメラ106は、ニュー・ヨーク州タリータウンのHitachiから市販で入手可能な、カラー・ビデオ・カメラ・モデルHV−D27である。例えば、ビデオ・カメラ106は、所望されるように、赤緑青(RGB:red−green−blue)画像を、640×480画素の分解能で、30フレーム毎秒で、又は、任意の他の数のフレーム若しくは分解能で捕捉し得る。別の実例において、カメラ106は、ニュー・ヨーク州メルヴィルのCanonから入手可能な、高分解能Canon EOS 700白色光カメラであり得るが、任意の他の適している白色光カメラが、他の実現例において使用され得る。より一般的には、NIRカメラ104及び可視光カメラ106は、リニア・フォトダイオード・アレイ、電荷結合デバイス・アレイ、スキャニング光電子増倍管等々を含む、フォトニック検出、及び、電子画像への変換の能力がある任意のデバイスであり得る。
ディスプレイ104は、コントローラ102からの信号を受信及びレンダリングするように構成される、テレビジョン、高精細度テレビジョン、コンピュータ・モニタ、又は、他のディスプレイであり得る。一部の実施例において、ディスプレイ104は、外科手術顕微鏡の単眼又は両眼アイピースであり得るものであり、近赤外画像が、アイピースにおいて可視光画像上に重畳される。別の実施例において、アイピースは、従来の顕微鏡的目視のために、アイピースへの外科手術野の直接的な光学結合を使用し得るものであり、近赤外画像が、例えば、ヘッド・アップ・ディスプレイ技術を使用して、アイピース上へと投射される。
一般的には、コントローラ102は、デジタル・フィルタリング、ゲイン調整、カラー・バランシング、及び/又は、任意の他の従来の画像処理機能の能力があるべきである。NIRカメラ104からの画像は、さらには、典型的には、重畳される画像が色素を明確に描写することになるように、何らかの際立つ波長、例えば、カメラ106からの捕捉及び/又は表示される画像データの可視光カラーとは別個のカラーでの表示のために、可視光レンジ内へとシフトされる。コントローラ102は、さらには、画像処理を遂行して、NIRカメラ104及び可視光カメラ106からの画像を組み合わせ得る。画像が並んで表示される場合、このことは、単純に、画像をコンピュータ・スクリーン上の適している場所においてレンダリングすることを必然として伴い得る。画像が重畳される場合、フレーム・レート調整が要され得る。すなわち、可視光カメラ106が、30フレーム毎秒の従来のレートで画像を捕捉しており、NIRカメラ104が、15フレーム毎秒の有効フレーム・レートによって静止ピクチャをとっているならば、何らかの追加的な処理が、重畳される画像を共存的にレンダリングするために要され得る。このことは、ビデオ・データの1つおきのフレームを使用すること、若しくは平均化することのいずれかにより、可視光カメラ106のフレーム・レートを、NIRカメラ104のフレーム・レートに低減すること、又は、他の形で、ビデオ・データをより低速のフレーム・レートへと内挿することのいずれかを必然として伴い得る。このことは、代わりに、近赤外データの各々のフレームを、ビデオ・データの連続的なフレームにわたって維持すること、又は、ビデオ画像の変化によって近赤外画像をゆがめること、若しくは、他の知られている画像処理技法を用いることによってなどで、近赤外データを外挿することのいずれかにより、近赤外画像データのフレーム・レートを増大することを必然として伴い得る。
1つの実施例において、光源110の可視光源は、近赤外減損可視光源であり、励起光源は、760nm、2.5Wレーザ・ダイオードであり、色素は、インドシアニン・グリーン又はZW800−1であり、イメージング・システム100は、近赤外光を透過させ、可視光を反射させるように構成される780nmダイクロイック・ミラーと、781nmロングパス放射フィルタと、400nmから700nmのフィルタとを含む。コントローラ102は、NIRカメラ104及び可視光カメラ106からの画像捕捉のための、NIRカメラ104からの画像に対する適しているカラー調整を為すための、可視光カメラ106画像に対するフレーム・レート調整を為すための、並びに、ディスプレイ104上の重畳された表示のために2つの画像を組み合わせるための、ソフトウェアによって構成される処理回路を備える。
上記で説明されたシステムは、数多くの外科手術用途を有する。例えば、システムは、心臓外科手術に対する一助として配備され得るものであり、その場合、そのシステムは、手術中に、心臓の血液流れの直接的な視覚化のために、梗塞の危険に瀕している心筋の直接的な視覚化のために、並びに、関心の区域に対する遺伝子治療及び他の医薬品の画像誘導配置のために使用され得る。システムは、腫瘍学的外科手術に対する一助として配備され得るものであり、その場合、そのシステムは、外科手術野内の腫瘍細胞の直接的な視覚化のために、又は、関心の区域に対する遺伝子治療及び他の医薬品の画像誘導配置のために使用され得る。システムは、血液流れ及び組織生存性を含む、蛍光色素によるイメージングを施すことができる任意の機能の直接的な視覚化のために、一般的な外科手術に対する一助として配備され得る。皮膚科学において、システムは、悪性細胞又は他の皮膚症状の高感度検出のために、並びに、近赤外リガンド及び/又は抗体を使用する皮膚科学的疾患の非外科的診断のために使用され得る。
さらなる実施例において、イメージング・システム100は、内視鏡又は腹腔鏡においての使用のために適応させられ得る。典型的には、腹腔鏡は、のど又は直腸などの既存の体開孔部を通って挿入される内視鏡と区別されるように、切開部を通って体腔内へと挿入される。腹腔鏡は、異なる寸法要件を含む、内視鏡とは異なるフォーム・ファクタを有する。さらにまた、腹腔鏡の使用は、腹腔鏡が体腔内へと挿入され得るように、体内への切開部を作る少なくとも1つの追加的なステップを必然的に含む。イメージング・システム100は、上記で説明された技法を使用して、統合された同軸照明及び画像捕捉デバイスを提供することによってなどで、内視鏡及び腹腔鏡以外のイメージング・デバイスを単純化するために使用され得るということが、さらに察知されるであろう。
図2は、循環系及び周辺組織の両方を表示する画像を示す。上記で説明されたように、可視光組織画像202が、外科手術野の中の組織について捕捉される。上記で注目されたように、可視光組織画像202は、色素イメージングのための光学チャネルが、可視光レンジの中の波長を含むとき、可視光波長のサブセットを含み得る。近赤外画像204が、さらには、外科手術野の同じ(又は、重なる)視野について捕捉される。ここでは都合のため近赤外画像と呼称されるが、色素ベースの画像204は、さらには、又は代わりに、遠赤又は赤外波長などの他の波長を用い得るということが明確であるべきである。近赤外画像204は、好ましくは、可視光組織画像202上に重畳されるときに際立つカラーを使用して、表示のために可視波長にシフトされ得る。画像402、404は、外科手術野のビデオ表示のために適切なように、フレーム・レート調整され得る。
画像は、可視光組織画像202及び近赤外画像204として別々に表示され得る。又は、画像202、204は、上記で説明された画像処理ユニットにより、組み合わされた画像206へと組み合わされ得る。組み合わされた画像206は、次いで、上記で説明された処置に対する、又は、本明細書において説明される色素ベースのイメージング技法から利益を得ることができる、任意の他の外科手術若しくは診断処置に対する一助として使用され得る。
上記で注目されたように、光学イメージング・システムの端部と被写体との間の距離は、典型的には不明である。距離についてあまりにも大であると、イメージング・システムは、被写体からの必要とされる画像情報を正確に捕捉することができないことがある。逆に、距離についてあまりにも接近していると、イメージング・システムは、不注意に、照明の物理的接触及び/又は高強度に起因して、被写体を損傷する、及び/又は、焼くことがある。例えば、再び手短に図1を参照して、イメージング・システム100の端部114が、被写体116の表面から距離=Xに置かれるということを想定する。所与のしきい値距離=tにおいて、照明光源110からの照明122が、被写体116に対する損傷を引き起こし得る。かくして、X≦tならば、イメージング・デバイス100は、被写体116を損傷し得る。察知されることになるように、しきい値距離は、さらには、被写体タイプ、及び/又は、光源110からの照明への露出時間の関数であり得る。しかしながら、被写体116からの実際の距離Xは、しばしば不明である。
下記でより詳細に説明されるように、イメージング・システム100は、さらには、イメージング・システム100の端部114(例えば、光透過/収集部材112の先端部)の間のレンジ/距離を決定するように動作可能であり得る。注目すべきことに、使用の間、測距光源118は、測距光126を被写体116上へと透過させ得るものであり、一方で、照明光源110は、照明122を被写体116上へと透過させる。示されるように、照明122及び測距光126は、被写体116の表面上で重なり得る。かくして、視野124の中でカメラ104、106により捕捉される画像は、照明122のみにより照明される被写体116の区域、及び、さらには測距光126により照明される被写体116の区域の両方を含み得る。代わって、コントローラ102は、画像データ内に存在する異なるタイプの照明を査定して、端部114と被写体116との間の距離を決定し得る。
図3は、様々な実施例による、本明細書において説明されるイメージング・システム/デバイスの任意のもののパートとして使用され得るコントローラ102を例示する。示されるように、コントローラ102は、システム・バス350により相互接続される、1つ又は複数のネットワーク・インターフェイス310(例えば、ワイヤード、ワイヤレス、その他)、少なくとも1つのプロセッサ320、及び、メモリ340を、並びに、電力をコントローラ102に提供する電力供給装置360を備え得る。
インターフェイス310は、イメージング・デバイス/システムの他の構成要素と、及び/又は、他のコンピューティング・デバイスと(例えば、コンピュータ・ネットワークを経て)データを通信するための、機械的、電気的、及びシグナリング回路網を内包する。例えば、インターフェイス310は、(例えば、画像データをクラウド・サービスにアップロードするために、ソフトウェア又はデータ更新をダウンロードするために、その他で)通信ネットワークを経て、種々の異なる通信プロトコルを使用して、データを送信及び/又は受信するように構成され得る。さらなる実例において、インターフェイス310は、イメージング・デバイスのカメラ、ライティング源、その他に制御コマンドを提供するために、及び/又は、カメラから、捕捉された画像データを受信するために、イメージング・デバイスの様々な構成要素に結合され得る。インターフェイス310は、さらには、処理の後の結果的に生じる画像を表示するために、電子ディスプレイとの通信の様態にあり得る。
メモリ340は、本明細書において説明される実施例と関連付けられるソフトウェア・プログラム及びデータ構造を記憶するために、プロセッサ320及びネットワーク・インターフェイス310によりアドレス可能である、複数の記憶場所を備える。プロセッサ320は、ソフトウェア・プログラムを実行し、データ構造345を操作するように適応させられる、ハードウェア要素又はハードウェア論理を備え得る。オペレーティング・システム342であって、その一部分が、典型的には、メモリ340内に常在し、プロセッサ320により実行される、オペレーティング・システム342は、なかんずく、デバイス上で実行するソフトウェア・プロセス及び/又はサービスのサポートの形でオペレーションを発動することにより、デバイスを機能的に指揮監督する。これらのソフトウェア・プロセス及び/又はサービスは、本明細書において説明されるように、イメージング・プロセス348と、例示的には測距プロセス349とを含み得る。
様々なコンピュータ可読媒体を含む、他のプロセッサ及びメモリ・タイプが、本明細書において説明される技法に関係があるプログラム命令を記憶及び実行するために使用され得るということが、当業者には明らかであろう。さらには、本説明は様々なプロセスを例示するが、様々なプロセスは、(例えば、同様のプロセスの機能性による)本明細書においての技法によって動作するように構成されるモジュールとして実施され得るということが、明示的に思索される。さらに、所定のプロセスが別々に示されている場合、当業者は、プロセスが他のプロセスの中のルーチン又はモジュールであり得るということを察知するであろう。
プロセッサ320により実行されるとき、イメージング・プロセス348は、本明細書において説明されるイメージング機能の任意のものを遂行するように動作可能であり得る。例えば、イメージング・プロセス348は、イメージング・デバイスの構成要素にわたる制御を提供して、関心の有機組織に関する、カラー及び蛍光の両方の画像データを捕捉し得る。代わって、イメージング・プロセス348は、捕捉された画像データを処理して、電子ディスプレイによる表示のための表示データを形成し得る。例えば、イメージング・プロセス348は、カラー及び蛍光の両方のデータを、電子ディスプレイによる表示のためのオーバーレイ画像へと組み合わせ得る。そのような表示される画像は、様々な実施例において、フルでカラーの、又は、少なくとも部分的には白黒若しくはグレースケールの様態であり得る。
様々な実施例によれば、測距プロセス349は、イメージング・プロセス348と連関して動作して、さらには作動距離(WD)として知られている、イメージング・システムの端部と、イメージングされている被写体との間の距離/レンジを決定し得る。注目すべきことに、測距プロセス349は、制御命令をイメージング・システムの光源に、及び/又は、システムのカメラに提供して、被写体(例えば、イン・ビボ又はエクス・ビボ組織)の画像を取得し得る。代わって、測距プロセス349は、捕捉された画像データを分析して、イメージング・システムの端部と、被写体との間のレンジ/距離を決定し得る。WDを知ることは、しばしば、水平スケール・バー、システム分解能、照明強度レベル、その他などの、他のイメージング・システム属性の算出又は推定を可能にすることになる。そのことは、さらには、とりわけ、ワーキング・チャネルであって、それを通して処置が履行される、ワーキング・チャネルが、測距を装備させられた内視鏡/腹腔鏡の中に内包されるならば、より高い安全係数を伴って遂行されるべきである生検、切除、洗浄、又は注入などの、他の処置を可能なものにする。
図4A〜4Bは、様々な実施例による、光学イメージング・システムにおいての測距の実例を例示する。示されるように、測距プロセス349は、光の差分発散、画像の中の測距スポット位置、及び/又は、スポット形状を活用して、イメージング・システムの端部から、イメージングされる被写体の表面までの、精密な距離を決定し得る。察知されることになるように、すべての光学イメージング・システムは、イメージングされている表面の均一な照明を要する。一般的に、このことは、照明光406のコーンが、イメージングされている対象物又は区域より常に大きいように、高開口数(NA:numerical aperture)ファイバ又はレンズを使用して達成される。このことは、エッジ効果なしの均質な照明レベルを結果的に生じさせる。
様々な実施例によれば、本明細書において説明される技法は、不可視の近赤外(例えば、660〜900nmレンジ内の照明及びイメージング)を使用して、示されるイメージング・デバイス402などの可視及び/又はNIRイメージング・システムに測距能力を提供し得る。察知されることになるように、イメージング・デバイス402は、イメージング・システム100に関して先に説明された構成要素の任意のもの又はすべてを含み、特に、測距プロセス349を実行して、本明細書において説明される機能を遂行し得る。
図4Aにおいて示されるように、イメージング・デバイス402は、イメージング・システムに検出可能であるが、その他では、ユーザからは、可視でない、及び/又は、隠される、波長又は複数の波長を使用して、NIR光の、1つ又は複数の小さいスポットを、イメージングされている表面404上に照明し得る。換言すれば、イメージング・デバイス402は、測距光410を表面404上へと放射し、照明される表面404の画像を捕捉するように構成され得る。一部の実施例において、イメージング・デバイス402は、小さい直径の光学ファイバ又はレンズを使用して、測距スポットを表面404上に生み出し得る。今から言及されることになるような、これらの測距スポット、又は、各々のスポットの少なくとも一部分は、測定されることを所望されるすべての距離において視野の中に収まるように調整される。
様々な実施例において、NIR蛍光イメージング・システムによって測距光を使用するとき、イメージング・システムにより検出される放射帯域の中に収まる波長が選択され得る。通常、NIR励起光は、誰もが黒背景を有するように、放射帯域の外側の遠くにあるように選定される。しかしながら、測距に対しては、NIR蛍光チャネルが、測距光を検出するために使用され得るものであり、そのため、それは、検出される放射波長の中に収まることを必要とする。例えば、マサチューセッツ州マールボロのCuradel LLCによるLab−FLARE(登録商標)イメージング・システムを使用して、チャネル#1(685〜735nm放射帯域)上の測距検出のための730nm、又は、チャネル#2(>781nm放射帯域)上の測距検出のための808nmを使用することを選定することができる。
光学イメージング・デバイスが、表面の方に、及び、表面から離れるように移動させられる際、これらのスポットの、視野のエッジに対する、及び、より少ない程度の、お互いに対する関係性は、劇的に変化することになる。この点を論証するために、図4A〜4Bは、各々、表面404までの異なる距離に置かれるときのイメージング・デバイス402を例示する。注目すべきことに、図4Aは、この距離がXである事例を例示し、図4Bは、この距離が2Xに増大される(すなわち、図4Aにおいての距離を2倍にする)事例を例示する。
様々な実施例において、測距プロセス349は、表面404からの捕捉された画像データを査定して、表面404上で測距光410により形成される、各々のスポットの中心(すなわち、FOVの中の位置)(例えば、光の円又は楕円の中心点)、各々のスポットの直径、及び/又は、各々のスポットの形状を識別し得る。代わって、測距プロセス349は、この情報を使用して、「測距距離」を決定するために決定し得る。注目されるように、高NAファイバ又はレンズにより提供され得る照明光406は、捕捉される画像視野408のものより大きい区域に対する照明を提供するように構成され得る。
イメージング・デバイス402が、工場において、又は、イメージングより前に、適正に較正されたという前提で、測距距離は、デバイスから対象物までの距離の、精確な距離を提供することになる。「測距距離」は、単一の測距スポットのみを使用して算出され得るが、好まれる実施例、他の実施例は、2つ以上のスポットを使用する。例えば、4つの測距スポットを使用することは、平らでない表面のセッティングにおいて、付加的な正確度を供する。すなわち、中心点から視野のエッジまでの距離は、イメージングされている対象物のその個別の区域までのその個別のスポットの距離を提供する。一般的には、使用されるスポットが多いほど、測定され得るトポグラフィック変動は高い。しかしながら、トレードオフとして、より多いスポットは、計算時間を増大し、さらには、算出を減速させる。様々な事例において、測距スポットは、イメージングされている対象物のトポグラフィック変動に起因して、卵形の(楕円)、又は、いっそう複雑な形状として現れ得る。スポットの形状に関わらず、測距プロセス349は、イメージングされる表面までの距離を決定することの目的のために、結果的に生じる形状の幾何学的中心を識別し得る。円形の測距スポット(平坦な表面上へと投射されるときの)が好まれるが、他の投射される形状が、さらには、所望されるように(例えば、三角形、正方形又は他の四辺形、その他を投射することにより)、本明細書においての技法によって使用され得る。あらためて、使用される測距スポットが多いほど、複雑な形状の事例において、距離のパワーは弁別的である。
測距プロセス349は、較正なしに「相対」距離を指定することができる。しかしながら、イメージング・デバイス402から表面404までの絶対距離を指定するために、システムは較正されなければならない。測距スポットが、それらが大部分の環境のもとでそうであることになるように、イメージング・レンズとの関係性において機械的に固定されるならば、この較正は、工場において1回生起しなければならないのみであるはずである。しかしながら、実地においての性能検証が、任意の時間において、イメージング・デバイス402から表面までの知られている距離をセットし、「測距距離」を測定することにより遂行され得る。この個別の測距距離は、(例えば、データ構造345内の)ルックアップ・テーブル内の、イメージング・デバイスから対象物までの距離に指定され、測距プロセス349により使用されることになる。
測距スポットは、典型的には、カメラ視野と比較して、発散のレート、サイズ、及び/又は形状において異ならなければならず、さらには、すべての所望される距離において、カメラ視野の中に収まらなければならないということに注目されたい。測距システムの正確度は、開始スポット・サイズ、並びに、カメラ視野レンズに相対的な角度及び場所の複雑な関数である。
図5A〜5Eは、様々な実施例においての、スコープの端部からの測距の実例を例示する。実例スコープ500が、図5Aにおいて示される。一般的に、本明細書において説明される技法は、内視鏡検査、腹腔鏡検査、胸腔鏡検査、又は同類のものなどの医療用途のために使用される任意の形式のスコープに応用され得る。示されるように、スコープ500の端部は、任意の数の照明光搬送ファイバ及びレンズ502を含み得るものであり、それらのファイバ及びレンズ502を経て、NIR及び可視光が、イメージングされることになる被写体の表面の方に透過させられる。同じように、スコープ500の端部は、測距光を被写体の表面の方に伝える、任意の数の測距ファイバ及びレンズ510を含み得る。
加えて、スコープ500は、イメージングされる表面から光を受信し、捕捉された光をイメージング・システムのカメラに提供するように構成される、任意の数の画像搬送ファイバ及びレンズ504を含み得る。察知されることになるように、ファイバ及びレンズ502〜504及び510は、スコープ500の示される端部の表面に沿った任意の所望される場所に置かれ得るものであり、一部の実施例において、使用タイプ(例えば、NIR、可視光、その他)により分離され、又は、単一の光透過/収集部材512へと組み合わされ得る。スコープ500は、さらには、水、空気、又は、他の物質を、イメージングされる表面に提供するために、使用の間アクチュエートされ得る、ワーキング・チャネル506及び/又はノズル508(例えば、空気ノズル、水ノズル、その他)などの、様々な他の特徴部を含み得る。本明細書においての測距技法を活用することにより、生検、切除、洗浄、注入、その他などの処置が、ワーキング・チャネル506を経て、より高い安全係数を伴って遂行され得るものであり、なぜならば、組織に相対的なスコープの端部の絶対位置が、ユーザに利用可能であることになるからである。
様々な実施例において、スコープ500の示される端部と、イメージングされる表面の端部との間の距離は、光の、1つ又は複数の測距ビームを、測距光搬送ファイバ及び/又はレンズ510から、イメージングされる表面の方に放射することにより、上記の手法を使用して決定され得るものであり、一方で、照明光搬送ファイバ及び/又はレンズ502は、表面がイメージングの間認知され得るように、照明光を表面上へと放射する。代わって、画像搬送ファイバ及び/又はレンズ504が、捕捉された画像情報を、システムのNIR及び/又は可視光カメラに提供し得るものであり、その画像情報は、捕捉された画像のエッジに対する、表面上の測距スポットの場所を比較することにより、表面までの距離を決定するために分析され得る。一部の実施例において、照明光搬送ファイバ及びレンズ502は、測距ビームを表面上へと放射する測距光ファイバ及びレンズ510のものより、はるかに高いNAであり得る。様々な実施例において、示されるファイバの末端レンズが、さらには任意選択的であり得る。
察知されることになるように、本明細書においての技法は、さらには、使用中であり得る外科手術ナビゲーション機構を高めるために使用され得る。例えば、本明細書においての技法を使用して計算される、スコープ500の先端部から組織表面までの直線距離は、3つの次元においてのスコープ500の非常に精密な外科手術ナビゲーションを可能なものにするために、加速度計及び/又はジャイロスコープのデータなどの、他のセンサ・データと組み合わされ得る。注目すべきことに、多くのタイプの外科手術、とりわけ、最小侵襲性及びロボット外科手術において、器具の精密な場所は、最高に重要なものである。本出願において説明されるような測距は、内視鏡/腹腔鏡又は他のイメージング・デバイスの先端部、及び、関心の組織からの、直線距離の精密及び正確な測定を可能なものにする。この絶対直線距離測定値を、追加的なデータ・セットと組み合わせることにより、イメージング・デバイスを3次元空間内で場所決めすることが可能であるはずである。
外科手術ナビゲーションの実例として、現時ではMEMS技術を使用する小型集積回路として利用可能であるジャイロスコープが、ピッチ、ロール、及びアジマス角、すなわち、方位に対する回転ベクトルを提供することができる。加速度計が、さらには、3つの次元(x、y、及びz)においての直線加速度を提供することができる。一部の最近の製品は、事実において、ジャイロスコープ、加速度計を、及び、磁気計さえも、単一の小型集積回路へと組み合わせ、かくして、6又は9軸相対座標を提供する。もっとも、回転ベクトル及び直線加速度だけを組み合わせることにより(6軸)、対象物を3D空間内で相対的な見地において場所決めすることは可能である。しかしながら、絶対的な見地において位置を方位設定及びスケーリングするために、測距からの直線距離が要される。すなわち、絶対直線距離は、回転及び直線軸に対する較正係数を提供し、そのことによって、イメージング・デバイス及び/又は処置上の器具の、精密な3次元位置が、次いで導出され得る。測距距離を使用する、この絶対較正は、同様に、9軸相対座標データに応用され得る。
図5B〜5Cは、それぞれ、スコープ500の側部及び上部視図をより詳細に例示する。示されるように、「視野」(FOV:field of view)は、画像搬送ファイバ及びレンズ504により提供される被写体組織のカメラ視野を指すものとする。典型的には、このFOVは、捕捉された画像の水平及び垂直の両方の軸においての等しい数の画素を伴う、正方形である。さらには、「光学軸」は、カメラのFOVの中心軸を指すものとする。同様に、「測距軸」は、測距ファイバ及びレンズ510により提供される測距照明の中心軸を指すものとする。
その最も単純な形式において、本明細書において紹介される測距技法は、主対物レンズを有する標準スコープへの単一の光学ファイバの追加のみを要する。しかしながら、さらなる実施例において、第2の測距ファイバが、下記で詳述されるように、2つの独立した測距波長を用いるために追加され得る。
例示的な目的のために、1つ又は複数の測距ファイバ510は、直径bと、そのファイバのNAにより決定される、そのファイバのビームの発散とを有するということを想定する。同様に、カメラに対するレンズ504は、直径bを有するものとする。数学的には、対象物距離Xにわたる測距照明のスポット直径の変化の傾きは、傾きm=2*NAにより与えられる。同様に、画像搬送レンズ504に対する発散は、m=2*NAであり得る。ファイバ510は、スコープの主対物レンズ504から、距離z及び距離sだけ分離され、さらには、2つの軸において、光学軸に相対的に、示される角度イプシロン及びゼータだけ角度的にずらされる。下記で解説されるように、これらの角度ずれは、きわめて重要であり、なぜならば、イプシロンは、大きい対象物距離に対する感度を決定し、ゼータは、大きい距離においてのスポットの左/右位置を決定するからである。分離sは、X=0においてのスポットの位置を決定する。
図5D〜5Eは、測距の間のスコープ500の側部及び上部視図を例示する。より具体的には、図5D〜5Eは、カメラFOV514(すなわち、スコープ・レンズ504の光学軸)に相対的な、(例えば、ファイバ510からの)測距照明516により形成されるスポットの発散を例示する。重要なことには、角度イプシロンは、光学軸との測距軸の交差が個別の距離Iにおいて生起するように選択され得る。Iは、代わって、火器の照準とほぼ似たように、遠い距離に対する感度を決定する。
図6A〜6Eは、様々な実施例においての、測距スポットを使用して距離を決定することの実例を例示する。図5A〜5Eの実例を継続すると、分離距離z及びs、角度イプシロン及びゼータ、直径b及びb、並びに、傾き(すなわち、発散)m及びmの間の関係性は複雑である。特に、短い距離、言ってみれば0〜5センチメートル(cm)において、測距スポットの主な変化は、図6A〜6Bにおいて示されるように、直径bにおいてであることになる。より具体的には、測距照明が、カメラ視野600の中の測距スポット602を結果的に生じさせるということを想定する。図6Aにおいて示されるように、イメージング・システムは、対象物距離Xにあり、bの直径を有する測距スポット602を結果的に生じさせるということを想定する。しかしながら、図6Bにおいて示されるように、イメージング・システムが、Xのより遠い距離に移動させられるとき、ただしX<Iであるが、測距スポット602の直径は、bの直径まで増大する。
図6C〜6Dは、カメラ視野600の中の測距スポット602の移動の実例を例示する。注目すべきことに、分離z及びs、並びに、角度イプシロン及びゼータは、さらには、カメラ視野600の中の測距スポット602の同時的な水平及び垂直移動を強いる。より具体的には、対象物距離Xにおいて、ただしX=Iであるが、測距スポット602は、図6Cにおいて示されるように、bの直径を伴って、カメラ視野600の右上象限内に置かれ得る。しかしながら、図6Dにおいて、測距スポット602は、対象物距離X>>Iにおいて、bの直径を伴って、視野600の左下象限内に置かれ得る。イプシロンは、それゆえに、長い距離、言ってみれば5〜10cmにおいて最大限の変化を与えるように、慎重に選定されることになる。測距スポット602の対角線移動は、さらには、利用可能な画素の数が最大化されるように、単純な上/下移動より好ましい。対角線移動を役立てることにより、2の平方根=1.41倍のより多くの画素を稼ぐものであり、そのことは、測定においてのより高い精密度と解釈される。
数学的には、測距スポット602及びカメラ視野600のサイズは、様々な実施例において、後に続く代数式により説明され得る。
スポット・サイズ=m*X+b (式1)
ただし、図5B〜5Cにおいて示されるように、m=スポット発散の傾き=2*NAであり、b=測距照明に対するファイバ直径である。同様に、カメラFOVが、後に続くように算出され得る。
カメラFOV=m*X+b (式2)
ただし、m=レンズ発散の傾き=2*NAであり、b=対物レンズ直径である。
かくして、対象物距離Xの関数として非線形に変化する、カメラFOVに対する測距スポット・サイズの比率が、次式により与えられる。
上記の変数の一部は、高度に制約される。例えば、6mmODスコープにおいて、対物レンズの最も大きい可能なサイズは、概算で2.5mmであることになり、そのことは、b=0.25cmを与える。(概念的には、照明光のNAと等価な)視野の発散は、業界内で使用される大部分のスコープにおいて0.7であり、そのことは、m=1.4を与える。しかしながら、より低い発散が、さらには、所望されるならば使用され得る。
プロトタイピングが、最初に、カメラ・カプラを伴う、及び伴わない、3つの従来の10mm直径腹腔鏡を評価して、腹腔鏡の「典型的な」FOV発散(すなわち、NA)が≒0.7であるということを確認することにより、本明細書においての技法を検証するために遂行された。カメラ・カプラが適所にあったとき、各々のスコープは、フルにズーム・インされた様態から、フルにズーム・アウトされた様態までのレンジにまたがってテストされた。各々のスコープは、さらには、カメラが取り付けられることなく(例えば、アイピースを通して見ることにより)テストされた。下記の表1において示されるように、アイピースのみを使用することは、0.69〜0.71のNA値に対応する、1.38から1.42の傾きを結果的に生じさせ、そのことは、10mm腹腔鏡がNA0.7に対して設計されているという確信を確認するものである。カメラ・カプラの追加、及び、完全にズーム・インすることは、NAを、及びゆえに、集光を相当に低減するということに注目されたい。かくして、本明細書においての教示によってスコープを構築するとき、所望されるNAを選定することができることは、相当な利点である。
いくつかのサイズ制約が、さらには、測距スポット602のサイズに対して実在する。例えば、測距スポット602は、カメラFOV600より決して大きくなく、普通は、より小さくあるべきであり、そのことは、カメラFOV600に相対的な測距スポット602の傾き(すなわち、NA)に制限を課す。事実において、大きいXにおいて、最終的なスポット・サイズは、上記の実例において概算で40〜50%であるべきである、m/mにより与えられる。最終的には、測距スポット・サイズは、相対的には、対物レンズ直径の小さい割合であるように制約され、より小さい開始直径が、測距スポット602の直径が成長する、図6A〜6Bにおいて示される実例において、感度を増大する。
、m、b、m、s、z、イプシロン、及びゼータ・パラメータの選定は、各々の変数の影響が測定され得る、及び、最終的な選定が為され得るように、モデリングを要する。様々な実施例において、後に続くステップの任意のもの又はすべてが、これらの設計パラメータを決定するために使用され得る。
1.)対物レンズ直径bを、スコープ・サイズに基づいて選択する。bが大きいほど、大きい対象物距離においての測定の感度は大きい。
2.)対物レンズのFOV発散(NAと同種)を、ユーザ要件仕様に基づいて選択する。上記で述べたように、典型的な臨床スコープは、FOV発散(NA≒0.7)を有し、そのため、m=1.4が、その事例において選択されるべきである。NAは、臨床的に有用であることを必要とするが、小さいほど、対象物距離に対する感度の見地において良好である。
3.)測距スポット・サイズ傾きmを、FOVの所望される割合であるように選択する。上記の実例において、mは、mの≒40〜50%であるべきである。しかしながら、この選定は、対物レンズ直径の最終的な選定に依存するということに注目されたい。
4.)測距ファイバ直径bを、bに相対的に、可能な限り小さいように選択する。このことは、ファイバに進入する光の量を制限するが、そのことは、さらには、測距スポットの直径が変化するときの感度を増大する。
5.)分離距離zは、普通、物理的スコープ・サイズにより制約されるが、分離s、並びに、角度イプシロン及びゼータは、大きい対象物距離に対する感度を最大化するように選定され得る。
後に続くものは、どのようにスポット・サイズが1cmから10cmまでの対象物距離Xによって変化するかの実例である。その実例は、角度イプシロンを使用するスポットの垂直移動を考慮に入れないが、どのように敏速にスポット・サイズが収束するかをまさに示す。
スポット:m=0.5(NA=0.25)、b(ファイバ直径=初期スポット・サイズ)=0.01cm(100μm)
カメラ:m=1.25(NA=0.625)、b(対物レンズ直径)=0.25cm(2.5mm)
図6Eは、異なる対象物距離に対するスポット・サイズの計算に基づく、対象物レンジ対カメラ視野のスポット・サイズ・パーセンテージのプロット610を例示する。プロット610から、スポット直径を単独で使用することによるだけで、0〜4cmの間に高い感度及びダイナミック・レンジ(非線形ではあるが、ほぼ10倍)が存するが、4から10cmでは、スポット・サイズは、単独では、レンジを決定するのに十分でないことになるということが認知され得る。賢明な、スポットの開始サイズ、位置、及び成長の選定(すなわち、s、z、イプシロン、及びゼータの選択)により、スポット成長に対して存するのとほとんど同じくらい多い、対角線的に、スポットの移動に対して利用可能なカメラ視野内の画素が存することになり、かくして、そのことは、4から10cmの距離に対する、概算で10倍の感度を与える。注目に値することに、上記の実例において、最終的なスポット・サイズは、長距離測定を改善するためのスポットの相当な対角線移動が存し得るように、総合的なFOVの40%であるように選択された。
図7は、様々な実施例による、本明細書においてのイメージング技法を使用して、組織のブロックをイメージングすることの実例を例示する。上記で注目されたように、本明細書においての技法は、開放外科手術、内視鏡、又は腹腔鏡イメージングの事例においてなどで、イン・ビボ・イメージングに対して使用され得る。さらなる実施例において、本明細書においての技法は、さらには、ホスト有機体から切り取られた有機組織のエクス・ビボ・イメージングを遂行するために使用され得る。1つのそのような実例が、一般的にはイメージング・デバイス/システム702と、ミクロトーム704とを含む、示されるシステム700において例示される。
一般的に、ミクロトームは、収集された試料を、非常に微細なスライスへとスライスするために使用される、特殊化されたツールである。典型的には、このことは、1つ又は複数のブレードを使用して遂行される。しかしながら、一部のミクロトームは、さらには、試料に対する切断機構としてレーザを使用し得る。動作の間、試料及び/又は切断機構は、互いに相対的に移動して、試料の非常に薄いスライスを試料ブロックから除去し得る。例えば、示されるように、ミクロトームの中の組織ホルダ708に装着された有機組織の組織ブロック710を考察する。組織材料のスライスを組織ブロック710から取得するために、ブレード706が、組織ブロック710のブロック面712に実質的に平行である軸に沿って、組織ブロック710を通り抜けるように切断し得る。察知されることになるように、このことは、組織ホルダ708を静的な場所において保ち、ブレード706を、組織ブロック710を通り抜けるように移動させること、ブレード706を静的な場所において維持し、組織ホルダ708及び組織ブロック710を、ブレード706を横切って移動させること、又は、それらの組み合わせにより達成され得る。結果的に生じる組織スライスの幅は、黒面712の表面に相対的なブレード706の距離の関数であることになる。
一部の実施例において、ミクロトーム704は、さらには、クライオミクロトーム(小さい試料に対する)又はクライオマクロトーム(大きい試料に対する)として知られている、特殊化された形式のミクロトームであり得る。一括して、用語「クライオトーム」が、どちらのそのようなデバイスも指すことがある。クライオミクロトームは、典型的には、他のミクロトームの様式と同様の様式で(すなわち、試料材料のスライスを取得するために)動作するが、凍結された試料をスライスすることにおいての特定の使用に対して適応させられる。注目すべきことに、クライオトームの内方チャンバは、試料の凍結された状態を保つ一助となるように、周囲室内温度のものよりはるかに低い内方温度を保ち得る。典型的には、試料(例えば、組織ブロック710)は、最初に、最適切断温度(OCT:optimal cutting temperature)化合物の中で試料を浮遊させ凍結することにより準備される。
動作の間、イメージング・デバイス702は、本明細書においての技法によって、カメラ714を動作させて、組織ブロック710のブロック面712をイメージングし得る。注目すべきことに、イメージング・デバイス702は、組織ブロック710の可視及び近赤外蛍光の両方の画像を捕捉し、組み合わされた画像を、イメージング・デバイス702に結合される電子ディスプレイに出力するように構成され得る。例えば、イメージング・デバイス702に対する適しているシステムは、マサチューセッツ州マールボロのCuradel LLCから入手可能なLAB−FLARE(登録商標)(蛍光支援切除及び診査)イメージング・システムを含み得る。換言すれば、準備の間、組織ブロック710は、色素/フルオロフォアを、イン・ビボで静止している間に、又はエクス・ビボでのいずれかでインフュージョンされ得るものであり、そのことにより、イメージング・デバイス702が、組織ブロック710の中のコントラスト薬剤の蛍光画像を捕捉することを可能とする。例えば、クライオトームの事例において、組織ブロック710は、OCT化合物の中で凍結するより前に、その薬剤をインフュージョンされ得る。加熱ガラス窓が、結露がカメラによるイメージングに干渉することを防止するために使用され得る。
イメージング・デバイス702によるブロック面712のイメージングは、後に続くように繰り返し遂行され得る。最初に、組織ブロック710の一番上の層が、ブレード706を使用して除去され得る。次に、イメージング・デバイス702が、露出されたブロック面712のカラー及び蛍光/近赤外の両方の画像を捕捉するように動作させられ得る。一部の事例において、イメージング・デバイス702は、そのカラー・カメラ714と連関して作動する可視光源を含み得る。他の事例において、周囲室内ライティングが、光源として使用され得る。同様に、イメージング・デバイス702の赤外カメラ714が、イメージング・デバイス702の、1つ又は複数の赤外光源と連関して動作して、蛍光画像を捕捉し、組織ブロック710の中で浮遊させられた蛍光色素の詳細な画像を取得し得る。
代わって、イメージング・デバイス702のコントローラが、カラー画像及び蛍光画像を(例えば、オーバーレイ画像、その他として)組み合わせ、表示情報を電子ディスプレイに提供し得る。一部の実施例において、スライシング及びイメージングの異なる反復にまたがる捕捉された画像が、組織ブロック710の中の検出された蛍光色素の3次元(3−D:three dimensional)表現を形成するために組み合わされ得る。
さらなる実施例において、イメージング・デバイス702は、組織ブロック710の結果的に生じるスライスを、ブロック面712の画像のものに代えて、又は、それらの画像のものと組み合わせてイメージングするために使用され得る。例えば、イメージング・デバイス702は、組織ブロック710上のミクロトーム704の動作を通して取得される組織学的スライスの画像を捕捉するために、顕微鏡と連関して動作させられ得る。測距光が、さらには、さらなる実施例において、組織ブロック710、ブレード706、又は組織ホルダ708上にあり得る。ブレード706が定置であるならば、最も大変な危険は、組織ホルダ708が、そのブレード706と接触するようになるときであり、そのため、レンジは、この時間において監視されるべきである。ブレード706が移動しているならば、その危険は、そのブレード706がレンジ・ファインダにより監視されるべきであるときである。
ブロック面イメージングの目的のために本明細書においての技法を実現するために、イメージング・システム/デバイス702は、測距光716を、ブロック面712の表面、及び/又は、組織ホルダ708の表面上へと放射して、1つ又は複数の測距スポット714を生み出し得る。スポット714が多いほど、測距は正確であり、そのことは、イメージングされている複数個の「レベル」が存在するとき、特に有用であるということに注目されたい。同じように、イメージング・デバイス702は、照明光716をブロック面712上へと放射して、イメージングされているブロック面712のフルの部分を照明し得る。代わって、イメージング・デバイス702のコントローラが、ブロック面712からの捕捉された画像データを査定して、スポット714と、捕捉された画像のエッジとの間の距離を決定し、この距離を、イメージング・デバイス702の端部と、ブロック面712との間の距離へと転換し得る。典型的には、イン・ビボ・イメージング(例えば、内視鏡、腹腔鏡、開放外科手術、その他)の事例において相当に有益であるが、本明細書においての技法は、さらには、エクス・ビボ・システムにおいてもまた、ある程度有用であり得る。注目すべきことに、所定の距離においての照明の高強度は、一部の事例において、望ましくないと考えられる、組織ブロック内のある程度の温度差が存することを引き起こし得る。そして、ブレードに対する回復不能な損傷が、ブレード706から組織ホルダ708までの距離を知り、衝突を回避することにより防止され得る。
様々なカメラ構成、及び、動作のモードが、さらには査定された。特に、本明細書においての技法を使用する測距能力が、2センサ・イメージャに(例えば、可視及びNIR)、及び、3センサ・イメージャに(例えば、可視、NIR1、NIR2)拡張され、多くの異なるモードに関して利用された。一般的に、単一の測距スポット波長が、2センサ・イメージャに対して要され、2つの異なる測距スポット波長が、3センサ・イメージャに対して要される。後者は、測距モードにおいてどちらのNIRチャネルのリアル・タイム動作も可能なものにする。測距がカメラのNIRチャネルの最大数に加えて使用されるとき、フレーム・レートの減退が不可避であるが、それは、下記の表2において示されるように、相対的に小さい。
蛍光イメージング構成要素が、作業の大部分を行い、画像処理が、対象物距離測定値を導出するために使用されることになるので、蛍光イメージング・スコープに測距能力を装備させるために必要とされる、3つのみのものは、測距光源、測距照明光がそのスコープの所望されるカメラ・チャネルの中にとどまるということを確実にするためのフィルタ、及び、測距光送達ファイバであり得る。
測距光生成のための2つの選択肢、レーザ・ダイオード及びLEDが存する。スコープ・ベースのイメージャの総体的な複雑度を低減するために、測距光源は、そのイメージャの関連付けられるカートの内側よりむしろ、スコープ・ハンドルの内側に装着され得る。3.8mm直径レーザ・ダイオード又は3〜3.5mm四方LEDの両方が、良好にフィットすることになるが、LEDが、それらの低いコスト、及び、駆動の容易さのために好ましい。プロトタイピングの間、後に続くLEDが、下記の表3において示されるように、パワー、波長、及びサイズの見地において、測距に適していることが見出だされた。

しかしながら、≒50μmのダイ・サイズ、及び、5.6mm直径の総体的なサイズを有する、LDXからのレーザ・ダイオードが、さらには、本明細書においての技法を実現する能力があることが見出だされた。
2センサ・イメージャ・プロトタイプに対して、810nmの測距波長が選択されたものであり、なぜならば、その測距波長は、人間の目により不十分に認知され、外科手術イメージングの質に影響を及ぼさないことになるからであるということに注目されたい。700nm測距スポットがテストされたときでさえ、可能な限り遠赤のLED波長が、やはり、人間の目によるスポットの知覚を制限するために選択された。
当然ながら、LEDの高発散角、及び、非常に小さい(≒0.1mm直径)測距ファイバを考え合わせると、総合的な光学パワーの非常に小さい割合のみが透過させられる。レーザ・ダイオードは、集束レンズを伴わなくとも、光をファイバ内へと送り出すことにおいて、間違いなく、より効率的であることになるが、コストは相当なものである。
測距光源とファイバとの間のフィルタは、帯域外光を除去するために不可欠である。例えば、大部分のLED及びレーザ・ダイオードは、レッド・テール(red tail)を有し、そのため、730nm源が使用されるとき、テールが、容易に、800nmチャネルの放射(カメラ)帯域内へと伸び得る。このことを防止するために、小さい(典型的には、3±0.1mm四方×1±0.1mm厚さ)干渉フィルタが、光源とファイバとの間に配置された。フィルタは、カメラ放射フィルタと同一であるように選定されたものであり、そのことは、可能な限り多くの光を捕捉し、一方で、1つのチャネルからの測距光が他のものへと漏れることになる可能性を消失させるために、広範なレンジを提供する。下記の表4において列挙されるフィルタが、テスティングの間に適していることが見出だされた。
ファイバに対する2つの選択肢は、単芯石英又はガラス・ファイバ(芯/クラッド/任意選択的プラスチック・コーティング)又はファイバ束である。ガラス・ファイバは、0.25NAから0.66NAまでの種々のNAにおいて、及び、30μmから500μmまでのコードの多種多様の直径において、たやすく入手可能である。30μm又は50μmの特別注文ガラス・ファイバが、NA0.12及び0.87において入手可能である。溶融シリカ(石英)ファイバが、Fiberguide Industries(商標)から、0.12、0.22、及び0.26NAにおいて入手可能であり、それらのファイバは、さらには、オートクレーブ適合性(autoclave−compatible)ポリイミドを含む様々なコーティングを有する。ガラス・ファイバは、特に、きわめてコスト効果的であることになり、なぜならば、それらは、次いで単一ファイバとして使用される一団として研削及び研磨され得るからである。それらのガラス・ファイバの唯一の欠点は、それらがプラスチック・コーティングを伴ってたやすく入手可能ではないということであるが、このことは、必要とされるべきではない。しかしながら、ファイバの束の使用は、上記のモデリングにおいてのbの小さいサイズ、及び、より小さいスコープにおいての空間の不足のために、一般的には、大部分の事例(ただし、すべてではない)において回避されるべきであるということが見出だされた。小さいファイバ、及びとりわけ、低NAを伴う小さいファイバに対する主な弱点は、源からの光収集が、きわめて制限されるということである。
実例として、0.7NAと等価なFOV発散が対物レンズに対して選択され、40%の最終的なスポット・サイズが所望されるならば、測距ファイバのNAは、0.40*0.7=0.28であるべきである。0.25の従来のガラス・ファイバを使用するために、スコープNAは、0.625に低減され得るものであり、適正な比率を達成することができる。
相当な量の時間が、測距LEDに対する駆動及び結合システムを考案するためのプロトタイピングの間に充てられた。1つのプロトタイプにおいて、非常に小さいLEDプリント回路板(PCB:printed circuit board)が、LEDが90°にありスコープの筒に面しているように、主スコープPCBに垂直にはんだ付けされた。次いで、各々のLEDに対して、ハウジングが付加され、そのハウジング内へと、フィルタが、特注の黒UVキュアによってエポキシで接着された(epoxied)。好ましくは、ハウジングそれ自体が、ファイバに進入しないすべての光を吸収するために、黒であることになるが、オートクレービング(蒸気減菌)との適合性がある、及び、製造するのが容易であることを必要とする。テスティングの間に評価される材料の見地において、PEEKプラスチックが、上記の判定基準のすべてを満たし、好都合な6.35mm(1/4インチ)直径黒ロッド出発材料(例えば、McMaster 7707T11)として入手可能である。
図8A〜8Bは、それぞれ、730nmLEDに対するハウジング800の実例後部及び側部/断面視図を例示する。同様に、図8C〜8Dは、それぞれ、810nmLEDに対するハウジング806の実例後部及び側部/断面視図を例示する。プロトタイピングの間、単純な平坦部(例えば、平坦部802及び806)が、ハウジング800及び804の側部に付加されたものであり、2つの異なるLEDホルダが一体でより接近して配置されることを可能とする。加えて、底が平坦なLEDハウジングが、さらには、それが、主PCBと同じ高さにされ、適所での急速な紫外(UV:ultraviolet)キュアリングを可能なものにすることを可能とする。最終的に、特注の黒UVキュアリング・エポキシが開発されたものであり、そのエポキシは、PEEKと同類の材料、及びPCBを良好に接合し、一方で、そのエポキシが光パイプになることを防止する。1つが730nmLEDに対する、及び、1つが810nmLEDに対する、2つの異なるハウジング800及び804は、ファイバとLEDとの間の(フィルタを中間に伴う)距離を最小化するために、目的をもって開発されたものであり、一方で、さらには、必要とされるように、1つのLED、又は両方の格納を可能なものにし、両方は、並んで良好にフィットする。
図8E〜8Fは、主スコープPCBに装着される最終的なLED測距アセンブリの実例を例示する。より具体的には、図8Eは、2センサ・カメラとともに使用するための測距LEDアセンブリ810を例示し、しかるに、図8Fは、3センサ・カメラとともに使用するための測距LEDアセンブリ820を例示する。図8Eにおいて示されるように、単一の810nmLED816に対するPCB818aが、主スコープPCB818bに対して垂直に装着され、LEDハウジング804の中に収容され得る。測距照明ファイバ812が、フィルタ814によりLED816から分離されて、ハウジング804を通って延在し得る。
図8Fは、3センサ・イメージャとともに使用するための測距LEDアセンブリ820の上部視図を例示する。上記で注目されたように、3センサ・イメージャは、可視光画像、及び、2つの異なる波長(例えば、730nm及び810nm)においてのNIR画像を捕捉し得る。そのような事例において、アセンブリ810は、2つのNIR LED816(例えば、810nm)及び824(例えば、730nm)を支持するアセンブリ820を形成するために修正され得る。示されるように、LED816及び824は、主PCB818b上に垂直に装着される、LED PCB818a上に並んで装着され得る。それらのLEDのそれぞれのハウジング804及び800の平坦部のおかげで、LED816及び824は、さらには、互いの近傍に接近して配置され得る。LED816と同様に、LED824は、ハウジング800の中に置かれ得るものであり、そのハウジング800を通って、ファイバ822が延在する。フィルタ826が、さらには、ハウジング800の中に置かれ得るものであり、そのことにより、LED824をファイバ822から分離する。
ファイバ812及び/又は822をスコープの中で装着するために、CMOSセンサ、フィルタ、対物レンズ、及びRFファイバを維持するフレームは、とりわけ、z、s、イプシロン、及びゼータのパラメータ値に対する測距サブ・システムの感度を考え合わせると、高い精密度を伴って製造されなければならない。微小電気機械システム(MEMS:microelectromechanical system)技術が、このことに対して理想的であることになるが、現在は、0.5〜1mmより下のZ高さに対して良好に作動するのみである。しかしながら、MEMS技術が進歩するにつれて、これは、好まれる製造手法になり得る。別の実施例において、フレームは、MEMSにより層の形で製造され、次いで取り付けられ得る。代替的に、さらに別の実施例において、フレームは、レーザ微細加工を使用して構築され得る。
選定される最終的な製造プロセスに関わらず、測距能力を伴う各々の個々のスコープは、較正されることを必要とし得る。このプロセスは、すべての所望される対象物距離Xにおいて、スポット・サイズ、形状、質、及び、FOVの中の場所の、レンジ全体を測定することを必然として伴い得る。さらなる実施例において、この較正は、さらには、リニア・ステージ、及び、オンボード・メモリ(例えば、EEPROM)内に保持される、結果的に生じる値を使用して自動化され得る。
本明細書においての技法は、主として、測距を遂行することの目的のためにNIRスポットを使用することに関して説明されているが、他の波長が、さらなる実施例において使用され得る。注目すべきことに、測距波長が、カメラの視野をイメージングするために使用される照明の波長(例えば、可視又はNIR)と競合しない限りにおいて、他の測距波長がさらには使用され得る。例えば、紫外(UV)又は赤外(IR)光などの非可視光が、さらには、さらなる実施例において、イメージングを受ける被写体上へと測距スポットを投射するのに適していることがある。
図9は、本明細書において説明される1つ又は複数の実施例による、イメージング・システムにおいて測距を遂行するための、実例の単純化された手順900を例示する。例えば、非汎用的な、具体的に構成されるイメージング・システムが、記憶される命令(例えば、プロセス248)を実行して、本明細書においての測距技法を実現することにより、手順900を遂行し得る。手順900は、ステップ905において開始し得るものであり、ステップ910へと続き得るものであり、そのステップ910において、上記でより詳細に説明されたように、イメージング・システムは、イメージング・システムのカメラの視野の中で、近赤外(NIR)光の1つ又は複数のスポットを組織の表面に照明し得る。
ステップ915において、上記で詳述されたように、イメージング・システムは、イメージング・システムのカメラの視野の中で、NIR光の1つ又は複数のスポットの画像を捕捉し得る。察知されることになるように、より高い数のスポットが、とりわけ、イメージングされている組織の不均一な形態の事例において、より大である測距精密度を可能なものとし得る。しかしながら、本明細書においての技法は、さらには、単一の測距スポットのみによって作動することが見出だされている。
ステップ920において、イメージング・システムは、上記でより詳細に説明されたように、捕捉された画像においてのNIR光の1つ又は複数のスポットの各々に対して、捕捉された画像においてのスポット直径、スポット位置、及び/又はスポット形状を算出し得る。上記で注目されたように、スポット直径は、単独では、レンジが0〜4cmの間であるとき、レンジのルックアップを遂行するのに適していることが示されている。しかしながら、より遠い距離において、スポットの位置(例えば、垂直移動)が、さらには、イメージング・システムと、イメージングされている組織又は他の対象物の表面との間の距離を明察するために考慮に入れられ得る。画素の正確な数がカメラ視野に対して知られている事例において、スポット直径及び位置は、一部の実施例において、これらの画素の見地において表され得る。
ステップ925において、上記で詳述されたように、イメージング・システムは、捕捉された画像においてのNIR光の1つ又は複数のスポットの、算出されたスポット直径、スポット位置、及び/又はスポット形状に基づいて、イメージング・システムと組織の表面との間の距離を決定し得る。様々な実施例において、配備より前のイメージング・システムの較正が、較正ルックアップ・テーブルを事前設定するために遂行され得るものであり、そのテーブルを、イメージング・システムが、次いで使用して、上記で強調された技法を使用してイメージングされている対象物に対するレンジをルックアップすることができる。スポット形状が、さらには、一部の実施例において、イメージング・システムと組織の表面との間の距離を決定することの目的のために使用され得る。注目すべきことに、測距スポットの形状は、組織の表面の不均一な形態を指示し得るものであり、そのことが、次いで、組織の最も接近している一部分までの距離を推定するために使用され得る。イメージング・システムは、(例えば、測距スポットをユーザに対する表示からマスクすることにより)蛍光イメージングと連関して、又は、(例えば、蛍光イメージングと測距とを交互に行うことにより)交互の様式で、測距を遂行し得るということに注目されたい。さらなる実施例において、スポット分析に代えて、又は、スポット分析に加えてのいずれかで、捕捉された光強度に基づいて距離を決定することが、さらには可能であり得る。注目すべきことに、強度のみの査定が、イメージングされている表面上の吸収及び/又は散乱効果に起因して、測距の目的のためには信頼性が低いことになるときでさえ、この情報は、それでもなお、測距正確度を改善することの目的のために使用され得る。
ステップ930において、イメージング・システムは、上記でより詳細に説明されたように、イメージング・システムと、組織の表面との間の決定された距離を指示するデータを、電子ディスプレイに提供し得る。一部の事例において、決定された距離は、さらには、決定された距離を、加速度計、ジャイロスコープ、又は同類のものからのデータと組み合わせることによってなどで、外科手術ナビゲーションに対して活用され得る。手順900は、次いで、ステップ935において終了する。
手順900の中の所定のステップは、上記で説明されたように任意選択的であり得るが、図9において示されるステップは、ただ単に例示のための実例であり、所定の他のステップが、所望されるように、含まれる、又は除外されることがあるということが注目されるべきである。さらに、ステップの個別の順序が示されるが、この順序付けは、ただ単に例示的なものであり、ステップの任意の適している配置構成が、本明細書においての実施例の範囲から逸脱することなく利用され得る。
上記の機能性は、ただ単に例示的なものであるということ、並びに、他の色素、イメージング・ハードウェア、及び光学部品が、本明細書において説明されるイメージング・システムとともに有用に配備され得るということが察知されるであろう。例えば、内視鏡ツールは、体腔の中の診断写真撮影のために静止画像イメージング・システムを用い得る。又は、イメージング・システムの任意のものは、遠赤スペクトルにおいての励起及び/若しくは放射波長によって、上記で説明されたように使用され得る。当業者に明確であることになる軽度の適応によって、システムは、同じ時間において2つ以上の機能(すなわち、腫瘍及び血液流れ)をイメージングするように構成され得るものであり、その時間において、可視光画像が、各々の機能を、異なる放射波長を有する異なる色素と関連付けることにより捕捉される。非医療用途が、イメージング・システムに対して実在する。例えば、溶液形式での色素が、酸化、表面欠陥、又は同類のものを識別するために、機械的構成要素上に噴霧され得る。色素は、さらには、加圧系を通る気体、蒸気、又は空気流れを追跡するために、並びに特に、継手及び弁の周りの漏れを識別するために使用され得る。本明細書において論考される主題の、これら及び他の配置構成及び適応は、本発明の範囲の中に収まることが意図される。よって、本明細書においての技法は、光学イメージング・システムと、イメージングされている被写体の表面との間の距離を決定又は概算する測距機構を提供する。一部の態様において、技法は、イメージング・システムにおいての測距スポットの使用を可能なものとし、それらの測距スポットは、それらの測距スポットの個別の波長を測定するために使用されるイメージング・ウィンドウを隠すことによって、又は、光学イメージング・デバイスによるイメージングと測距とを絶えず交互に行い、ただし単にイメージング情報を表示することによってのいずれかで、ユーザに不可視であるものである。そのように行うことにおいて、このことは、イメージング「ワークフロー」が測距機能により中断されない状況を創出する。
察知されることになるように、上記の実例は、単に、本明細書においての技法の所定の態様の理解に対して意図されるものであり、本質的には制限的でない。技法は、主として、個別のデバイス又はシステムに関して説明されているが、開示されるプロセスは、さらなる実現例によって他のデバイスにより実行され得る。例えば、本明細書においての技法は、主として、医療及び研究イメージングに関して説明されているが、本明細書においての技法は、そのようなものとして制限されず、他の産業においての使用に対してもまた適応させられ得る。さらに、本明細書においての技法は、特に、NIR蛍光イメージング・システムの文脈において説明されているが、本明細書においての測距技法は、そのようなものとして制限されず、任意の数の異なるタイプの光学イメージング・システムの中で応用され得る。
上述の説明は、特定の実施例に向けられたものである。しかしながら、他の変形及び修正が、説明された実施例に対して、それらの実施例の利点の一部又はすべての獲得を伴って為され得るということは明らかであろう。用例として、本明細書において説明された構成要素及び/又は要素は、コンピュータ、ハードウェア、ファームウェア、又は、それらの組み合わせ上で実行するプログラム命令を有する、有形(非一時的)コンピュータ可読媒体(例えば、ディスク/CD/RAM/EEPROM/その他)上に記憶されているソフトウェアとして実現され得るということが、明示的に思索される。よって、本説明は、単に実例として解されるためのものであり、他の形で、本明細書においての実施例の範囲を制限するためのものではない。それゆえに、本明細書においての実施例の真の趣旨及び範囲の中にあるような、すべての変形及び修正を網羅することが、添付される特許請求の範囲の目途である。

Claims (20)

  1. イメージング・システムにより、前記イメージング・システムのカメラの視野の中で、近赤外(NIR)光の1つ又は複数のスポットを組織の表面に照明するステップと、
    前記イメージング・システムにより、前記イメージング・システムの前記カメラの前記視野の中で、NIR光の前記1つ又は複数のスポットの画像を捕捉するステップと、
    前記イメージング・システムにより、及び、前記捕捉された画像においてのNIR光の前記1つ又は複数のスポットの各々に対して、前記捕捉された画像においてのスポット直径、スポット位置、又はスポット形状を算出するステップと、
    前記イメージング・システムにより、前記捕捉された画像においてのNIR光の前記1つ又は複数のスポットの、前記算出されたスポット直径、スポット位置、又はスポット形状に基づいて、前記イメージング・システムと組織の前記表面との間の距離を決定するステップと、
    前記イメージング・システムにより、前記イメージング・システムと組織の前記表面との間の前記決定された距離を指示するデータを、電子ディスプレイに提供するステップと
    を含む方法。
  2. 前記イメージング・システムと組織の前記表面との間の前記距離を算出するステップは、
    前記捕捉された画像においてのNIR光の前記1つ又は複数のスポットの、前記算出されたスポット直径、スポット位置、又はスポット形状を使用して、前記イメージング・システムの較正ルックアップ・テーブルから、前記イメージング・システムと組織の前記表面との間の前記距離のルックアップを遂行するステップ
    を含む、請求項1に記載の方法。
  3. 前記イメージング・システムのカメラの視野の中で、NIR光の1つ又は複数のスポットを組織の前記表面に照明するステップは、
    前記カメラの前記視野の中で、NIR光の、2つ以上のスポットを、組織の前記表面に照明するステップ
    を含む、請求項1に記載の方法。
  4. 前記イメージング・システムのカメラの視野の中で、NIR光の1つ又は複数のスポットを組織の前記表面に照明するステップは、
    前記イメージング・システムの光学ファイバを経て、NIR光の前記1つ又は複数のスポットのうちの特定の1つを組織の前記表面に照明するステップ
    を含む、請求項1に記載の方法。
  5. 前記イメージング・システムは、内視鏡又は腹腔鏡を備え、前記内視鏡又は腹腔鏡を通って、前記光学ファイバが延在し、前記イメージング・システムと組織の前記表面との間の前記距離は、前記内視鏡又は腹腔鏡の先端部と、前記組織の前記表面との間の距離である、請求項4に記載の方法。
  6. 前記内視鏡又は腹腔鏡のワーキング・チャネルを経て、前記イメージング・システムと、前記組織の前記表面との間の前記決定された距離を使用して、生検、切除、洗浄、又は注入のうちの1つを含む、前記組織に対する処置を遂行するステップ
    をさらに含む、請求項5に記載の方法。
  7. 前記イメージング・デバイスにより、前記組織の可視光画像及びNIR画像を捕捉することにより、前記組織の蛍光イメージングを遂行するステップと、
    前記イメージング・デバイスにより、前記組織の前記可視光画像と前記NIR画像を組み合わせる画像を、前記電子ディスプレイに提供するステップと
    をさらに含む、請求項1に記載の方法。
  8. 前記イメージング・デバイスにより、前記蛍光イメージングの遂行と、前記イメージング・システムの前記カメラの前記視野の中でのNIR光の前記1つ又は複数のスポットの画像の捕捉するステップとを交互に行うステップ
    をさらに含む、請求項7に記載の方法。
  9. 前記イメージング・システムにより、前記イメージング・システムと組織の前記表面との間の前記決定された距離を加速度計又はジャイロスコープ・データとともに使用して、3次元外科手術ナビゲーションを遂行するステップ
    をさらに含む、請求項1に記載の方法。
  10. イメージング・システムであって、
    近赤外(NIR)光源と、
    可視光カメラと、
    NIRカメラと、
    前記NIR光源と可視光カメラとNIRカメラとに結合されるコントローラであって、プロセスを実行するように構成されるプロセッサと、前記プロセスを記憶するように構成されるメモリとを備え、前記プロセスは、実行されるとき、
    前記NIR光源を使用して、前記可視光カメラの視野の中で、NIR光の1つ又は複数のスポットを組織の表面に照明することと、
    前記NIRカメラを使用して、前記可視光カメラの前記視野の中で、NIR光の前記1つ又は複数のスポットの画像を捕捉することと、
    前記捕捉された画像においてのNIR光の前記1つ又は複数のスポットの各々に対して、前記捕捉された画像においてのスポット直径、スポット位置、又はスポット形状を算出することと、
    前記捕捉された画像においてのNIR光の前記1つ又は複数のスポットの、前記算出されたスポット直径、スポット位置、又はスポット形状に基づいて、前記イメージング・システムと組織の前記表面との間の距離を決定することと、
    前記イメージング・システムと組織の前記表面との間の前記決定された距離を指示するデータを、電子ディスプレイに提供することと
    を行うように構成される、コントローラと
    を備える、イメージング・システム。
  11. 前記イメージング・システムは、前記イメージング・システムと組織の前記表面との間の前記距離を算出することを、
    前記捕捉された画像においてのNIR光の前記1つ又は複数のスポットの、前記算出されたスポット直径、スポット位置、又はスポット形状を使用して、前記コントローラの前記メモリ内の較正ルックアップ・テーブルから、前記イメージング・システムと組織の前記表面との間の前記距離のルックアップを遂行すること
    により行う、請求項10に記載のイメージング・システム。
  12. 前記イメージング・システムは、2つ以上のNIR光源を備え、前記イメージング・システムは、前記可視光カメラの前記視野の中で、NIR光の1つ又は複数のスポットを組織の前記表面に照明することを、
    前記可視光カメラの前記視野の中で、NIR光の、2つ以上のスポットを、組織の前記表面に照明すること
    により行う、請求項10に記載のイメージング・システム。
  13. 前記イメージング・システムは、光学ファイバをさらに備え、前記イメージング・システムは、NIR光の1つ又は複数のスポットを組織の前記表面に照明することを、
    前記光学ファイバを経て、NIR光の前記1つ又は複数のスポットのうちの特定の1つを組織の前記表面に照明すること
    により行う、請求項10に記載のイメージング・システム。
  14. 前記光学ファイバは、前記カメラの前記視野とは異なる、開口数、直径、位置、又は角度を有する、請求項13に記載のイメージング・システム。
  15. 前記イメージング・システムは、内視鏡又は腹腔鏡を備え、前記内視鏡又は腹腔鏡を通って、前記光学ファイバが延在し、前記イメージング・システムと組織の前記表面との間の前記距離は、前記内視鏡又は腹腔鏡の先端部と、前記組織の前記表面との間の距離である、請求項13に記載のイメージング・システム。
  16. 前記プロセスは、実行されるとき、
    前記可視光カメラを経て可視光を、及び、前記NIRカメラを経て前記組織のNIR画像を捕捉することにより、前記組織の蛍光イメージングを遂行することと、
    前記組織の前記可視光画像と前記NIR画像を組み合わせる画像を、前記電子ディスプレイに提供することと
    を行うようにさらに構成される、請求項10に記載のイメージング・システム。
  17. 前記プロセスは、実行されるとき、
    前記蛍光イメージングの遂行と、前記可視光カメラの前記視野の中でのNIR光の前記1つ又は複数のスポットの画像の捕捉することとを交互に行う
    ようにさらに構成される、請求項16に記載のイメージング・システム。
  18. 前記プロセスは、実行されるとき、
    前記イメージング・システムと組織の前記表面との間の前記決定された距離を加速度計又はジャイロスコープ・データとともに使用して、3次元外科手術ナビゲーションを遂行する
    ようにさらに構成される、請求項10に記載のイメージング・システム。
  19. 組織のブロックを保持するように構成される組織ホルダと、
    組織の前記保持されるブロックを横切って移動して、組織の前記ブロックから組織試料のスライスを生み出すように構成されるブレードと、
    イメージング・システムであって、
    組織の前記ブロックに関して蛍光イメージングを遂行することと、
    組織の前記ブロック、前記組織ホルダ、又は前記ブレードのうちの少なくとも1つに関して測距を遂行することと
    を行うように構成される、イメージング・システムと
    を備えるミクロトーム。
  20. 前記イメージング・システムは、近赤外(NIR)照明を使用して前記測距を遂行する、請求項19に記載のミクロトーム。
JP2019559091A 2017-04-27 2018-04-27 光学イメージングにおいての測距 Pending JP2020518349A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762490924P 2017-04-27 2017-04-27
US62/490,924 2017-04-27
PCT/US2018/029736 WO2018200923A1 (en) 2017-04-27 2018-04-27 Range-finding in optical imaging

Publications (1)

Publication Number Publication Date
JP2020518349A true JP2020518349A (ja) 2020-06-25

Family

ID=63915796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019559091A Pending JP2020518349A (ja) 2017-04-27 2018-04-27 光学イメージングにおいての測距

Country Status (5)

Country Link
US (1) US10986999B2 (ja)
EP (1) EP3614902A4 (ja)
JP (1) JP2020518349A (ja)
CA (1) CA3061329A1 (ja)
WO (1) WO2018200923A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254822B1 (ko) * 2020-12-22 2021-05-24 한국기초과학지원연구원 3차원 이미징용 울트라 마이크로톰

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111482A1 (ja) * 2017-12-06 2019-06-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置、および制御方法
US20200015924A1 (en) 2018-07-16 2020-01-16 Ethicon Llc Robotic light projection tools
CN109363768A (zh) * 2018-10-10 2019-02-22 南京诺源医疗器械有限公司 785nm波长光源近红外荧光造影手术引导系统
US20210404917A1 (en) * 2018-11-15 2021-12-30 University Of Houston System Milling with ultraviolet excitation
WO2020148725A1 (en) * 2019-01-17 2020-07-23 Sbi Alapharma Canada, Inc. Modular endoscopic system for visualization of disease
JP2020201206A (ja) * 2019-06-13 2020-12-17 株式会社日立製作所 組織包埋切片作製方法、および組織包埋切片作製装置
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US11219501B2 (en) 2019-12-30 2022-01-11 Cilag Gmbh International Visualization systems using structured light
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11648060B2 (en) 2019-12-30 2023-05-16 Cilag Gmbh International Surgical system for overlaying surgical instrument data onto a virtual three dimensional construct of an organ
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
WO2021172256A1 (ja) * 2020-02-27 2021-09-02 ファナック株式会社 3次元撮影装置および撮影条件調整方法
FR3113515A1 (fr) 2020-08-24 2022-02-25 Maquet Sas Dispositif d'éclairage opératoire
US11497927B2 (en) 2020-09-08 2022-11-15 Designs For Vision, Inc. Devices utilizing fluorescent enhancement theragnosis technology
US11415517B1 (en) * 2021-03-10 2022-08-16 Karl Storz Imaging, Inc. Unwanted near-infrared signal suppression
CN114052911B (zh) * 2021-12-01 2024-03-01 辽宁北镜医疗科技有限公司 一种近红外荧光术中导航系统、方法及可存储介质
CN114052909A (zh) * 2021-12-01 2022-02-18 辽宁北镜医疗科技有限公司 一种多功能近红外荧光术中导航系统及导航方法
DE102022205524A1 (de) 2022-05-31 2023-11-30 Carl Zeiss Microscopy Gmbh Abstandsmessvorrichtung und Verfahren zur Ermittlung einer räumlichen Ausrichtung eines Probenträgers in der Mikroskopie

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5040116A (en) 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US6494845B2 (en) * 2001-05-04 2002-12-17 Oralscan Laboratories, Inc. Retractable brush for use with endoscope for brush biopsy
WO2002102242A1 (en) * 2001-06-15 2002-12-27 Sumitomo Osaka Cement Co., Ltd. Monitoring apparatus
JP2005512686A (ja) * 2001-11-09 2005-05-12 カーディオ−オプティクス, インコーポレイテッド 前方画像化手段を備える冠状静脈洞アクセスカテーテル
AU2003237922A1 (en) 2002-06-13 2003-12-31 Moller-Wedel Gmbh Method and instrument for surgical navigation
WO2005098476A1 (en) 2004-03-29 2005-10-20 Evolution Robotics, Inc. Method and apparatus for position estimation using reflected light sources
CA2692368C (en) * 2006-07-03 2016-09-20 Beth Israel Deaconess Medical Center Multi-channel medical imaging systems
US7892165B2 (en) 2006-10-23 2011-02-22 Hoya Corporation Camera calibration for endoscope navigation system
US20110102763A1 (en) * 2009-10-30 2011-05-05 Microvision, Inc. Three Dimensional Imaging Device, System and Method
WO2011063266A2 (en) 2009-11-19 2011-05-26 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
JP2012157383A (ja) 2011-01-28 2012-08-23 Olympus Corp 内視鏡装置
DE102011119608B4 (de) * 2011-11-29 2021-07-29 Karl Storz Se & Co. Kg Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
FR2985023B1 (fr) * 2011-12-23 2016-05-06 Commissariat Energie Atomique Systeme de reconstruction de proprietes optiques d'un milieu diffusant, comprenant une source de rayonnement pulsee et au moins deux detecteurs de deux types differents, et procede de reconstruction associe
WO2014067000A1 (en) 2012-10-29 2014-05-08 7D Surgical Inc. Integrated illumination and optical surface topology detection system and methods of use thereof
KR101514204B1 (ko) * 2013-07-12 2015-04-23 한국전기연구원 감시림프절의 근적외선 형광 검출 장치 및 방법
WO2016145366A1 (en) * 2015-03-11 2016-09-15 Timothy Ragan System and methods for serial staining and imaging
CN106214256A (zh) 2016-09-21 2016-12-14 华南理工大学 一种无标记点光学手术导航系统及其导航方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254822B1 (ko) * 2020-12-22 2021-05-24 한국기초과학지원연구원 3차원 이미징용 울트라 마이크로톰
WO2022139235A1 (ko) * 2020-12-22 2022-06-30 한국기초과학지원연구원 3차원 이미징용 울트라 마이크로톰

Also Published As

Publication number Publication date
US20180310829A1 (en) 2018-11-01
EP3614902A1 (en) 2020-03-04
WO2018200923A1 (en) 2018-11-01
CA3061329A1 (en) 2018-11-01
EP3614902A4 (en) 2020-12-09
US10986999B2 (en) 2021-04-27

Similar Documents

Publication Publication Date Title
US10986999B2 (en) Range-finding in optical imaging
US11852461B2 (en) Generation of one or more edges of luminosity to form three-dimensional models of objects
CN114599263A (zh) 用于医疗成像的系统和方法
CN106574831B (zh) 观察系统
JP2017513664A (ja) 組織酸素化のマッピングのための装置、システム、および方法
CA2906056A1 (en) Medical imaging device and methods of use
CA2789051A1 (en) Method and device for multi-spectral photonic imaging
LU500127B1 (en) Enhanced augmented reality headset for medical imaging
US9686484B2 (en) Apparatus for acquiring and projecting broadband image capable of implementing visible light optical image and invisible light fluorescence image together
US11576555B2 (en) Medical imaging system, method, and computer program
CN217960291U (zh) 基于可移动装置的短波红外荧光成像检测系统
WO2022234156A1 (en) Enhanced augmented reality headset for medical imaging