JP7186762B2 - 投影走査システム - Google Patents

投影走査システム Download PDF

Info

Publication number
JP7186762B2
JP7186762B2 JP2020503983A JP2020503983A JP7186762B2 JP 7186762 B2 JP7186762 B2 JP 7186762B2 JP 2020503983 A JP2020503983 A JP 2020503983A JP 2020503983 A JP2020503983 A JP 2020503983A JP 7186762 B2 JP7186762 B2 JP 7186762B2
Authority
JP
Japan
Prior art keywords
processor
light
sensor
projector
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020503983A
Other languages
English (en)
Other versions
JP2020528793A (ja
JP2020528793A5 (ja
Inventor
ヴェイザー,アレックス
ダルマ‐ワイズハウズ,デニス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Invuity Inc
Original Assignee
Invuity Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Invuity Inc filed Critical Invuity Inc
Publication of JP2020528793A publication Critical patent/JP2020528793A/ja
Publication of JP2020528793A5 publication Critical patent/JP2020528793A5/ja
Application granted granted Critical
Publication of JP7186762B2 publication Critical patent/JP7186762B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/395Visible markers with marking agent for marking skin or other tissue
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Projection Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Measurement Of Optical Distance (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Description

本出願は概して、医療システム、医療デバイス及び医療方法に関し、より具体的には外科用の撮像及び投影に関する。
[相互参照]
本出願は、2017年7月27日に出願された米国仮特許出願第62/537,627号の利益を主張するものであり、その米国仮特許出願の全体は引用することにより本明細書の一部をなすものとする。
外科処置中に外科医に対して視覚情報を提示することが困難な場合がしばしばある。例えば、外部モニタに視覚情報が提示されると、外科医は、外部モニタを見るために手術部位への集中を中断しなければならない場合があり、あるいはその逆の場合もある。これは、外科医が手術部位への集中を維持しつつも視覚情報を得たいとき、又は、さもなければ外科医が手術部位から視線を外すことができないとき等に望ましくない可能性がある。
改良された外科用撮像投影システムが開示される。本発明のシステムは、視覚データをターゲット上に投影することにより拡張情報(追加情報、augmented information)を提供する。本発明のシステムは、投影される視覚情報のスケール(scale)をターゲットのスケールに合うように自動的に調整するフィードバックループを備える。いくつかの実施形態では、本システムは、ターゲット上の基準(fiducial)を検出し、この基準のロケーションを用いて、投影される視覚情報をターゲットに合わせる。本システムは、付加的な外科用情報を手術部位上に投影するのに特に有用である。投影される視覚情報は、拡張画像(augmented image)又は擬似カラー画像(着色画像、false color image)とも呼ばれる場合があり、手術部位等の実対象物に投影され、この実対象物との位置合わせがなされる。
手術の際、X線システム、超音波システム、MRIシステム又は蛍光システム等の多くのビデオ画像処理システムが用いられる。これらの画像システムは通常、モニタを利用して外科医に付加的情報を提供する。この情報は有用であるものの、この付加的データを見るために外科医は自身の視野を手術野とモニタとの間で移動させる必要がある。本発明は、拡張画像情報を患者(手術野)上に直接投影する実施の形態を開示する。拡張画像情報は、CT(コンピュータ体軸断層撮影)画像、MRI(磁気共鳴映像)画像、蛍光情報等とすることができる。これは、外科医が自身の手術視野を維持することを可能にし、完全に直観的である。
1つの実施の形態によれば、拡張画像(例えば、蛍光画像又はMRI画像)に対応する擬似カラー画像(可視光スペクトルにおけるもの)は、患者(手術野)上に直接投影される。これは、外科医が、自身の視野を手術野上に維持しつつ、特殊な機器(ゴーグルなど)を用いることなく拡張画像を「見る」ことを可能にする。他方、本明細書に開示される実施の形態のうちの1つは、ヘッドマウントディスプレイを備え、これはいくつかの特定の状況で有利な場合がある。
外科的状況における拡張画像情報の投影を妨げてきた問題の1つは、3次元の人間の解剖学的構造に対する拡張画像の拡大、縮小及び位置合わせに関するものである。カメラ、プロジェクタは、手術野に対して特定の距離にあるときに、特定の倍率で映像を撮像及び投影する。投影される画像を実際の実解剖学的対象物、すなわち、サイズ及び向きと合わせることが極めて重要である。これは、固定された既知の距離であれば、投影される画像の倍率を調整するために容易に最適化することができる。しかし、カメラの距離又は向きがその最適化された位置から変化すると、問題が発生する。カメラが対象物から更に遠くに移動した場合、対象物はカメラにはより小さく見え、したがって、投影された画像のスケールは実対象物よりも小さい。
本明細書に開示される実施の形態は、ターゲット(例えば、患者又は実対象物)に対するプロジェクタの距離及び向きをリアルタイムで監視し、投影される画像の倍率、拡大縮小を自動的に調整する。
外科的状況における拡張画像情報の投影を妨げてきたもう1つの問題は、身体に対するカメラの向きに関するものである。実対象物の知覚される形状は、見る角度によって異なる。拡張画像の向きが実対象物の向きと合っていることが極めて重要である。
最適な結果を得るためにシステムの向きを調整する方法に関する直観的なリアルタイム視覚フィードバックをユーザに提供することが有用である。
本発明の別の部分において、距離、向き及び実際のターゲットのトポロジを測定することができるということは、信号に対して高感度を必要とするシステムにおいて大きな利点を生み出すことができる。例えば、蛍光撮像では、(感度を最大にするために)可能な限り多くの放出光を収集するために大きなアパーチャを有する撮像システムを作製することが目標である。これを行うことは難題を生み出す。なぜならば、一般に、大きなアパーチャのシステムは、焦点深度が非常に短いという欠点を有するからである。そのようなシステムにおけるカメラが焦点深度の範囲を越えて移動するとき、レンズを再合焦しなければならない。これは、可変焦点レンズを光学縦列に配置することによって解決することができる。より具体的には、電気的に調節可能なレンズを用いることが理想的である。カメラと対象物との間の物理距離のリアルタイムの連続監視によって、システムは、アパーチャを可能な限り大きく維持しつつ可変長レンズの焦点距離を(リアルタイムで)調整することが可能になる。画質の悪化を最小にするために視覚に感じられる遅延(一般に、従来の機械式駆動合焦システムにおいて見られるようなもの)を伴うことなくオートフォーカスを行うことが非常に望ましい。
特に蛍光の場合、システムは、カメラとターゲットとの間の距離に基づいて強度信号を監視することができる。したがって、放出(蛍光)信号に基づいてピクセル強度の量を定量化するためにシステムを較正することができる。上記から分かるように、蛍光信号の強度は距離とともに変動する。距離が短いほど(システムが蛍光発光体に近いほど)、放出信号はより強い。システムは、測定された距離に対して信号の利得を調整することができる。放出信号が所与の距離の予想よりも弱い場合、システムは、更なる注意を要する問題が存在すると判断することができる。
外科的状況における拡張画像情報の投影を妨げてきた更に別の問題は、広いエリアにわたる焦点に関するものである。人間の身体は、ほとんどの部分が平坦ではない。人間の身体のトポロジは、複数の平面に合焦を維持することを困難にする。本発明は、平面の各々に合焦を維持することを容易にすることができる、対象物のトポロジを測定するいくつかの手法を開示する。
一態様によれば、対象物に拡張情報(追加情報、augmented information)を投影する画像システムであって、
プロセッサと、
前記プロセッサに動作可能に接続され、拡張画像情報を記憶するメモリデバイスと、
前記プロセッサに動作可能に接続されるプロジェクタであって、前記プロセッサは、拡張画像情報を前記対象物に投影する、プロジェクタと、
前記プロセッサに動作可能に接続され、前記対象物までの距離を測定する距離測定デバイスと
を備え、
前記プロセッサは、前記距離測定デバイスによる距離測定情報を用いて、前記拡張画像情報のスケールを調整し、スケールが調整された前記拡張画像情報を前記プロジェクタに提供する、画像システムが提供される。
いくつかの実施の形態では、前記距離測定デバイスは、レーザ測距器、レーザ走査、飛行時間(タイム・オブ・フライト)、ストラクチャード・ライト(立体照明)、ライトフィールドカメラ、音響測定デバイスからなる群から選択される。
いくつかの実施の形態では、前記距離測定デバイスは、前記対象物のトポロジと、前記距離測定デバイスに対する前記対象物の向きとの少なくとも一方を更に求め、前記プロセッサは、前記トポロジ及び/又は前記向きの情報を更に用いて前記拡張情報のスケールを調整する。
いくつかの実施の形態では、撮像システムは、ストラクチャード・ライト、バックグランドの赤外光、可視光、及びフルオロフォア(fluorophore:蛍光体)励起光からなる群から選択される少なくとも1つの光源を更に備える。
いくつかの実施の形態では、前記距離測定デバイスは、前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方を備え、
前記少なくとも1つの光源は、可視光スペクトル及び赤外光スペクトルの少なくとも一方において所定の光パターンを前記対象物に投影するストラクチャード・ライト(立体照明)方式の光源を含み、
前記センサ及び前記カメラの少なくとも一方は、前記所定の光パターンの反射を検出し、前記プロセッサは、検出された反射により、前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を計算する。
いくつかの実施の形態では、前記距離測定デバイスは、前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方を備え、
前記プロジェクタは、可視光スペクトル及び赤外光スペクトルの少なくとも一方において所定の光パターンを前記対象物に投影し、
前記センサ及び前記カメラの少なくとも一方は、前記所定の光パターンの反射を検出し、前記プロセッサは、検出された反射により前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を計算する。
いくつかの実施の形態では、前記プロジェクタは、少なくとも2つの所定の光パターンを前記対象物に投影し、前記センサ及び前記カメラの少なくとも一方は、前記少なくとも2つの所定の光パターンの反射を検出し、前記プロセッサは、検出された反射により、前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を計算する。
いくつかの実施の形態では、前記センサ及び前記カメラの少なくとも一方は更に、前記対象物に取り付けられているか又はペイントされている基準の位置を検出し、前記基準は、可視光スペクトル又は赤外スペクトルにおいて可視であり、前記プロセッサは、前記基準の位置を用いて前記拡張画像情報の前記対象物との位置合わせをする。
いくつかの実施の形態では、前記距離測定デバイスは、光源及びセンサを含むタイム・オブ・フライト(time of flight、飛行時間)方式のセンサユニットを備える。いくつかの実施の形態では、前記光源は赤外線対応光源であり、前記光センサは赤外光を検出することが可能である。
いくつかの実施の形態では、前記距離測定デバイスは、
前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方と、
可視スペクトル又は赤外スペクトルにおいて少なくとも1つの所定のストラクチャード・ライト方式のパターンを前記対象物に投影する第2のプロジェクタと
を備え、
前記センサ及び前記カメラの少なくとも一方は、前記所定の光パターンの反射を検出し、前記プロセッサは、検出された反射を用いて前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を計算し、計算された距離及び/又はトポロジを用いて前記拡張情報のスケールを調整し、前記プロセッサは、スケールが調整された拡張情報を前記プロジェクタに提供する。
いくつかの実施の形態では、前記センサ及び前記カメラの少なくとも一方は更に、前記対象物に取り付けられるか又はペイントされている基準の位置を検出し、前記基準は、可視光スペクトル又は赤外スペクトルにおいて可視であり、前記プロセッサは、前記基準の位置を用いて前記拡張画像情報の前記対象物との位置合わせをする。
いくつかの実施の形態では、前記画像システムは、前記プロセッサに動作可能に接続されるIMUを更に備える。
いくつかの実施の形態では、前記IMUは、前記画像システムが少なくとも所定の時間にわたり静止していることを検出した場合、前記プロセッサは、前記距離測定デバイスによる距離測定を停止させる。
いくつかの実施の形態では、前記IMUは、前記画像システムが所定の閾値量を超えて動いていること又は向きが誤っていることを検出した場合、前記プロセッサは、前記プロジェクタによる投影を停止させる。
いくつかの実施の形態では、前記画像システムの向きが所定の閾値内にない場合、前記プロセッサは、通知(アラート)を表示するよう前記プロジェクタをトリガする。
いくつかの実施の形態では、測定された前記対象物までの距離が既定の閾値距離を超えている場合、前記プロセッサは、通知(アラート)を表示するよう前記プロジェクタをトリガする。
いくつかの実施の形態では、前記画像システムはライトを更に備え、前記IMUは、前記画像システムが所定の閾値量を超えて動いていること又は誤った向きにあることを検出した場合、前記プロセッサは前記ライトを停止させる。
いくつかの実施の形態では、前記画像システムは、前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ又はセンサの少なくとも一方を更に備え、
前記プロセッサは、前記対象物内又は前記対象物上の蛍光体(フルオロフォア)を励起する光を前記プロジェクタから投影させ、前記カメラ又は前記センサは前記蛍光体の蛍光発光を検出し、前記プロセッサは、検出された蛍光発光を前記メモリに拡張画像情報として記憶する。
いくつかの実施の形態では、前記プロジェクタは、前記可視スペクトルの光を用いて前記拡張画像情報を前記対象物に投影する。
いくつかの実施の形態では、前記プロジェクタは、拡張画像情報を前記対象物に投影する第1のモードと、前記対象物内又は前記対象物上の蛍光体を励起する光を投影する第2のモードとを有する。いくつかの実施の形態では、前記プロジェクタは、所定の光パターンを投影する第3のモードを有する。
いくつかの実施の形態では、前記プロジェクタは、可視光スペクトル及び赤外光スペクトルの双方において光を投影することが可能である。
いくつかの実施の形態では、前記画像システムは、
前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ又はセンサの少なくとも一方と、
前記対象物に光を投影する光源及び第2のプロジェクタのうちの少なくとも一方と
を更に備え、
前記プロセッサは、前記光源及び前記第2のプロジェクタの少なくとも一方から、前記対象物内又は前記対象物上の蛍光体を励起する光を投影させ、前記カメラ又は前記センサの少なくとも一方は、前記蛍光体の蛍光発光を検出し、前記プロセッサは、検出された蛍光発光を拡張画像情報として前記メモリに記憶する。
いくつかの実施の形態では、検出された蛍光の強度が閾値未満である場合に、前記プロセッサは、通知(アラート)を表示するよう前記プロジェクタをトリガする。
いくつかの実施の形態では、前記画像システムは、
前記プロセッサに動作可能に接続されたカメラ又はセンサの少なくとも一方と、
前記プロセッサに動作可能に接続され、赤外光スペクトル又は可視光スペクトルにおいて仮想的な基準を前記対象物に投影する第2のプロジェクタと
を更に備え、
前記プロセッサは、前記第2のプロジェクタから前記仮想的な基準を前記対象物に投影させ、前記カメラ又は前記センサは、前記仮想的な基準の位置を検出し、前記プロセッサは、前記仮想的な基準の位置を用いて前記拡張画像情報の前記対象物との位置合わせをする。
いくつかの実施の形態では、前記メモリは、リモート通信プロトコルを用いて前記プロセッサに動作可能に接続される。
いくつかの実施の形態では、前記拡張画像情報は可視光範囲において投影される。
いくつかの実施の形態では、前記画像システムは、
前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ又はセンサの少なくとも一方を更に備え、
前記プロセッサは、前記対象物内又は前記対象物上の蛍光体を励起する光を前記プロジェクタから投影させ、前記カメラ又は前記センサは、第1の波長において前記蛍光体の蛍光発光を検出し、前記プロセッサは、検出された蛍光発光を拡張画像情報として前記メモリに記憶し、前記第1の波長とは異なる第2の波長において前記拡張画像情報を前記対象物に投影するよう前記プロジェクタをトリガする。
本開示のさらなる態様及び利点は、本開示の例示的な実施形態のみを図示及び説明する、以下の詳細な説明から当業者に容易に明らかとなる。認識されるように、本開示では他の種々の実施形態が可能であり、そのいくつかの細部を全て本開示から逸脱することのない様々な明白な点で変更することが可能である。したがって、図面及び本明細書は限定的なものではなく、本質的に例示的なものであるとみなされる。
[参照による引用]
本明細書中の全ての刊行物、特許及び特許出願は、個々の刊行物、特許又は特許出願が各々具体的かつ個別に引用することにより本明細書の一部をなすものとすると示されているのと同程度に、引用することにより本明細書の一部をなすものとする。引用することにより本明細書の一部をなすものとされる刊行物及び特許又は特許出願が、本明細書に含まれる開示と矛盾する限りにおいては、本明細書は、そのような一切の矛盾する記載に取って代わるか又はそのような一切の矛盾する記載に優先するものと解釈される。
本発明の新規の特徴は、添付の特許請求の範囲に具体的に記載されている。本発明の特徴及び利点のより深い理解は、本発明の原理が利用される例示的な実施形態を説明する以下の詳細な説明及び添付の図面(本明細書において「図面」及び「図」とも呼ばれる)を参照することによって得られるであろう。
拡張画像システムのブロック図である。 蛍光拡張撮像システムのブロック図である。 ヘッドマウントディスプレイ撮像システムのブロック図である。 内視鏡システムのブロック図である。
本発明の様々な実施形態が本明細書に図示及び説明されているが、そのような実施形態が例として提供されているにすぎないことは、当業者には明らかであろう。本発明から逸脱することなく多数の変更、変化及び置換が当業者に想起され得る。本明細書において説明される本発明の実施形態の様々な代替形態を利用することができることが理解されるべきである。
上述したように、本発明は、任意の情報源からの拡張視覚情報を提供するのに有用である。この任意の情報源には、超音波撮像、X線撮像、CTスキャン撮像、蛍光撮像等が含まれるが、これらに限定されるものではない。
[拡張情報の投影]
本発明は、対象物に拡張情報(追加情報、augmented information)を投影するのに有用である。「対象物」という用語は、患者及び手術部位を含むことが意図されているが、そのように限定されるものではない。拡張情報が真に有用であるためには、拡張情報を対象物に正確に合わせる必要がある。言い換えると、アライメント(配置)、スケール及び向きが、拡張情報が投影される対象物の位置及びスケールと合っていなければならない。更に好ましいこととして、対象物の向き及び/又はトポロジを補償するために拡張画像をデジタル処理で変更することができることである。
本発明は、プロジェクタと対象物との間の距離を測定するいくつかの異なる方法を考察する。これらの方法は、以下で詳細に説明する。これらの距離測定の手法のうちのいくつかは、対象物の向き及び/又はトポロジ、輪郭(contour)も与える。本発明のシステムは、計算された輪郭及び/又は距離を用いて、拡張情報が対象物のスケールに合致するように拡張情報を拡大縮小する。
拡張情報は、システムに保存することもできるし、無線によって又はデータケーブルを介してシステムに送ることもできる。無線通信は、Bluetooth、WIFI、又は他の任意の通信プロトコルを用いることができる。
[カメラ又はプロジェクタと対象物との間の距離の測定]
プロジェクタと対象物との間の距離を測定するにあたり従来のレーザ測距器(距離センサ)を用いることができる。レーザが光で対象物を照らし、この光が反射して戻って来るのに要する時間をセンサが検出する。対象物とレーザ放出器との間の距離の計算は、反射光がセンサに到達するのに要する時間と光の速度とが与えられれば簡単である。この技法は有用ではあるが、理想的なものではない。なぜならば、この技法は、カメラの視野内にある対象物の輪郭、トポロジに関する情報を提供しないからである。市販のレーザ測距器の1つの例は、Garmin International, Inc.社(カンザス州オラース第151ストリート1200 E(郵便番号66062-3426)所在)によるLIDAR-Liteである。距離センサが対象物までの距離、飛行時間(タイム・オブ・フライト)又は三角測量を測定するメカニズムには、2つの異なるメカニズムがある。これらの2つのメカニズムは、レーザ又はLEDを光源として用いて実現することができる。
[輪郭、トポロジを測定する技法]
対象物の3Dトポロジを得る様々な方法がある。従来の方法は、一対のカメラが2つの異なる視点を取得するのに用いられるステレオ設定を利用するものである。次に、画像処理を用いて、画像が3D奥行きマップに再構成される。この方策は、コントラストが欠けているとうまく機能しない。また、この方策は、ハードウェア及びソフトウェアも多く使用し、その複雑さ故に一般的に用いられない。
この従来のプロセスは、今では、レーザ走査(Laser Scanning)、飛行時間(Time of flight)、ストラクチャード・ライト(Structured Light、構造化照明)、及びライトフィールド(Light Field)の4つの構成に進化している。これらの技法の各々は本発明に適用可能である。これらの技法間の相違は以下のとおりである。
1)レーザ走査は、通常、単一のカメラ及びレーザ投影ライン(laser-projected line)を用いる。このシステムは、対象物とレーザ投影ラインとの間の相対運動を必要とする。そのため、相対運動を生み出すために、レーザ投影ラインが走査される(対象物上を移動する)か、又は、対象物が変位される。ラインは対象物のトポロジに起因して歪むことから、カメラはこの変形を捕捉し対象物の形状を再構成する。これは、対象物を走査する最も正確な方法であるが、対象物又は撮像システムのいずれかが移動することを要し、このことは、静的な用途には実用的でない場合がある。
2)飛行時間(タイム・オブ・フライト、TOF)撮像センサは市販されている。3次元(3D)飛行時間撮像センサは、変調されたIR光パターンを用いてエリアを照明することによって動作する。反射信号の位相変化を測定することで、被写体、シーン又は対象物の3D奥行きマップを生成するセンサ内のピクセルごとに距離を正確に求めることができる。Texas Instruments社、Intel社等の飛行時間カメラ及び飛行時間センサを製造する様々な企業がある。これは、局所的な奥行きだけでなく対象物の位置も求める優れた方法である。しかし、この方法は、数ミリメートルの範囲内でしか正確でなく、周囲光の影響を受けやすい。例えば、屋外でも同様に正確でない。
3)ストラクチャード・ライトは、対象物上に投影される既定のパターン又はより好ましくは一連の既定のパターンを用いる。この(複数の)パターンは、裸眼の人間の目に見えるものとすることもできるし、見えないもの、例えばIRパターンとすることもできる。カメラは、投影パターンを検出パターンと比較し、元の投影パターンと比較された検出パターンの変形から対象物の距離及び輪郭、トポロジを求める。これを行う最適な方法は、様々なパターンを投影して、奥行きマップの解像度を高めることである。ストラクチャード・プロジェクション(structured projection:立体投影)は、正確かつ効率的に対象物を走査する優れた方法である。
4)ライトフィールドカメラは、プレノプティック(plenoptic)カメラとしても知られており、シーンから生じるライトフィールド、すなわち、シーンにおける光の強度と、光線が空間内を進んでいる方向とについての情報を取得する。これは、光強度しか記録しない従来のカメラとは対照的である。ライトフィールドカメラの1つのタイプは、通常の従来の画像センサの前に配置されたマイクロレンズのアレイを用いて、強度、色、及び方向情報を検知する。マルチカメラアレイは、別のタイプのライトフィールドカメラである。
図1は、本発明による拡張撮像システム100の基本的な実施形態のブロック図である。ハッシュのないブロックはこの基本的な実施形態を表している一方で、ハッシュのあるブロックはオプショナルな機能を示している。拡張撮像システム100は、距離測定デバイス102と、処理ユニット104と、プロジェクタ108とを備える。この基本的な実施形態では、処理ユニット104は、距離測定デバイス102からの距離情報を用いて、拡張画像情報のスケールを調整し、次に、その情報をプロジェクタ108に送る。そして、プロジェクタは、拡大縮小された拡張画像を対象物上に投影する。
デバイス102は、距離又はトポロジを測定する放出器及び受信機から構成される。デバイス102は、音響機器、三角測量レーザ及び測距器レーザ、レーザ走査、光検出器及びTOF等の様々な放出方式及び検出方式並びに放出構成要素及び検出構成要素を有することができる。距離を測定する具体的な方法は、その方法が正確である限り重要ではない。処理ユニット104は、画像処理機能と、メモリと、ルックアップテーブルとを備える。プロジェクタ108は、3色(RGB)レーザプロジェクタ、IRレーザプロジェクタ又はLEDプロジェクタとすることができる。プロジェクタ108は、可視領域又はIR領域において連続的又は断続的に投影を行うことができ、また、可視領域又はIR領域においてストラクチャード・ライトも提供することができる。さらに、プロジェクタ108は、拡張画像とストラクチャード・ライトを繰り返すこともできる。DLPプロジェクタも用いることができるが、そのようなプロジェクタは、最適な結果を提供しない場合がある。レーザプロジェクタは、距離情報を利用して、拡張画像投影を複数の平面内に最適に合焦させることができるため、特に有利である。
いくつかの実施形態において、拡張情報は、拡張撮像システム100へ無線で送信される。任意の無線通信プロトコルを用いることができる。そのような無線通信プロトコルは、Bluetooth、WiFi等を含むことができる。拡張情報は、任意の情報源からの任意の情報とすることができる。外科治療の状況では、拡張情報は、外科医に有用な任意の情報とすることができ、CTスキャン画像、MRI画像、X線画像、超音波画像、蛍光画像又は外科用道具を正しい位置に置くための情報等の、外科医に有用な他の情報を含むことができる。
いくつかの他の実施形態では、距離センサ102は、対象物又は手術部位のトポロジ、輪郭を測定するのに用いることができる。システム100は、距離センサ102の代わりとして、対象物の距離及び/又はトポロジを測定するストラクチャード・ライトと、少なくとも1つの検出器又はカメラ110との使用を含むことができる。センサあるいはカメラ110は、ビデオIRセンサ、可視センサ又はハイパースペクトルセンサとすることができ、また、TOFセンサ又は音響センサとすることもできる。この実施形態では、1つ以上の既定のパターンが、プロジェクタ108によって対象物に投影される。センサあるいはカメラ110は、投影されたパターンを検出し、処理ユニット104は、投影されたパターンを検出されたパターンと比較して、対象物のトポロジ、輪郭を決定する。上述したように、この実施形態により、トポロジの特徴付けだけでなく、カメラあるいはセンサ110又はプロジェクタ108から対象物までの距離の評価も可能となる。
[プロジェクタ108によるストラクチャード・ライトの提供]
ストラクチャード・ライトのパターンは、可視光スペクトル(裸眼の人間の目に見える)又はIRスペクトルにおいて投影することができる。その上、ストラクチャード・ライトは、いくつかの実施形態では可視光線プロジェクタであるプロジェクタ108を用いて投影することができる。他の実施形態では、ストラクチャー・ライトは、可視光スペクトル及びIRの双方において投影が可能であり得るプロジェクタ108を用いてIRスペクトルにおいて投影される。すなわち、可視光及びIR光の双方の放射源をプロジェクタ108の同じモジュール上に設けることができ、双方の放射源が、同じマイクロミラーを用いて走査される。あるいは、プロジェクタ108を、擬似カラー拡張画像を可視光スペクトルにおいて投影するために用いることができ、別のプロジェクタを、可視スペクトル又はIRスペクトルのいずれかにおいてストラクチャード・ライトを投影するのに用いることができる。
拡張画像モード及びストラクチャード・ライトモードをポーリング又はスイッチングすることによって、プロジェクタ108を用いて拡張画像情報及びストラクチャード・ライトの双方を投影することも可能である。拡張画像モードでは、プロジェクタ108は、拡張(擬似カラー)RGB画像を対象物上に投影する。ストラクチャード・ライトモードでは、プロジェクタ108は、1つ以上の所定のストラクチャード・ライトパターンを対象物上に投影する。これらのストラクチャード・ライトパターンは、IRスペクトル又は可視光スペクトルにおいて投影することができる。
[専用のストラクチャード・ライト]
プロジェクタ108に対する負担を低減するために、専用のストラクチャード・ライト光源を利用することが望ましい場合がある。そのような実施形態では、プロジェクタ108は、拡張画像情報を対象物上に投影するのに利用することができる。専用のストラクチャード・ライト光源117は、光の1つ以上の既定のパターンを対象物上に投影するのに利用することができる。ストラクチャード・ライト117は、回折光学素子又はホログラフィックフィルムを含むことができる。この専用の照明光源は、可視スペクトル又はIRスペクトルにおいて既定のパターンを生成することができる。
[トポロジ評価のための追加要素]
距離測定値及びトポロジは、様々な方法で得ることができることに留意されたい。例えば、距離測定は、単一のコンパートメント内にレーザビーム及びセンサを含む距離センサ102を利用することによって行うことができる。或いは、プロジェクタ108又は照明光源117を用いることによって距離を測定し、信号又は既定のパターンを可視又はIRにおいて投影し、センサあるいはカメラ110を用いて距離を評価することも可能である。
本明細書において説明する実施形態のいずれにおいても、距離測定デバイス102は、飛行時間センサモジュールを利用することができる。この距離測定デバイスは、プロジェクタ108又は照明光源117等のストラクチャード・ライト光源とともに処理ユニット104に動作可能に接続することができるTOFセンサ110も利用することができる。プロジェクタ108又はストラクチャー・ライト源117は、ストラクチャード・ライトパターンを投影し、TOFセンサ110は、対象物の3D奥行きマップ(トポロジ)を生成するセンサ内のあらゆるピクセルについて反射信号の位相変化を測定し、この情報を処理ユニット104に提供する。処理ユニット104は、画像処理及び測定されたトポロジを用いて画像を位置合わせし、拡大画像あるいは拡張画像を調整して、正しい倍率及び向きにより適切に投影する。
処理ユニット104は、求められたトポグラフィ情報を用いて、プロジェクタ108によって投影される拡張画像情報の投影倍率を調整する。
距離測定は、レーザ光信号に限定されるものではない。同様に、対象物のトポロジ特性は、種々のハードウェアの組み合わせを用いて評価することができ、例えば、プロジェクタ108又は照明光源117を用いてストラクチャード・ライト画像を投影し、センサあるいはカメラ110を用いて、対象物によって生じたパターンの変化を取得することが含まれる。
ストラクチャード・ライトを用いてシステムと対象物との間の距離を求めることも可能である。換言すれば、ストラクチャード・ライトは、対象物のトポロジ、向き及び距離を求めるのに用いることができる。そのような実施形態では、トポロジを求めるのに用いられる要素は、距離測定デバイス102としての機能も果たす。システムと対象物との間の距離の測定は、カメラあるいはセンサ110の焦点を調整するのに用いることができる。
ストラクチャード・ライトパターンは、システムと実対象物との間の相対的な向き(スキュー角)を求めるのにも有用であり得る。カメラあるいはセンサ110は、(複数の)ストラクチャード・ライトパターンの反射を捉え、処理ユニット104は、反射パターンを投影されたパターンと比較し、実対象物に対するカメラあるいはプロジェクタの相対的な向きを求め、信号処理を利用して、可視投影をカメラの向きと合うように調整する。処理ユニット104は、拡張画像情報を記憶又はバッファリングするのに用いることができ、データケーブルを用いてシステムに接続することもできるし、WIFI、Bluetooth等を用いて無線でインタフェースすることもできる。
上述したシステムは、固定の台座に取り付けることができる。しかし、このシステムは、拡張情報が投影されている対象物に対するシステムの距離及び向きを自動的にリアルタイムで測定及び補償することができるため、ハンドヘルドデバイスとして特に有用である。本発明のハンドヘルドシステムは、外科処置中の様々な時点において必要に応じて用いることができる。したがって、カメラが移動したときに、画像を安定化させる何らかの必要性がある可能性がある。そのようなシステムでは、必要に応じて安定化モジュール118を追加することができる。
本発明の拡張撮像システム100は、好ましくはハンドヘルドである。システム100は、必要に応じて、加速度計、ジャイロ、及び磁気計等の1つ以上の運動センサ及び/又は向きセンサを含むことができる慣性測定ユニット(IMU:inertial measurement unit)112を設けることによって向上させることができる。検出されたシステムの向きが所定の範囲から逸脱すると、(複数の)プロジェクタ108、又は距離・トポロジ測定デバイス102を遮断する、処理ユニット104と動作可能に接続したIMU112を備えることが望ましい場合がある。
[蛍光撮像システム200]
拡張画像投影システムは、蛍光撮像システムとともに用いられるのに特に適している。図2は、蛍光拡張撮像システム200のブロック図である。同様の参照符号は、同じ構造部に対応するものとしている。ハッシュのないブロックは、基本的なシステム構成を指す一方で、ハッシュのあるブロックは、オプショナルな要素を指す。距離測定デバイス102は、図1に関して上述したように、ストラクチャード・ライト、TOFセンサ、音響センサ、レーザスキャナ、又はレーザ測距器等を利用することができる。以下で更に詳細に説明するように、システム200は、必要に応じて、赤外スペクトル、可視スペクトル又は赤外スペクトル及び可視光スペクトルの双方において投影することができる付加的なプロジェクタ108を備えることができる。
システム200は、以下のような4つの異なるオプショナルな光源を装備することができる。
1)背景(バックグラウンド)照明(116A)-システム200は、IRスペクトルにおいて背景照明を提供する光源116Aを備えることができる。
2)全般照明(116B)-システム200は、可視光スペクトルにおいて全般照明を提供する光源116Bを備えることができる。
3)蛍光励起(116C)-システム200は、フルオロフォア(蛍光体)を励起する光源116Cを備えることができる。光源116Cは、以下で詳細に説明するフルオロフォアの具体的なニーズに応じて、可視スペクトル又はIRスペクトルのいずれかにおいて照明を行うことができる。
4)ストラクチャード・ライト(117)-システム100と同様に、システム200も、可視スペクトル又はIRスペクトルのいずれかにおいて(複数の)ストラクチャード・ライトパターンを提供する光源117を備えることができる。光源117によって、プロジェクタ108が(複数の)ストラクチャード・ライトパターンを投影する必要がなくなることが理解されるであろう。
図2におけるシステムは、必要に応じて、付加的なプロジェクタ108と、光源116A、116B、116C及び117の任意の組み合わせとを備えることができる。検出されたシステムの向きが所定の範囲から逸脱すると、(複数の)プロジェクタ108、及び/又は(複数の)光源116A、116B、116C、117を遮断する、処理ユニット104と動作可能に接続したIMU112を備えることが望ましい場合がある。
IMU112は、距離監視プロセスを選択的に停止・再起動するのに用いることもできる。例えば、運動センサが、システム200が(例えば、スタンドに)固定されて又は強固に保持されていることを検出した場合、IMU112は、距離測定プロセスを無効とすることができる。IMU112が、システムが移動したことを検出すると、処理ユニット104は距離測定プロセスを再開することができる。これによって、不要な処理がなくなる。
ハンドヘルドである蛍光撮像システムを有することが有利であり得る。システム100と同様に、システム200も、画像安定化を必要とする場合があり、その場合、任意選択のモジュール118が設けられる。
システム200は、内在的な自然発生するフルオロフォア、又は、注入によって若しくは対象物の表面に塗ることによって加えられる外在的なフルオロフォアのいずれかを励起するように構成されている。例として、インドシアニングリーンは、人間の使用が認められたフルオロフォアであり、商標名IC-GREEN(商標)の下で入手可能である。IC-GREEN(商標)は水溶性であり、約800nmのピークスペクトル吸収を有するトリカルボシアニン色素である。いくつかのフルオロフォアは、特定の細胞群に結合するように構成することができ、或るエリアが十分に灌流されているか否かの判断、損傷、血管等の特定に用いることができる。
いくつかのフルオロフォアは、可視スペクトル内の光によって励起され、可視スペクトル又はIRスペクトルにいずれかにおいて発光する。他のフルオロフォアは、赤外(IR)光によって励起され、IRスペクトル又は可視スペクトルにいずれかにおいて発光する。後者はフォトン・アップコンバージョンによる。
一般的な原理は、どのタイプのフルオロフォアが用いられるかを問わず同じである。すなわち、フルオロフォアは光源を用いて励起され、フルオロフォアの発光が検出され、検出された発光の拡張カラー画像又は擬似カラー画像が対象物上に投影される。フルオロフォアが可視光範囲において発光する場合、追加の情報を提供するように、画像情報を擬似カラーと同様に強化することができる。
フルオロフォアが、IRスペクトルにおける光によって励起される場合、プロジェクタ108又は光源116Cは、フルオロフォアを励起するのに用いられるIRを提供するのに用いることができる。
フルオロフォアが、可視スペクトルにおける光によって励起される場合、プロジェクタ108又は光源116Bは、フルオロフォアを励起するのに用いられる可視光を提供するのに用いることができる。
フルオロフォアがIRスペクトルにおいて発光する場合、IR対応のカメラあるいはセンサ110が、裸眼の人間の目に見えない蛍光発光信号と、(用いられている場合は)背景照明信号とを捕捉し、このデータをメモリ、プロセッサ104に記憶する。プロジェクタ108は、蛍光信号に対応する可視光(擬似カラー)又は拡張表現を実対象物上に投影する。
フルオロフォアが可視スペクトルにおいて発光する場合、可視光若しくはIR対応又はハイパースペクトル対応のカメラあるいはセンサ110が、蛍光発光信号と、(用いられている場合)背景IR照明信号とを捕捉する。発光強度及び背景情報は、処理ユニット104によって処理され、拡張あるいは強化画像情報として記憶される。プロジェクタ108は、その後、処理された、あるいは拡張された蛍光発光に対応する可視光線(擬似カラー)画像を実対象物上に投影することができる。
このように、いくつかの実施形態では、カメラあるいはセンサ110はIR対応センサであり、他の実施形態では、カメラあるいはセンサ110は可視光対応センサであり、更に他の実施形態では、カメラあるいはセンサ110は可視光及びIR光の双方を検出することが可能であり、例えば、可視光及びIR光の双方を撮像することができるマルチスペクトルカメラ又はハイパースペクトルカメラである。更に別の実施形態では、カメラあるいはセンサ110は、1つが可視波長信号の感度がより高く、1つがIR信号の感度がより高い2つの異なるセンサを組み合わせたものである。
IRを用いてフルオロフォアを励起する実施形態では、対象物上に投影されたIR光の波長をフィルタリング除去することによって信号対雑音比を改善するために、帯域通過フィルタ(図示せず)を利用することができる。より詳細には、フルオロフォアを励起するのに用いられるIRの波長は、励起されたフルオロフォアの蛍光発光の波長とは異なる。帯域通過フィルタは、励起されたフルオロフォアの蛍光発光の波長のみがカメラに見えるように、フルオロフォアを励起するのに用いられるIRの波長をフィルタリング除去するために用いることができる。
フルオロフォアが可視光スペクトルにおいて発光する場合、カメラあるいはセンサ110はこの発光信号を捕捉する。距離センサ102は、カメラあるいはセンサ110と蛍光発光体との間の距離を評価する。その後、処理ユニット104は、発光信号情報及び距離を処理し、プロジェクタ108に指示を与えることができる。プロジェクタ108は、この可視光の処理された画像(擬似カラー)を対象物上に投影するが、可視光フルオロフォアの発光の波長と干渉しない異なる可視スペクトルにおいて投影する。このように、カメラ110は、可視光フルオロフォアの発光を得るときにフィルタ(図示せず)を用いて、拡張画像情報を投影するのに用いられる波長をフィルタリング除去する。
撮像システム200は、蛍光強度を測定する機能を更に備えることができる。蛍光の強度が小さいのは、例えば、システムが、蛍光発光、すなわち撮像対象の対象物から遠く離れすぎていることによる場合がある。撮像システム200は、距離センサ102を利用することによって対象物までの距離を正確に測定することができる。カメラあるいはセンサ110によって検出される蛍光の強度は、システム200を対象物に接近させるほど増加する。それに対応して、蛍光の強度は、システム200を対象物から遠くに移動させるほど減少する。システム200が対象物から過度に離れて置かれた場合、蛍光の強度は、許容可能な閾値を下回るほど低下し、システムは、システムを対象物に接近させるようユーザに通知する。このアラートは、可聴及び/又は視覚的なものとすることができる。例えば、システム200は、システムを接近させるようにユーザに指示する警告を対象物上に直接投影することができる。
システム200は、距離に応じた理想的な蛍光強度閾値を有するルックアップテーブルを処理ユニット104内に更に備えることができる。システム200は、例えば、距離センサ102を用いて対象物までの距離を検知することができる。測定された蛍光強度が、測定された距離の理想的なIR強度閾値未満である場合、この問題は、フルオロフォア濃度が低いことによる場合がある。その場合、ユーザは、追加のフルオロフォアを対象物に加えることが必要な場合がある。システム200は、用いられている励起源が、検出される蛍光発光強度を高めるか否かを判断するために、この励起源の強度を調整することもできる。
[基準ターゲット及びヘッドマウントディスプレイ]
本明細書において説明する実施形態のいずれにおいても、拡張情報が表示される対象物上の1つ以上のランドマーク(例えば、解剖学的ランドマーク)に取り付けられる1つ以上の基準ターゲットを有することは有用であり得る。そのような基準ターゲットは、拡張画像が、投影対象の対象物と位置調整(位置合わせ)されることを確実にするために有用である。(複数の)ターゲットは、様々な既知の手段のうちの任意のものを用いて対象物に物理的に取り付けることができる。これらの既知の手段には、対象物に挿入されるアンカ、ベルト、接着剤、縫合糸等が含まれる。(複数の)ターゲットは、基準ターゲットを含む事前にプリントされたステッカ又は事前にプリントされた3M(商標)アイオバン(商標)インサイズドレープ(3MTM IobanTM incise drape)も含むことができる。例えば、蛍光インクを用いて被写体あるいは対象物上に基準ターゲットを直接描くことも可能である。
基準ターゲットは、裸眼の人間の目に見えるパターンを含むこともでき、このパターンは、IR対応カメラ、IR高感度センサ等にしか見えない赤外線インクを用いてプリントすることもできる。IR基準ターゲットは、対象物上に投影される拡張画像と干渉しないという利点を有する。仮想的な基準パターンを対象物上に投影することも可能である。仮想的な基準ターゲットは、可視光スペクトルを用いて投影することもできるし、より好ましくは、拡張画像と干渉しないように、裸眼の人間の目には見えない光スペクトル、例えば、赤外光を用いて投影することもできる。基準がIRスペクトルにおいて検出される場合は、基準を励起するのに用いられる(複数の)IR周波数がフルオロフォアのIR発光周波数と干渉しないようにすることに配慮すべきである。
基準ターゲットは、拡張画像又は擬似カラー画像を対象物上に投影するのに用いられるプロジェクタと同じプロジェクタ108を用いて投影することもできるし、ストラクチャード・ライト光源117を用いて生成することもでき、カメラあるいはセンサ110又はシステム300について以下で説明するヘッドマウント(頭部装着型)ディスプレイ120のいずれかによって検出される。基準がプロジェクタ108によって投影される一実施形態において、処理ユニット104は、拡張画像情報の投影と基準ターゲットの投影とを交互に行うようプロジェクタ108をポーリングする。基準ターゲット及び拡張画像を、同じプロジェクタ108を用いて投影することで、2つの別々のプロジェクタ間の不整合を修正する必要がなくなる。
1つのプロジェクタ108が基準ターゲットを投影するものであり、もう1つのプロジェクタが拡張画像を投影するものであるという、2つの個別のプロジェクタを用いることが有利であり得る様々な理由がある。そのようなシステムでは、2つのプロジェクタを整合させる画像処理が必要となる場合がある。
上述したように、基準マーカ又は基準ターゲットは、肉眼では見えない光スペクトル、例えば、赤外(IR)において投影することができる。これは、ターゲットが拡張画像又は擬似カラー画像の投影と干渉しないという点で有利である。
基準ターゲットがプリントあるいは取り付けられるのか又は投影されるのかにかかわらず、カスタマイズされた患者ごとの基準ターゲットを利用することができる。患者ごとの基準は、プライベート性を維持し、撮像システムのカメラあるいはソフトウェアによってのみ判読できる情報を含む。
図3は、拡張画像情報がヘッドマウントディスプレイ120上に投影されるヘッドマウント撮像システム300の説明図である。ヘッドマウントディスプレイは、Microsoft社のHololens等の、撮像センサ及び慣性センサを含む統合センサを有する。システム300は、システム200(図2)とほぼ同じであるものの、システム300においては、拡張情報は、対象物上に投影されるのではなく、ヘッドマウントディスプレイ120上に表示される。
システム300は、上述したような(又は前述したようにストラクチャード・ライトを用いて距離を計算する)距離測定デバイス102と、距離測定デバイス102から距離情報を受け、拡張画像を処理及び管理する処理ユニット104と、プロジェクタ108とを備えたものとすることができる。この実施形態では、プロジェクタ108は、拡張情報ではなく仮想基準を対象物上に投影するのに用いることができる。あるいは、基準は、対象物に取り付けることもできるし、対象物上にペイントすることもできる。基準は、ストラクチャード・ライト光源117によって裸眼の人間の目に見えないIRパターンで作成することもできるし、可視ターゲットとすることもできる。この実施形態では、ユーザは、基準を検出するカメラセンサ110を装備したヘッドマウントディスプレイ120を装着する。拡張画像情報は、ヘッドマウントディスプレイ120上に表示される。基準は、拡張画像情報の位置合わせに用いられるとともに、ヘッドマウントディスプレイに対する拡張画像情報を表示するロケーションを特定するのに用いられる。拡張画像は、ヘッドマウントディスプレイ上に表示され、したがって、ユーザにのみ見える。このような実施形態では、ヘッドマウントディスプレイ上のカメラセンサ110は、ターゲットのロケーションと一致させるために、基準を検出し、拡張画像をこの基準と位置合わせし、適切に拡大縮小がなされた拡張画像をヘッドマウントディスプレイ120上に表示する。
図2に関して述べたとおり、システム300は、必要に応じて光源116A、116B及び116Cを備えることができることに留意されたい。
[外科用器具の位置合わせ]
本発明の拡張撮像システムは、外科用器具のナビゲーションあるいは位置合わせにも用いることができる。このシステムは、上述したような距離・輪郭測定デバイス102と、プロセッサ104と、プロジェクタ108と、撮像カメラ110と、複数の外科用器具を一意に特定する情報を記憶するルックアップテーブルとを備えることができる。
このタイプのシステムでは、距離測定デバイスは、拡張情報が投影される対象物の距離及び/又は輪郭・トポロジを測定する。撮像カメラは、外科用デバイスの画像を取得し、取得された画像をルックアップテーブルに記憶された情報と比較して、外科用器具と、対象物に対するそれらのロケーション・向きとを特定する。
外科用器具には、この器具の識別及び位置追跡を容易にする基準を設けることができる。この基準は、可視光スペクトル又はIR蛍光インクを用いて作製することができる。基準は、反射器等の他の技術を用いて構築することもできる。
この実施形態によれば、器具の位置は、撮像カメラ110を用いて追跡され、ガイダンス情報の形式の拡張データが、対象物(患者)上に投影され(108)、ユーザが外科用器具を適切に位置決めすることを助ける。拡張情報は、例えば、器具をどのように再配置するのかに関するリアルタイムのフィードバックを提供する、プロジェクタによって道具に直接表示されるか又は道具に隣接して表示される画像を含むことができる。
本明細書において説明した拡張撮像システムの各々において、システムは、対象物までの距離と、撮像カメラあるいはプロジェクタと対象物との間のスキュー角とを評価し、そのため、ユーザへの様々なメッセージを投影することができる。例えば、カメラあるいはプロジェクタが低すぎる又は高すぎる場合には、ユーザが位置決めすることを助けるメッセージ又は画像を投影することができる。これは、奥行き検知カメラあるいはプロジェクタが対象物を走査しているときにも適用することができる。
システム300の残りの部分は、ストラクチャード・ライトの実施形態と同じように動作し、光116A、116B、116C及び117の任意の組み合わせを含むことができる。
[距離測定及び拡大縮小を伴う内視鏡]
内視鏡による蛍光撮像の用途の場合、内視鏡の遠位端と蛍光ターゲットとの間の距離を求めることが望ましい。図4は、評価された距離を利用して蛍光発光の強度を最適化する内視鏡システム400のブロック図である。距離測定デバイス102又はストラクチャード・ライト光源117及びカメラセンサ110は、例えば、励起に用いられるプロジェクタ108又は光116B、116Cの強度を自動的に調整するのに利用することができる。
距離測定デバイス102(又はストラクチャード・ライト光源117若しくはプロジェクタ108)は、内視鏡チューブを通じて動作し、内視鏡の遠位端から手術部位までの距離を測定することができる。あるいは、距離測定評価は、内視鏡の光学部品類とは別の光学部品類を通じて行うこともできる。距離は、例えば、ストラクチャード・ライト117と、内視鏡カメラとは別の追加のカメラあるいはセンサ110とを用いることによって測定することができる。この代替的形態は、距離検知に用いられるパターン又は信号が内視鏡の光学部品類による歪みを受けないという点で有益であることが分かる。
本発明の好ましい実施形態を本明細書において図示及び説明してきたが、そのような実施形態は単なる例として提供されているにすぎないことが当業者には明らかであろう。本発明が本明細書内で提供されている具体例によって限定されることは意図されていない。本発明は、前述の具体的内容に関して説明されているが、本明細書における実施形態の説明及び説明図が限定の意味に解釈されることは意図されていない。本発明から逸脱しない数多くの変形形態、変更形態、及び代用形態が、この時点で、当業者に想起されるであろう。さらに、本発明の全ての態様は、様々な条件及び変化するものに依存する本明細書において述べた具体的な描写、構成又は相対的比率に限定されるものではないことが理解されるであろう。本明細書において説明した本発明の実施形態の様々な代替形態を、本発明を実施する際に用いることができることが理解されるべきである。したがって、本発明は、そのような任意の代替形態、変更形態、変形形態又は均等形態も包含するものであることが想定されている。添付の特許請求の範囲は本発明の範囲を定め、請求の範囲内にある方法及び構造並びにそれらの均等形態はそれによって包含されることが意図されている。
なお、特願2020-503983の出願当初の特許請求の範囲は以下のとおりである。
[請求項1]
対象物に拡張情報を投影する画像システムであって、
プロセッサと、
前記プロセッサに動作可能に接続され、拡張画像情報を記憶するメモリデバイスと、
前記プロセッサに動作可能に接続されるプロジェクタであって、前記プロセッサは拡張画像情報を前記対象物に投影するものである、プロジェクタと、
前記プロセッサに動作可能に接続され、前記対象物までの距離を測定する距離測定デバイスと
を備え、
前記プロセッサは、前記距離測定デバイスによる距離測定情報を用いて前記拡張画像情報のスケールを調整し、スケールが調整された前記拡張画像情報を前記プロジェクタに提供するものである、画像システム。
[請求項2]
前記距離測定デバイスは、レーザ測距器と、レーザ走査と、タイム・オブ・フライトと、ストラクチャード・ライトと、ライトフィールドカメラと、音響測定デバイスとからなる群から選択される、請求項1に記載の画像システム。
[請求項3]
前記距離測定デバイスは更に、前記対象物のトポロジと、前記距離測定デバイスに対する前記対象物の向きとの少なくとも一方を求め、
前記プロセッサは、前記トポロジの情報と前記向きの情報との少なくとも一方をも用いて前記拡張情報のスケールを調整するものである、
請求項1に記載の画像システム。
[請求項4]
ストラクチャード・ライトと、バックグラウンドの赤外光と、可視光と、蛍光体励起光とからなる群から選択される少なくとも1つの光源を更に備える請求項1に記載の画像システム。
[請求項5]
前記距離測定デバイスは、前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方を備え、
前記少なくとも1つの光源は、可視光スペクトル及び赤外光スペクトルの少なくとも一方において所定の光パターンを前記対象物に投影するストラクチャード・ライト光源を含み、
センサ及びカメラの少なくとも一方は、前記所定の光パターンの反射を検出し、
前記プロセッサは、前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を検出された反射から計算する、請求項4に記載の画像システム。
[請求項6]
前記距離測定デバイスは、前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方を備え、
前記プロジェクタは、可視光スペクトル及び赤外光スペクトルの少なくとも一方において所定の光パターンを前記対象物に投影し、
センサ及びカメラの少なくとも一方は、前記所定の光パターンの反射を検出し、
前記プロセッサは、前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を検出された反射から計算する、請求項1又は3に記載の画像システム。
[請求項7]
前記プロジェクタは、少なくとも2つの所定の光パターンを前記対象物に投影し、
センサ及びカメラの少なくとも一方は、前記少なくとも2つの所定の光パターンの反射を検出し、
前記プロセッサは、前記対象物までの距離と前記対象物のトポロジの少なくとも一方を検出された反射から計算する、請求項6に記載の画像システム。
[請求項8]
センサ及びカメラの少なくとも一方は更に、前記対象物上に取り付けられているか又はペイントされている基準の位置を検出し、前記基準は可視光スペクトル又は赤外スペクトルにおいて可視であり、
前記プロセッサは、前記基準の位置を用いて、前記拡張画像情報の前記対象物との位置合わせを行う、請求項6に記載の画像システム。
[請求項9]
前記距離測定デバイスは、光源及びセンサを有するタイム・オブ・フライトのセンサユニットを備える、請求項1又は3に記載の画像システム。
[請求項10]
前記光源は赤外線対応光源であり、前記光センサは赤外光の検出が可能である、請求項9に記載の画像システム。
[請求項11]
前記距離測定デバイスは、
前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方と、
可視スペクトル又は赤外スペクトルにおいて少なくとも1つの所定のストラクチャード・ライトのパターンを前記対象物に投影する第2のプロジェクタと
を備え、
センサ及びカメラの少なくとも一方は、前記所定のライトのパターンの反射を検出し、
前記プロセッサは、検出された反射により前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を計算し、計算された距離及びトポロジの少なくともいずれかを用いて前記拡張情報のスケールを調整し、スケールが調整された拡張情報を前記プロジェクタに提供する、請求項1又は3に記載の画像システム。
[請求項12]
センサ及びカメラの少なくとも一方は更に、前記対象物に取り付けられているか又はペイントされている基準の位置を検出し、前記基準は可視光スペクトル又は赤外スペクトルにおいて可視であり、
前記プロセッサは、前記基準の位置を用いて前記拡張画像情報の前記対象物との位置合わせを行う、請求項11に記載の画像システム。
[請求項13]
前記プロセッサに動作可能に接続されるIMUを更に備える請求項1~12のいずれか1項に記載の画像システム。
[請求項14]
前記画像システムが少なくとも所定の時間にわたり静止していることを前記IMUが検出した場合、前記プロセッサは、前記距離測定デバイスによる距離測定を停止させる、請求項13に記載の画像システム。
[請求項15]
前記画像システムが所定の閾値を超えて動いていること又は向きが誤っていることを前記IMUが検出した場合、前記プロセッサは、前記プロジェクタによる投影を停止させる、請求項13に記載の画像システム。
[請求項16]
前記画像システムの向きが所定の閾値内にない場合、前記プロセッサは、通知を表示するよう前記プロジェクタをトリガする、請求項13に記載の画像システム。
[請求項17]
測定された前記対象物までの距離が既定の閾値距離を超えている場合、前記プロセッサは、通知を表示するよう前記プロジェクタをトリガする、請求項1~16のいずれか1項に記載の画像システム。
[請求項18]
ライトを更に備え、前記画像システムが所定の閾値を超えて動いていること又は向きが誤っていることを前記IMUが検出した場合に、前記プロセッサは前記ライトを停止させる、請求項13に記載の画像システム。
[請求項19]
前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ及びセンサの少なくとも一方を更に備え、
前記プロセッサは、前記対象物内又は前記対象物上の蛍光体を励起する光を前記プロジェクタから投影させ、
前記カメラ又は前記センサは前記蛍光体の蛍光発光を検出し、
前記プロセッサは、検出された蛍光発光を拡張画像情報として前記メモリに記憶する、請求項1~3のいずれか1項に記載の画像システム。
[請求項20]
前記プロジェクタは、可視スペクトルの光を用いて前記拡張画像情報を前記対象物に投影する、請求項19に記載の画像システム。
[請求項21]
前記プロジェクタは、拡張画像情報を前記対象物に投影するための第1のモードと、前記対象物内又は前記対象物上の蛍光体を励起する光を投影するための第2のモードとを有する、請求項19に記載の画像システム。
[請求項22]
前記プロジェクタは、所定の光パターンを投影するための第3のモードを有する、請求項21に記載の画像システム。
[請求項23]
前記プロジェクタは、可視光スペクトル及び赤外光スペクトルの双方において光を投影することが可能である、請求項22に記載の画像システム。
[請求項24]
前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ及びセンサの少なくとも一方と、
前記対象物に光を投影する光源及び第2のプロジェクタの少なくとも一方と
を更に備え、
前記プロセッサは、光源及び第2のプロジェクタの少なくとも一方から、前記対象物内又は前記対象物上の蛍光体を励起する光を投影させ、
カメラ又はセンサの少なくとも一方は、前記蛍光体の蛍光発光を検出し、
前記プロセッサは、検出された蛍光発光を拡張画像情報として前記メモリに記憶する、請求項1~3のいずれか1項に記載の画像システム。
[請求項25]
検出された蛍光の強度が閾値未満である場合、前記プロセッサは、通知を表示するよう前記プロジェクタをトリガする、請求項19又は24に記載の画像システム。
[請求項26]
前記プロセッサに動作可能に接続されるカメラ及びセンサの少なくとも一方と、
前記プロセッサに動作可能に接続され、赤外光スペクトル又は可視光スペクトルにおいて仮想的な基準を前記対象物に投影する第2のプロジェクタと
を更に備え、
前記プロセッサは、前記第2のプロジェクタから前記仮想的な基準を前記対象物に投影させ、
前記カメラ又は前記センサは前記仮想的な基準の位置を検出し、
前記プロセッサは、前記仮想的な基準の位置を用いて前記拡張画像情報の前記対象物との位置合わせを行う、請求項1~3のいずれか1項に記載の画像システム。
[請求項27]
前記メモリは、リモート通信プロトコルにより前記プロセッサに対して動作可能に接続される、請求項1~26のいずれか1項に記載の画像システム。
[請求項28]
前記拡張画像情報は可視光の範囲で投影される、請求項1に記載の画像システム。
[請求項29]
前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ及びセンサの少なくとも一方を更に備え、
前記プロセッサは、前記対象物内又は前記対象物上の蛍光体を励起する光を前記プロジェクタから投影させ、
前記カメラ又は前記センサは第1の波長において前記蛍光体の蛍光発光を検出し、
前記プロセッサは、検出された蛍光発光を拡張画像情報として前記メモリに記憶し、前記第1の波長とは異なる第2の波長において前記拡張画像情報を前記対象物に投影するよう前記プロジェクタをトリガする、請求項1~3のいずれか1項に記載の画像システム。

Claims (10)

  1. 対象物に拡張情報を投影する画像システムであって、
    プロセッサと、
    前記プロセッサに動作可能に接続され、拡張画像情報を記憶するメモリデバイスと、
    前記プロセッサに動作可能に接続されるプロジェクタであって、前記プロセッサは拡張画像情報を前記対象物に投影するものである、プロジェクタと、
    前記プロセッサに動作可能に接続され、前記対象物までの距離を測定する距離測定デバイスと
    前記プロセッサに動作可能に接続される慣性測定ユニットと
    を備え、
    前記プロセッサは、前記距離測定デバイスによる距離測定情報を用いて前記拡張画像情報のスケールを調整し、スケールが調整された前記拡張画像情報を前記プロジェクタに提供するものであり、
    (1)前記画像システムが少なくとも所定の時間にわたり静止していることを前記慣性測定ユニットが検出した場合に、前記プロセッサが前記距離測定デバイスによる距離測定を停止させる構成と、
    (2)前記画像システムが所定の閾値を超えて動いていること又は向きが誤っていることを前記慣性測定ユニットが検出した場合に、前記プロセッサが前記プロジェクタによる投影を停止させる構成と、
    (3)前記画像システムが所定の閾値を超えて動いていること又は向きが誤っていることを前記慣性測定ユニットが検出した場合に、前記プロセッサが前記ライトを停止させる構成と
    の少なくともいずれかを更に備える画像システム。
  2. 前記距離測定デバイスは更に、前記対象物のトポロジと、前記距離測定デバイスに対する前記対象物の向きとの少なくとも一方を求め、
    前記プロセッサは、前記トポロジの情報と前記向きの情報との少なくとも一方をも用いて前記拡張情報のスケールを調整するものである、
    請求項1に記載の画像システム。
  3. 前記距離測定デバイスは、前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方を備え、
    前記プロジェクタは、可視光スペクトル及び赤外光スペクトルの少なくとも一方において所定の光パターンを前記対象物に投影し、
    センサ及びカメラの少なくとも一方は、前記所定の光パターンの反射を検出し、
    前記プロセッサは、前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を検出された反射から計算する、請求項1又は2に記載の画像システム。
  4. 前記プロジェクタは、少なくとも2つの所定の光パターンを前記対象物に投影し、
    センサ及びカメラの少なくとも一方は、前記少なくとも2つの所定の光パターンの反射を検出し、
    前記プロセッサは、前記対象物までの距離と前記対象物のトポロジの少なくとも一方を検出された反射から計算する、請求項3に記載の画像システム。
  5. 前記距離測定デバイスは、光源及びセンサを有するタイム・オブ・フライトのセンサユニットを備える、請求項1又は2に記載の画像システム。
  6. 前記距離測定デバイスは、
    前記プロセッサに動作可能に接続されるセンサ及びカメラの少なくとも一方と、
    可視スペクトル又は赤外スペクトルにおいて少なくとも1つの所定のストラクチャード・ライトのパターンを前記対象物に投影する第2のプロジェクタと
    を備え、
    センサ及びカメラの少なくとも一方は、前記所定のライトのパターンの反射を検出し、
    前記プロセッサは、検出された反射により前記対象物までの距離と前記対象物のトポロジとの少なくとも一方を計算し、計算された距離及びトポロジの少なくともいずれかを用いて前記拡張情報のスケールを調整し、スケールが調整された拡張情報を前記プロジェクタに提供する、請求項1又は2に記載の画像システム。
  7. 前記距離測定デバイスはセンサ及びカメラの少なくとも一方を備え、前記センサ及びカメラの少なくとも一方は、前記対象物に関連付けられている基準の位置を検出し、前記基準は可視光スペクトル又は赤外スペクトルにおいて可視であり、
    前記プロセッサは、前記基準の位置を用いて前記拡張画像情報の前記対象物との位置合わせを行う、請求項1又は2に記載の画像システム。
  8. 前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ及びセンサの少なくとも一方を更に備え、
    前記プロセッサは、前記対象物内又は前記対象物上の蛍光体を励起する光を、前記プロジェクタと光源と第2のプロジェクトとの少なくともいずれかから投影させ、
    前記カメラ又は前記センサは前記蛍光体の蛍光発光を検出し、
    前記プロセッサは、検出された蛍光発光を拡張画像情報として前記メモリに記憶する、請求項1又は2に記載の画像システム。
  9. 前記プロセッサに動作可能に接続され、蛍光発光を検出するカメラ及びセンサの少なくとも一方を更に備え、
    前記プロセッサは、前記対象物内又は前記対象物上の蛍光体を励起する光を前記プロジェクタから投影させ、
    前記カメラ又は前記センサは第1の波長において前記蛍光体の蛍光発光を検出し、
    前記プロセッサは、検出された蛍光発光を拡張画像情報として前記メモリに記憶し、前記第1の波長とは異なる第2の波長において前記拡張画像情報を前記対象物に投影するよう前記プロジェクタをトリガする、請求項1又は2に記載の画像システム。
  10. 前記距離測定デバイスは、レーザ測距器と、レーザ走査と、タイム・オブ・フライトと、ストラクチャード・ライトと、ライトフィールドカメラと、音響測定デバイスとからなる群から選択される、請求項1~9のいずれか一項に記載の画像システム。
JP2020503983A 2017-07-27 2018-07-27 投影走査システム Active JP7186762B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762537627P 2017-07-27 2017-07-27
US62/537,627 2017-07-27
PCT/US2018/044169 WO2019023625A1 (en) 2017-07-27 2018-07-27 PROJECTION SCAN SYSTEM

Publications (3)

Publication Number Publication Date
JP2020528793A JP2020528793A (ja) 2020-10-01
JP2020528793A5 JP2020528793A5 (ja) 2021-09-09
JP7186762B2 true JP7186762B2 (ja) 2022-12-09

Family

ID=65040838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503983A Active JP7186762B2 (ja) 2017-07-27 2018-07-27 投影走査システム

Country Status (5)

Country Link
US (2) US11622832B2 (ja)
EP (1) EP3658978A4 (ja)
JP (1) JP7186762B2 (ja)
AU (2) AU2018306730B9 (ja)
WO (1) WO2019023625A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
JP7401211B2 (ja) * 2019-06-25 2023-12-19 ファナック株式会社 外光照度測定機能を備えた測距装置及び外光照度測定方法
US11553863B2 (en) * 2019-08-01 2023-01-17 Industrial Technology Research Institute Venous positioning projector
CN111862024A (zh) * 2020-07-14 2020-10-30 四川深瑞视科技有限公司 基于深度信息增强投影的工件检测系统及方法
WO2022179117A1 (zh) * 2021-02-25 2022-09-01 南京微纳科技研究院有限公司 基于荧光分子成像的导航方法、设备、存储介质
US20230075943A1 (en) * 2021-09-07 2023-03-09 Shimadzu Corporation Imaging apparatus and imaging method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050195587A1 (en) 2004-03-08 2005-09-08 Moctezuma De La Barrera Jose L. Enhanced illumination device and method
JP2012030042A (ja) 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd 監視装置、プログラム
JP2016007396A (ja) 2014-06-25 2016-01-18 パナソニックIpマネジメント株式会社 投影システム
US20170165028A1 (en) 2014-03-12 2017-06-15 Stichting Katholieke Universiteit Anatomical image projection system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009024943A1 (de) * 2009-06-10 2010-12-16 W.O.M. World Of Medicine Ag Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
WO2011162753A1 (en) * 2010-06-23 2011-12-29 Mako Sugical Corp. Inertially tracked objects
WO2012054231A2 (en) 2010-10-04 2012-04-26 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
US9052579B1 (en) 2012-08-01 2015-06-09 Rawles Llc Remote control of projection and camera system
WO2015198578A1 (ja) 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 投影システム
US10363149B2 (en) 2015-02-20 2019-07-30 OrthAlign, Inc. Hip replacement navigation system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050195587A1 (en) 2004-03-08 2005-09-08 Moctezuma De La Barrera Jose L. Enhanced illumination device and method
JP2012030042A (ja) 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd 監視装置、プログラム
US20170165028A1 (en) 2014-03-12 2017-06-15 Stichting Katholieke Universiteit Anatomical image projection system
JP2016007396A (ja) 2014-06-25 2016-01-18 パナソニックIpマネジメント株式会社 投影システム

Also Published As

Publication number Publication date
AU2021245257A1 (en) 2021-11-04
AU2018306730A1 (en) 2020-02-13
EP3658978A4 (en) 2021-04-21
US20230218364A1 (en) 2023-07-13
US11622832B2 (en) 2023-04-11
JP2020528793A (ja) 2020-10-01
US20210145536A1 (en) 2021-05-20
EP3658978A1 (en) 2020-06-03
WO2019023625A1 (en) 2019-01-31
AU2018306730B2 (en) 2021-07-08
AU2018306730B9 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
JP7186762B2 (ja) 投影走査システム
JP6586211B2 (ja) プロジェクションマッピング装置
US10136970B2 (en) System, device, and method for dental intraoral scanning
US5954648A (en) Image guided surgery system
US20190053691A1 (en) A laparoscopic tool system for minimally invasive surgery
US20090124891A1 (en) Image guided surgery system
EP3076892B1 (en) A medical optical tracking system
JP5137033B2 (ja) 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
US20120281071A1 (en) Optical Scanning Device
US20190083180A1 (en) Medical image processing apparatus, medical image processing method, and program
JP5283157B2 (ja) 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
US20210052329A1 (en) Monitoring of moving objects in an operation room
JP2012050618A (ja) 画像取得表示方法および画像撮像表示装置
US10846883B2 (en) Method for calibrating objects in a reference coordinate system and method for tracking objects
JPH0436364B2 (ja)
JP2011136005A (ja) 内視鏡装置
JP2017176773A (ja) 手術支援システム、手術支援方法、手術支援プログラム
WO2022179117A1 (zh) 基于荧光分子成像的导航方法、设备、存储介质
US11337771B2 (en) Method and device for measuring the fluorescence emitted at the surface of biological tissue
CN218552456U (zh) 一种手术成像系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221129

R150 Certificate of patent or registration of utility model

Ref document number: 7186762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150