JP7350103B2 - 光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム及び方法 - Google Patents

光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム及び方法 Download PDF

Info

Publication number
JP7350103B2
JP7350103B2 JP2021578120A JP2021578120A JP7350103B2 JP 7350103 B2 JP7350103 B2 JP 7350103B2 JP 2021578120 A JP2021578120 A JP 2021578120A JP 2021578120 A JP2021578120 A JP 2021578120A JP 7350103 B2 JP7350103 B2 JP 7350103B2
Authority
JP
Japan
Prior art keywords
dimensional
surgical
oct
microscope
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021578120A
Other languages
English (en)
Other versions
JP2022539784A (ja
Inventor
国▲華▼ 史
金宇 樊
益 何
利娜 ▲シィン▼
峰 高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Institute of Biomedical Engineering and Technology of CAS
Original Assignee
Suzhou Institute of Biomedical Engineering and Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Institute of Biomedical Engineering and Technology of CAS filed Critical Suzhou Institute of Biomedical Engineering and Technology of CAS
Publication of JP2022539784A publication Critical patent/JP2022539784A/ja
Application granted granted Critical
Publication of JP7350103B2 publication Critical patent/JP7350103B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02002Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies
    • G01B9/02004Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies using frequency scans
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02015Interferometers characterised by the beam path configuration
    • G01B9/02029Combination with non-interferometric systems, i.e. for measuring the object
    • G01B9/0203With imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/141Beam splitting or combining systems operating by reflection only using dichroic mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Robotics (AREA)
  • Microscoopes, Condenser (AREA)

Description

本発明は顕微鏡外科手術撮像及びグラフィック処理の技術分野に関し、特に光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システムに関する。
現代の外科手術は手術の標的部位を位置決めると同時に、患者への生理的創傷をできるだけ低下させ、低侵襲化手術を実現することがすでに求められている。画像ガイドの介入手術は手術の標的を高精度に位置決めすることができ、手術前に術前計画、術中のリアルタイム監視ナビゲーション、術後の術野の手術効果の評価などを行うことができる特徴があり、精度が高く、創傷が小さいなどの利点を有し、現代の外科手術の重要な方向である。
現在、光学顕微鏡を基礎とする顕微鏡外科手術、例えば眼科手術、神経外科手術などは、その撮像範囲が表面二次元撮像に限定されるものであり、その応用が深刻に制限されている。光コヒーレンス断層技術は、高解像度、高感度の非接触式三次元撮像方法であり、組織内部断層、手術器具を撮像することができ、特に細密な手術のナビゲーションに適用されることにより、顕微鏡で集積されたOCT手術ナビゲーションシステム(microscope integrated OCT、MIOCT)が進められ、同時に高速スイープ光コヒーレンス断層撮像(SS-OCT)技術の発展に伴い、術中において三次元OCTリアルタイム撮像を応用することが可能になる。特許WO2016/172495AlはMIOCT撮像表示方法を提供し、OCT情報と顕微鏡情報とを同時に一つの接眼レンズで表示する。しかし、該方法はOCT画像を顕微鏡画像のそばに表示するだけであり、両者の融合撮像に関連せず、術中に依然として医師が上記二種類の画像に対して主観的なマッチングを行う必要がある。上記問題を解決するために、手術撮像方法及び装置を改良し、より直感的な術中のナビゲーション情報を取得する必要がある。
拡張現実はカメラビデオの位置及び角度を用いて精算しかつ画像分析技術を加えることにより、表示装置の仮想世界が現実世界のシーンと融合することができる技術である。外科手術において、拡張現実技術はCT等の3D映像を現実シーンに融合し、直感的な手術ガイドを実現することができる。拡張現実技術のキーは仮実レジストレーション、すなわち仮想画像と現実シーンの座標変換関係を確立することであり、同じ点の仮想、実座標系での位置を探すこと、すなわち基準点の設定と追跡に難点があった。人為的に配置された物体を基準点としてレジストレーションを行い、正確性が高いマッチング結果を得ることができるが、該方法は創傷性を有する可能性がある。体表の特徴を利用して基準点を設定することは追加の創傷を回避することができるが、特徴が明らかでない場合に識別効果が低く、該方法の応用が制限される。したがって、三次元OCT画像を仮想画像として顕微鏡画像に融合するために、新たなレジストレーション、融合方法及び撮像システムを導入する必要がある。
本発明は上記従来の技術における不足に対して、光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム及び方法を提供するという技術的問題を解決しようとする。
上記技術的問題を解決するために、本発明は、光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システムであって、
術野の二次元顕微鏡画像を収集するための手術顕微鏡手段と、
術野のOCT三次元画像を収集するための光コヒーレンス断層手段と、
術野の二次元顕微鏡画像、OCT三次元画像、及び術野の二次元顕微鏡画像とOCT三次元画像とを融合した画像を取得するための処理制御手段と、
前記処理制御手段の結果を表示して出力し、手術中のナビゲーションを行うための表示手段と、を含む光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システムであって、
手術顕微鏡手段により捕捉可能であり、前記光コヒーレンス断層手段のOCT走査光源と同期したガイドスポットを術野に投射するためのガイド光源をさらに含む光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システムが採用される。
好ましくは、手術照明手段と、前記手術顕微鏡手段の撮像光路に沿って順次に設けられた対物レンズ、分光手段及び光学変倍手段をさらに含み、
前記手術照明手段は術野に照明光を提供するためのものであり、術野で反射された照明光は前記対物レンズ、前記分光手段、前記光学変倍手段を順次に経た後に前記手術顕微鏡手段に入り、術野の二次元顕微鏡撮像を実現し、
前記ガイド光源及び前記光コヒーレンス断層手段のOCT走査光源から発した光線は前記分光手段及び前記対物レンズを順次に経た後に術野に到達し、術野で反射されたOCT走査光は元の経路に沿って前記光コヒーレンス断層手段までに戻り、OCT三次元撮像を実現し、術野で反射されたガイド光は前記分光手段を経た後に、一部が前記光コヒーレンス断層手段に入り、他の一部が前記手術顕微鏡手段に入る。
好ましくは、前記手術顕微鏡手段は左、右撮像レンズを含む撮像レンズと、左、右カメラを含むカメラとを含み、前記左撮像レンズ及び左カメラは対応して左顕微鏡撮像モジュールを構成し、前記右撮像レンズ及び右カメラは対応して右顕微鏡撮像モジュールを構成する。
好ましくは、前記分光手段は前記光コヒーレンス断層手段の光を全反射し、前記ガイド光源の光を半透過半反射し、前記手術照明手段の光を全透過するダイクロイックミラーである。
好ましくは、前記光コヒーレンス断層手段はOCT走査光源、第1のカプラ、波長分割マルチプレクサ、第1のコリメータ、二次元ガルバノスキャ、第2のコリメータレンズ、反射ミラー、第3のコリメータ、第2のカプラ及びバランス検波器を含み、
前記OCT走査光源から発したOCT走査ビームは前記第1のカプラによってサンプル光と参照光との二股に分岐され、
前記ガイド光源から発したガイド光と前記サンプル光は前記波長分割マルチプレクサによって合流されてから、一緒に前記第1のコリメータを経た後に二次元ガルバノスキャに入射して偏向し、その後、前記ダイクロイックミラーで反射された後に前記対物レンズにより術野にピントが合うようになり、
術野で反射されたサンプル光及び一部のガイド光は前記ダイクロイックミラーで反射された後に元の経路に沿って戻り、前記第1のカプラを経た後に前記第2のカプラの一端に到達し、術野で反射された他方のガイド光は対物レンズを経た後に前記ダイクロイックミラーを透過し、さらに前記光学変倍手段を経た後に、それぞれ前記左撮像レンズ及び前記右撮像レンズを経てからそれぞれ前記左カメラ及び前記右カメラに入り、
前記第1のカプラを経た後に射出された参照光は順次に前記第2のコリメータレンズ、反射ミラー、第3のコリメータを経た後に前記第2のカプラの一端に到達し、該箇所に到達した術野で反射されたサンプル光及び他方のガイド光と共に前記第2のカプラに入り、干渉を行った後に前記バランス検波器によって受けられ、最後に前記処理制御手段に出力され、OCT三次元撮像を実現し、
前記手術照明手段から発した照明ビームが術野に照射された後、術野で反射された照明光と一部のガイド光は前記ダイクロイックミラーを透過した後、さらに前記光学変倍手段を経た後に前記左顕微鏡撮像モジュール及び前記右顕微鏡撮像モジュールに入り、最後に前記処理制御手段に出力し、術野の二次元顕微鏡撮像を実現し、
前記処理制御手段は術野の二次元顕微鏡画像とOCT三次元画像に対してレジストレーション及び融合を行い、かつ前記表示手段によって表示して出力され、手術中のナビゲーションを行う。
好ましくは、前記表示手段は左顕微鏡撮像モジュールにおける二次元顕微鏡画像とOCT三次元画像とを融合した画像、及び右顕微鏡撮像モジュールにおける二次元顕微鏡画像とOCT三次元画像とを融合した画像をそれぞれ出力するための立体視覚効果を有する偏光表示パネルである。
上記に記載のシステムを用いて撮像を行う光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法であって、
手術顕微鏡手段のカメラが術野及びガイドスポットを明瞭に観察し、術野の顕微鏡画像を収集できるように、手術照明手段とガイド光源の出力強度及び焦点位置を調整するステップ1と、
カメラによって収集された顕微鏡画像の二次元平面をx、y軸とし、顕微鏡二次元直角座標系Ox00を確立し、ガイドスポットの画像での位置に応じてガイドスポットの顕微鏡座標系での座標を取得し、これを基準点として、OCT三次元走査領域内に、二次元ガルバノスキャの偏向角度を変更し、一連の異なる基準点の座標を取得し、{A1、A2…An}と記すステップ2と、
複数の連続的な隣接位置のOCTスライスデータを一つのボリュームデータとし、OCT深さ走査方向をz軸とし、二次元ガルバノスキャの走査方向をx、y軸とし、三次元直角座標系Ox000を確立し、OCT座標系と呼ばれ、撮像領域に対してOCT三次元走査を一回行い、ステップ2におけるガイド光投射位置に対応するガルバノミラーの偏向角度が既知であるため、ステップ2におけるガイドスポット位置に対応するOCT標準系におけるx1、y1座標値が既知であり、この時にOCT断層構造に基づいてガイドスポットが位置する境界を見つけると、ステップ2におけるガイドスポットのOCT座標系におけるz1座標値を取得することができ、最終的に顕微鏡二次元直角座標系Ox00における基準点{A1、A2…An}に対応するOCT座標系における座標{B1、B2…Bn}を得るステップ3と、
{A1、A2…An}と{B1、B2…Bn}をフィッティングし、OCT座標系から顕微鏡二次元直角座標系への変換関係、即ちその座標変換に対応するホモグラフィ行列を取得し、カメラを標定することによりその内部パラメータを得て、さらに行列演算によりカメラの外部パラメータを得るステップ4と、
手術照明手段の強度を調整すると同時に、術野に対してOCT三次元走査を開始するステップ5と、
ステップ4で得られた顕微鏡の外部パラメータに応じてOCTの三次元再構成部分の仮想カメラパラメータを設定し、レジストレーション後のOCTの三次元再構成画像を得て、最後に術野の顕微鏡画像と重畳して、仮実画像の融合表示を完了するステップ6と、
OCT走査に伴って入力されたボリュームデータを絶えずに更新し、ステップ6を繰り返し、全ての二次元構造図を術野の三次元断層モデルに再構成し、かつ表示手段によって表示させ、術野の顕微鏡画像に対するリアルタイムな拡張を実現するステップ7と、
を含む。
好ましくは、左、右カメラに対応してそれぞれの顕微鏡座標系をそれぞれ確立する必要があり、さらにそれぞれOCT画像とレジストレーション及び融合する。
好ましくは、基準点の位置を設定する場合、二次元ガルバノスキャの偏向角度は走査範囲内の任意の値ではなく、OCT三次元走査時の値である。
好ましくは、ステップ2)に必要な基準点の数がnであり、ただし、n≧6である。
本発明の効果は二次元顕微鏡画像とOCT三次元画像とを高精度にレジストレーション及び融合することができ、術野の顕微鏡画像のリアルタイムな拡張を実現し、手術の進行のために、より直感的なナビゲーション情報を提供することができ、直感的な手術ガイドを実現することにある。
図1は本発明の一実施例における撮像システムの構成の概略ブロック図である。 図2は本発明の一実施例における撮像システムの構造の詳細図である。 図3は本発明の一実施例における画像融合のフローチャートである。 図4は本発明の一実施例における座標系確立、基準点設定及び探索の概略図である。 図5は本発明の一実施例に示された指顕微鏡画像とOCT画像の融合過程及び結果である。 図6は本発明の一実施例に示された各座標系の空間での関係の概略図である。
以下、実施例を組合わせて本発明をさらに詳細に説明することにより、当業者は明細書の文字を参照して実施することができる。
本明細書に使用される「有する」、「含む」及び「含んでいる」という用語は一つ又は複数の他の素子又はその組み合わせの存在又は追加を排除するものではないことが理解される。
図1~2に示すように、本実施例の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システムであって、
術野1の二次元顕微鏡画像を収集するための手術顕微鏡手段7と、
術野1のOCT三次元画像を収集するための光コヒーレンス断層手段3と、
手術顕微鏡手段7により捕捉可能であり、光コヒーレンス断層手段3のOCT走査光源と同期したガイドスポットを術野1に投射するために使用され、それから発した光はOCT光に同軸であるガイド光源4と、
術野1の二次元顕微鏡画像、OCT三次元画像、及び術野1の二次元顕微鏡画像とOCT三次元画像とを融合した画像を取得するための処理制御手段8と、
処理制御手段8の結果を表示して出力し、手術中のナビゲーションを行うための表示手段9と、
を含む。
ここで、手術顕微鏡撮像システムは手術照明手段10と、手術顕微鏡手段7の撮像光路に沿って順次に設けられた対物レンズ2、分光手段5及び光学変倍手段6をさらに含み、
手術照明手段10は術野1に照明光を提供するためのものであり、術野1で反射された照明光は対物レンズ2、分光手段5及び光学変倍手段6を順次に経た後に手術顕微鏡手段7に入り、術野1の二次元顕微鏡撮像を実現し、
ガイド光源4及び光コヒーレンス断層手段3のOCT走査光源から発した光線は分光手段5及び対物レンズ2を順次に経た後に術野1に到達し、術野1で反射されたOCT走査光は元の経路に沿って光コヒーレンス断層手段3までに戻り、OCT三次元撮像を実現し、術野1で反射されたガイド光は分光手段5を経た後に、一部が光コヒーレンス断層手段3に入り、他の一部が手術顕微鏡手段7に入る。
ここで、手術顕微鏡手段7は対物レンズ2を介して術野1に二次元撮像を行うためのものであり、光コヒーレンス断層手段3は対物レンズ2を介して術野1に二次元走査を行いかつ光コヒーレンス断層の縦方向断層能力により術野1の三次元断層撮像を実現するものである。手術顕微鏡手段7、光コヒーレンス断層手段3は、対物レンズ2の軸上領域を介して同軸撮像するように配置されている。ガイド光源4はOCT走査と同軸のガイドスポット光源を術野1に投射するためのものであり、最終的に手術顕微鏡手段7のカメラにより捕捉可能である。分光手段5は顕微鏡手段、光コヒーレンス断層手段3及びガイド光源4から出力された光に対して分光及び協力を行い、異なる波長の光の結合及び分離を実現するためのものである。光学変倍手段6は手術顕微鏡手段7の光学を拡大し、異なる撮像解像度を実現するためのものである。処理制御手段8は各構成要素の作動を協調し、かつナビゲーション情報を取得するためのものであり、ナビゲーション情報は術野1の二次元顕微鏡画像(高解像度の術野1の表面顕微鏡結果)、OCT三次元画像(手術器具と組織内部構造を含む光コヒーレンス断層三次元撮像結果)、及び上記両者を融合した撮像結果を含む。出力手段は立体偏光ディスプレイであり、術中の手術器具、術野1の組織に対して三次元リアルタイム監視を行うために、左、右の二重ナビゲーション情報を出力することができる。手術照明手段は、対物レンズ2を介して術野1を均一に照明する。
ここで、手術顕微鏡手段7は左、右撮像レンズ701、702を含む撮像レンズと、左、右カメラ703、704を含むカメラとを含み、左撮像レンズ701及び左カメラ703は対応して左顕微鏡撮像モジュールを構成し、右撮像レンズ702及び右カメラ704は対応して右顕微鏡撮像モジュールを構成する両眼手術顕微鏡手段7である。手術顕微鏡手段7は対物レンズ2を介して術野1を二次元撮像し、二つのカメラにより術野1を二次元撮像するためのものである。
本実施例において、手術顕微鏡手段7は手術が行われる領域に広視野の二次元撮像を行うように配置され、術野1をカメラによってデジタル画像に変換し、かつ表示手段9により表示することができる。例えば、手術照明手段10の光は対物レンズ2の近軸を経た後に術野1に均一に照明され、照明光束は術野1で反射された後に対物レンズ2の主軸、分光手段5、光学変倍手段6を経て顕微手術顕微鏡手段7に入り、手術操作者は術野1の画像が融合した後の両眼立体視覚画像を表示手段9で直接観察することができる。
本実施例において、光コヒーレンス断層手段3は術野1に対して二次元走査を行い、光コヒーレンス断層技術の縦方向断層能力により術野1の三次元画像を得るように配置される。例えば、光コヒーレンス断層手段3の撮像ビームは対物レンズ2を介して術野1に到達し、撮像ビームは術野1で反射された後に対物レンズ2、分光手段5を経た後に光コヒーレンス断層手段3に戻る。光コヒーレンス断層手段3は検出されたコヒーレンス信号を電気信号に変換することができ、処理制御手段で三次元再構成を行い、それぞれ顕微鏡のデュアルビューとストレーションを行った後、左右眼のビューを取得して手術顕微鏡手段7によって取得された両眼画像と融合させる。処理された後に表示手段9にて双方向出力を行い、術者は表示手段9にて術野1が立体感効果を有する顕微鏡画像とOCT三次元断層画像を同期観察することができることにより、手術器具と組織内部構造の三次元空間における位置を位置決めする。
さらに好ましい実施例では、分光手段5は光コヒーレンス断層手段3の光を全反射し、ガイド光源4の光を半透過半反射し、手術照明手段10の光を全透過するダイクロイックミラー501である。
光コヒーレンス断層手段3はOCT走査光源(本実施例において、具体的には、スイープレーザ301)、第1のカプラ302、波長分割マルチプレクサ303、第1のコリメータ304、二次元ガルバノスキャ305、第2のコリメータレンズ306、反射ミラー307、第3のコリメータ308、第2のカプラ309及びバランス検波器310を含み、
OCT走査光源から発したOCT走査ビームは第1のカプラ302によってサンプル光と参照光との二股に分岐され、
ガイド光源4から発したガイド光とサンプル光は波長分割マルチプレクサ303によって合流されてから、一緒に第1のコリメータ304を経た後に二次元ガルバノスキャ305に入射して偏向し、その後、ダイクロイックミラー501で反射された後に対物レンズ2によって術野1にピントが合うようになり、
術野1で反射されたサンプル光及び一部のガイド光はダイクロイックミラー501で反射された後に元の経路に沿って戻り、第1のカプラ302を経た後に第2のカプラ309の一端に到達し、術野1で反射された他方のガイド光は対物レンズ2を経た後にダイクロイックミラー501を透過し、さらに光学変倍手段6を経た後に、それぞれ左撮像レンズ701及び右撮像レンズ702を経てからそれぞれ左カメラ703及び右カメラ704に入り、
第1のカプラ302を経た後に射出された参照光は順次に第2のコリメータレンズ306、反射ミラー307、第3のコリメータ308を経た後に第2のカプラ309の一端に到達し、該箇所に到達した術野1で反射されたサンプル光及び他方のガイド光と共に第2のカプラ309に入り、干渉を行った後にバランス検波器310によって受けられ、最後に処理制御手段8に出力され、OCT三次元撮像を実現し、
手術照明手段10から発した照明ビームが術野1に照射された後、術野1で反射された照明光と一部のガイド光はダイクロイックミラー501を透過した後、さらに光学変倍手段6を経た後に左顕微鏡撮像モジュール及び右顕微鏡撮像モジュールに入り、最後に処理制御手段8に出力し、術野1の二次元顕微鏡撮像を実現し、
処理制御手段8は術野1の二次元顕微鏡画像とOCT三次元画像に対してレジストレーション及び融合を行い、かつ表示手段9によって表示して出力され、手術中のナビゲーションを行う。
ここで、表示手段9は、それぞれ左、右両視路のそれぞれの融合画像(左顕微鏡撮像モジュールにおける二次元顕微鏡画像とOCT三次元画像とを融合した画像、及び右顕微鏡撮像モジュールにおける二次元顕微鏡画像とOCT三次元画像とを融合した画像)をそれぞれ出力するための立体視覚効果を有する偏光表示パネルである。
ガイド光源4及び照明光手段は処理制御手段によって制御されることができ、カメラが必要に応じて効果が最適な術野1の画像を取得することができるか、又は術野1及びガイドスポットの画像を同時に識別することができるように、光強度を制御する。
本発明は上記実施例に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システムを用いて撮像を行う光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法をさらに開示する。
ここで、顕微鏡画像及びOCT三次元画像を収集して融合し、具体的な操作方法は以下のとおりである。
OCT信号処理は、バランス検出器310から収集されたコヒーレンス信号は、復調されてから減平均、窓掛け、逆高速フーリエ変換、モジュロ値を一々含むと、コヒーレンス信号の深さ領域での強度情報を取得する。次に手術の需要に応じて術野1の組織の内部構造情報を抽出することができ、ここで構造図マッピングは、対数マッピング、輝度、コントラストマッピング、8ビットグレースケールマップマッピングを含む。構造図に基づいて、内部構造の表示に影響を与える無効情報、例えば不透明表層などをフィルタリングし、OCT画像における有効手術情報、例えば組織下手術器具、目標組織などを保留し、取得された新たな画像は後の三次元再構成の入力に用いられる。
OCT生データは上記した処理が行なわれた後、左カメラ703、右カメラ704によって収集された画像とそれぞれ融合する。ここで融合するOCT画像を事前にレジストレーションする必要があり、かつ手術ナビゲーションシステムの撮像に関連するパラメータ、例えばOCT走査方向、顕微鏡撮像倍率などを変更するたびに、再レジストレーションする必要がある。
図3を参照すると、本実施例の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法は、
手術顕微鏡手段7のカメラが術野1及びガイドスポットを明瞭に観察し、術野1の顕微鏡画像を収集できるように、手術照明手段10とガイド光源4の出力強度及び焦点位置を調整するステップ1と、
カメラによって収集された顕微鏡画像の二次元平面をx、y軸とし、顕微鏡二次元直角座標系Ox00を確立し、ガイドスポットの画像での位置に応じてガイドスポットの顕微鏡座標系での座標を取得し、これを基準点として、OCT三次元走査領域内に、二次元ガルバノスキャ305の偏向角度を変更し、一連の異なる基準点の座標を取得し、{A1、A2…An}(図4の左に示されるように、図面において、A1、A2、A3しか示されていない)と記すステップ2と、
複数の連続的な隣接位置のOCTスライスデータを一つのボリュームデータとし、OCT深さ走査方向をz軸とし、二次元ガルバノスキャ305の走査方向をx、y軸とし、三次元直角座標系Ox000を確立し、OCT座標系と呼ばれ、撮像領域に対してOCT三次元走査を一回行い、ステップ2におけるガイド光投射位置に対応するガルバノミラーの偏向角度が既知であるため、ステップ2におけるガイドスポット位置に対応するOCT標準系におけるx1、y1座標値が既知であり、この時にOCT断層構造に基づいてガイドスポットが位置する境界を見つけると、ステップ2におけるガイドスポットのOCT座標系におけるz1座標値を取得することができ、最終的に顕微鏡二次元直角座標系Ox00における基準点{A1、A2…An}に対応するOCT座標系における座標{B1、B2…Bn}(図4の右に示されるように、図面において、B1、B2、B3しか示されていない)を得るステップ3と、
{A1、A2…An}と{B1、B2…Bn}をフィッティングし、OCT座標系から顕微鏡二次元直角座標系への変換関係、即ちその座標変換に対応するホモグラフィ行列を取得し、カメラを標定することによりその内部パラメータを得て、さらに行列演算によりカメラの外部パラメータを得るステップ4と、
手術照明手段10の強度を一般的な手術顕微鏡撮像輝度まで調整すると同時に、術野1に対してOCT三次元走査を開始するステップ5と、
ステップ4で得られた顕微鏡の外部パラメータに応じてOCTの三次元再構成部分の仮想カメラパラメータを設定し、レジストレーション後のOCTの三次元再構成画像を得て、最後に術野1の顕微鏡画像と重畳して、仮実画像の融合表示を完了するステップ6と、
OCT走査に伴って入力されたボリュームデータを絶えずに更新し、ステップ6を繰り返し、全ての二次元構造図を術野1の三次元断層モデルに再構成し、かつ表示手段9によって表示させ、術野1の顕微鏡画像に対するリアルタイムな拡張を実現するステップ7と、
を含む。
ここで、上記ステップを行う場合、左、右カメラ703、704に対応し、それぞれの顕微鏡座標系を確立する必要があり、さらにそれぞれOCT画像とレジストレーション及び融合を行い、両眼立体視覚効果を有する画像融合結果を取得する。
ここで、基準点位置を設定する時、二次元ガルバノスキャ305の偏向角度はOCT三次元走査時の値であり、走査範囲内の任意の値ではない。
ここで、システム撮像関連パラメータ(例えばOCT走査方向、顕微撮像倍率など)が変化する場合、上記ステップを改めて行う必要がある。
ここで、三次元再構成に関与するOCT二次元画像は組織下手術器具、目標組織等のような有効情報のみを含むべきであり、かつ上方の無効情報、例えば不透明組織表層等に遮られることはない。該画像はOCT二次元構造図から抽出される。
ここで、ステップ2)に必要な基準点の数がnであり、ただし、n≧6である。
図5は単一のカメラによって収集された指顕微鏡画像とOCT画像との融合のフローチャートを示し、顕微鏡画像を収集する過程において光をオンにするようにガイドし、ガルバノミラーが静止状態である。図の上部の左から右までOCT座標系での三次元OCT画像を示し、顕微鏡座標系でカメラによって収集された画像であり、Aiはスポットをガイドする顕微鏡座標であり、BiはスポットをガイドするOCT座標である。図の下部は顕微鏡画像とレジストレーションされた三次元OCT画像との重畳過程を示し、かつ融合後の結果を示す。
上記ステップ4は拡張現実における仮実レジストレーション過程であり、一実施例において、それが採用する具体的な原理及び方法は以下のとおりである。
図4に示すように、Ox111はOCT座標系であり、かつ世界座標系とし、即ち客観世界の絶対座標系とする。三次元直角座標系Oxcccはカメラ座標系であり、原点がカメラの光学中心に位置し、zcは光軸と重なる。Ox00は顕微鏡座標系である。図6を参照することができ、Ox111~Ox00の撮像変換は以下のように記述することができる。
OCT座標系からカメラ座標系への変換関係はXcである。
Figure 0007350103000001
ここで、Rは回転変換を記録した回転行列であり、tは三次元平行移動ベクトルである。Twはカメラの世界座標系に対する位置及び方向を含むため、カメラ外部パラメータと呼ばれる。
カメラ座標系から顕微鏡座標系への変換関係はZ0である。
Figure 0007350103000002
dx、dyは顕微鏡画像画素点のx、y軸での物理的距離、fは顕微鏡平面からカメラ焦点面までの距離、a、bはカメラ主点の顕微鏡座標系での座標、αx、αyは画素アスペクト比であり、かつαx=f/dx、αy=f/dyである。Kはカメラ内部構造のみに関連するため、カメラ内部パラメータである。式(1)と式(2)によりOCT座標系から顕微鏡座標系への変換関係を得ることができる。
Figure 0007350103000003
ステップ4における各対の点Ai及びBiに対して、
i=PBi,P=KTw=K[R|t] (4)
Pは3*4行列であり、少なくとも6対のAi及びBiによりPを求めることができる。Pは以下に記述することができる。
P=KTw=K[R|t]=[KR|Kt]=[M|Kt] (5)
回転行列Rは直交行列であるため、
MMT=KRRTT=KKT(6)
ここで、上付き文字Tは行列転置であり、また、Kは上三角行列であるため、K、Rを求めることができる。tは以下の式で求めることができる。
t=K-1(P142434T(7)
ここで、Pの添え字は行列の行及び列である。ここまで、カメラの外部パラメータTwと内部パラメータKが全て求められ、即ちOCT座標系から顕微鏡二次元直角座標系への変換関係が得られる。
上記三次元再構成操作フローは、複数の連続的な隣接位置のOCTスライスデータを一つのボリュームデータとして三次元再構成部分に入力し、ボリュームレンダリングアルゴリズムに基づいて、全ての二次元構造図を術野1の三次元断層モデルに再構成する。双方向の画像融合結果は最終的に立体偏光ディスプレイにより出力される。
本発明の実施形態は以上のように開示されているが、明細書及び実施形態で列挙されたもののみに限定されるものではなく、本発明に適する種々な分野に完全に適用可能であり、当業者にとって、他の変更を容易に実現することができるため、特許請求の範囲及びその等価物に限定された一般的な概念を逸脱しない範囲で、本発明は特定の詳細に限定されない。
1 術野、2 対物レンズ、3 光コヒーレンス断層分析手段、4 ガイド光源、5 分光手段、6 光学変倍手段、7 手術顕微鏡手段、8 処理制御手段、9 表示手段、10 手術照明手段、301 スイープレーザ、302 第1のカプラ、303 波長分割マルチプレクサ、304 第1のコリメータ、305 二次元ガルバノスキャ、306 第2のコリメータレンズ、307 反射ミラー、308 第3のコリメータ、309 第2のカプラ、310 バランス検波器、501 ダイクロイックミラー、701 左撮像レンズ、702 右撮像レンズ、703 左カメラ、704 右カメラ

Claims (9)

  1. 術野の二次元顕微鏡画像を収集するための手術顕微鏡手段と、
    術野のOCT三次元画像を収集するための光コヒーレンス断層手段と、
    術野の二次元顕微鏡画像、OCT三次元画像、及び術野の二次元顕微鏡画像とOCT三次元画像とを融合した画像を取得するための処理制御手段と、
    前記処理制御手段の結果を表示して出力し、手術中のナビゲーションを行うための表示手段と、を含む光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システムであって、
    手術顕微鏡手段により捕捉可能であり、前記光コヒーレンス断層手段のOCT走査光源と同期したガイドスポットを術野に投射するためのガイド光源をさらに含み、
    前記光コヒーレンス断層手段はOCT走査光源、第1のカプラ、波長分割マルチプレクサ、第1のコリメータ、二次元ガルバノスキャ、第2のコリメータレンズ、反射ミラー、第3のコリメータ、第2のカプラ及びバランス検波器を含み、
    前記OCT走査光源から発したOCT走査ビームは前記第1のカプラによってサンプル光と参照光との二股に分岐され、
    前記ガイド光源から発したガイド光と前記サンプル光は前記波長分割マルチプレクサによって合流されてから、一緒に前記第1のコリメータを経た後に二次元ガルバノスキャに入射して偏向し、その後、ダイクロイックミラーで反射された後に対物レンズにより術野にピントが合うようになり、
    術野で反射されたサンプル光及び一部のガイド光は前記ダイクロイックミラーで反射された後に元の経路に沿って戻り、前記第1のカプラを経た後に前記第2のカプラの一端に到達し、術野で反射された他方のガイド光は対物レンズを経た後に前記ダイクロイックミラーを透過し、さらに光学変倍手段を経た後に、それぞれ左撮像レンズ及び右撮像レンズを経てからそれぞれ左カメラ及び右カメラに入り、
    前記第1のカプラを経た後に射出された参照光は順次に前記第2のコリメータレンズ、反射ミラー、第3のコリメータを経た後に前記第2のカプラの一端に到達し、該箇所に到達した術野で反射されたサンプル光及び他方のガイド光と共に前記第2のカプラに入り、コヒーレンスを行った後に前記バランス検波器によって受けられ、最後に前記処理制御手段に出力され、OCT三次元撮像を実現し、
    術照明手段から発した照明ビームが術野に照射された後、術野で反射された照明光と一部のガイド光は前記ダイクロイックミラーを透過した後、さらに前記光学変倍手段を経た後に左顕微鏡撮像モジュール及び右顕微鏡撮像モジュールに入り、最後に前記処理制御手段に出力し、術野の二次元顕微鏡撮像を実現し、
    前記処理制御手段は術野の二次元顕微鏡画像とOCT三次元画像に対してレジストレーション及び融合を行い、かつ前記表示手段によって表示して出力され、手術中のナビゲーションを行うことを特徴とする光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム。
  2. 手術照明手段と、前記手術顕微鏡手段の撮像光路に沿って順次に設けられた対物レンズ、分光手段及び光学変倍手段をさらに含み、
    前記手術照明手段は術野に照明光を提供するためのものであり、術野で反射された照明光は前記対物レンズ、前記分光手段、前記光学変倍手段を順次に経た後に前記手術顕微鏡手段に入り、術野の二次元顕微鏡撮像を実現し、
    前記ガイド光源及び前記光コヒーレンス断層手段のOCT走査光源から発した光線は前記分光手段及び前記対物レンズを順次に経た後に術野に到達し、術野で反射されたOCT走査光は元の経路に沿って前記光コヒーレンス断層手段までに戻り、OCT三次元撮像を実現し、術野で反射されたガイド光は前記分光手段を経た後に、一部が前記光コヒーレンス断層手段に入り、他の一部が前記手術顕微鏡手段に入ることを特徴とする請求項1に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム。
  3. 前記手術顕微鏡手段は左、右撮像レンズを含む撮像レンズと、左、右カメラを含むカメラとを含み、前記左撮像レンズ及び左カメラは対応して左顕微鏡撮像モジュールを構成し、前記右撮像レンズ及び右カメラは対応して右顕微鏡撮像モジュールを構成することを特徴とする請求項2に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム。
  4. 前記分光手段は前記光コヒーレンス断層手段の光を全反射し、前記ガイド光源の光を半透過半反射し、前記手術照明手段の光を全透過するダイクロイックミラーであることを特徴とする請求項3に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム。
  5. 前記表示手段は左顕微鏡撮像モジュールにおける二次元顕微鏡画像とOCT三次元画像とを融合した画像、及び右顕微鏡撮像モジュールにおける二次元顕微鏡画像とOCT三次元画像とを融合した画像をそれぞれ出力するための立体視覚効果を有する偏光表示パネルであることを特徴とする請求項1に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム。
  6. 請求項1-5のいずれか一項に記載のシステムを用いて撮像を行う光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法であって、
    手術顕微鏡手段のカメラが術野及びガイドスポットを明瞭に観察し、術野の顕微鏡画像を収集できるように、手術照明手段とガイド光源の出力強度及び焦点位置を調整するステップ1と、
    カメラによって収集された顕微鏡画像の二次元平面をx、y軸とし、顕微鏡画像の左上隅を原点とし、顕微鏡二次元直角座標系Ox00を確立し、ガイドスポットの画像での位置に応じてガイドスポットの顕微鏡座標系での座標を取得し、これを基準点として、OCT三次元走査領域内に、二次元ガルバノスキャの偏向角度を変更し、一連の異なる基準点の座標を取得し、{A1、A2…An}と記すステップ2と、
    複数の連続的な隣接位置のOCTスライスデータを一つのボリュームデータとし、OCT深さ走査方向をz軸とし、二次元ガルバノスキャの走査方向をx、y軸とし、三次元直角座標系Ox000を確立し、OCT座標系と呼ばれ、撮像領域に対してOCT三次元走査を一回行い、ステップ2におけるガイド光投射位置に対応するガルバノミラーの偏向角度が既知であるため、ステップ2におけるガイドスポット位置に対応するOCT標準系におけるx1、y1座標値が既知であり、この時にOCT断層構造に基づいてガイドスポットが位置する境界を見つけると、ステップ2におけるガイドスポットのOCT座標系におけるz1座標値を取得することができ、最終的に顕微鏡二次元直角座標系Ox00における基準点{A1、A2…An}に対応するOCT座標系における座標{B1、B2…Bn}を得るステップ3と、
    {A1、A2…An}と{B1、B2…Bn}をフィッティングし、OCT座標系から顕微鏡二次元直角座標系への変換関係、即ちその座標変換に対応するホモグラフィ行列を取得し、カメラを標定することによりその内部パラメータを得て、さらに行列演算によりカメラの外部パラメータを得るステップ4と、
    手術照明手段の強度を調整すると同時に、術野に対してOCT三次元走査を開始するステップ5と、
    ステップ4で得られた顕微鏡の外部パラメータに応じてOCTの三次元再構成部分の仮想カメラパラメータを設定し、レジストレーション後のOCTの三次元再構成画像を得て、最後に術野の顕微鏡画像と重畳して、仮実画像の融合表示を完了するステップ6と、
    OCT走査に伴って入力されたボリュームデータを絶えずに更新し、ステップ6を繰り返し、全ての二次元構造図を術野の三次元断層モデルに再構成し、かつ表示手段によって表示させ、術野の顕微鏡画像に対するリアルタイムな拡張を実現するステップ7と、
    を含むことを特徴とする光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法。
  7. 左、右カメラに対応してそれぞれの顕微鏡座標系をそれぞれ確立する必要があり、さらにそれぞれOCT画像とレジストレーション及び融合することを特徴とする請求項6に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法。
  8. 基準点の位置を設定する場合、二次元ガルバノスキャの偏向角度は走査範囲内の任意の値ではなく、OCT三次元走査時の値であることを特徴とする請求項6に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法。
  9. ステップ2)に必要な基準点の数がnであり、ただし、n≧6であることを特徴とする請求項6に記載の光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像方法。
JP2021578120A 2019-07-01 2019-10-28 光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム及び方法 Active JP7350103B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910583463.8A CN110638527B (zh) 2019-07-01 2019-07-01 基于光学相干层析增强现实的手术显微成像系统
CN201910583463.8 2019-07-01
PCT/CN2019/113695 WO2021000466A1 (zh) 2019-07-01 2019-10-28 基于光学相干层析增强现实的手术显微成像系统与方法

Publications (2)

Publication Number Publication Date
JP2022539784A JP2022539784A (ja) 2022-09-13
JP7350103B2 true JP7350103B2 (ja) 2023-09-25

Family

ID=69009392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021578120A Active JP7350103B2 (ja) 2019-07-01 2019-10-28 光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム及び方法

Country Status (5)

Country Link
US (1) US20220117696A1 (ja)
EP (1) EP3984486A4 (ja)
JP (1) JP7350103B2 (ja)
CN (1) CN110638527B (ja)
WO (1) WO2021000466A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111887992A (zh) * 2020-07-15 2020-11-06 中国科学院苏州生物医学工程技术研究所 基于光学相干层析成像的智能手术机器人系统
CN112237416A (zh) * 2020-09-10 2021-01-19 北京信息科技大学 一种基于视网膜表面血管特征的眼底多模态成像系统标定方法
CN111956192A (zh) * 2020-09-21 2020-11-20 佛山光微科技有限公司 一种oct断层成像探头、oct成像系统及成像方法
CN112043383B (zh) * 2020-09-30 2022-07-15 复旦大学附属眼耳鼻喉科医院 一种眼科手术导航系统及电子设备
CN112333428B (zh) * 2020-10-26 2022-08-30 浙大网新科技股份有限公司 基于ai实现的普通摄像头大视野监控处理方法与系统
CN112986286B (zh) * 2021-02-19 2022-09-30 天津大学 X射线双视野显微成像探测系统及其成像方法
CN113100941B (zh) * 2021-04-12 2022-03-08 中国科学院苏州生物医学工程技术研究所 基于ss-oct手术导航系统的图像配准方法及系统
CN113349928B (zh) * 2021-05-20 2023-01-24 清华大学 用于柔性器械的增强现实手术导航装置
JP2023105612A (ja) * 2022-01-19 2023-07-31 株式会社Screenホールディングス 画像表示方法、画像表示装置、プログラムおよび記録媒体
DE102022120201A1 (de) * 2022-08-10 2024-02-15 Carl Zeiss Meditec Ag System und Verfahren zur multimodalen Bilderfassung und -visualisierung
DE102022120203A1 (de) * 2022-08-10 2024-02-15 Carl Zeiss Meditec Ag System zum Erfassen und Visualisieren von OCT-Signalen
CN115429531B (zh) * 2022-09-02 2023-05-12 重庆贝奥新视野医疗设备有限公司 一种多功能眼前节手术导航显微镜系统及实现方法
CN115554020B (zh) * 2022-09-02 2023-05-16 重庆贝奥新视野医疗设备有限公司 一种眼科手术三维导航系统及实现方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006026015A (ja) 2004-07-14 2006-02-02 Fuji Photo Film Co Ltd 光断層画像取得システム
JP2015188757A (ja) 2014-03-27 2015-11-02 中国科学院光電技術研究所 光コヒーレンストモグラフィによる誘導に基づくマイクロサージェリーシステムおよびナビゲーション方法
US20170135573A1 (en) 2015-11-16 2017-05-18 Novartis Ag Binocular en face optical coherence tomography imaging
JP2018180119A (ja) 2017-04-06 2018-11-15 株式会社ニデック 生体観察システムおよび生体観察制御プログラム
JP2019502434A (ja) 2015-12-02 2019-01-31 ノバルティス アーゲー 眼の可視化における光干渉断層計の位置インジケータ

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69533903T2 (de) * 1994-08-18 2005-12-08 Carl Zeiss Meditec Ag Mit optischer Kohärenz-Tomographie gesteuerter chirurgischer Apparat
JPH1156772A (ja) * 1997-08-22 1999-03-02 Olympus Optical Co Ltd 光断層画像装置
JP5601612B2 (ja) * 2009-06-02 2014-10-08 株式会社ニデック 眼科撮影装置
US9532708B2 (en) * 2010-09-17 2017-01-03 Alcon Lensx, Inc. Electronically controlled fixation light for ophthalmic imaging systems
US20120184846A1 (en) * 2011-01-19 2012-07-19 Duke University Imaging and visualization systems, instruments, and methods using optical coherence tomography
CN103810709B (zh) * 2014-02-25 2016-08-17 南京理工大学 基于血管的眼底图像与sd-oct投影图像配准方法
US10213110B2 (en) * 2015-01-27 2019-02-26 Case Western Reserve University Analysis of optical tomography (OCT) images
US20180299658A1 (en) 2015-04-23 2018-10-18 Duke University Systems and methods of optical coherence tomography stereoscopic imaging for improved microsurgery visualization
US9560959B1 (en) * 2015-09-18 2017-02-07 Novartis Ag Control of scanning images during vitreoretinal surgery
GB2559090B (en) * 2015-11-03 2020-10-07 Synaptive Medical Barbados Inc Dual zoom and dual field-of-view microscope
US11071449B2 (en) * 2016-03-31 2021-07-27 Alcon Inc. Visualization system for ophthalmic surgery
CA3079936A1 (en) * 2017-12-12 2019-06-20 Alcon Inc. Combined near infrared imaging and visible imaging in a compact microscope stack
CN108577802B (zh) * 2018-05-18 2021-02-26 深圳市斯尔顿科技有限公司 结合oct成像的眼科手术显微镜系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006026015A (ja) 2004-07-14 2006-02-02 Fuji Photo Film Co Ltd 光断層画像取得システム
JP2015188757A (ja) 2014-03-27 2015-11-02 中国科学院光電技術研究所 光コヒーレンストモグラフィによる誘導に基づくマイクロサージェリーシステムおよびナビゲーション方法
US20170135573A1 (en) 2015-11-16 2017-05-18 Novartis Ag Binocular en face optical coherence tomography imaging
JP2019502434A (ja) 2015-12-02 2019-01-31 ノバルティス アーゲー 眼の可視化における光干渉断層計の位置インジケータ
JP2018180119A (ja) 2017-04-06 2018-11-15 株式会社ニデック 生体観察システムおよび生体観察制御プログラム

Also Published As

Publication number Publication date
EP3984486A4 (en) 2022-08-24
EP3984486A1 (en) 2022-04-20
WO2021000466A1 (zh) 2021-01-07
CN110638527A (zh) 2020-01-03
US20220117696A1 (en) 2022-04-21
JP2022539784A (ja) 2022-09-13
CN110638527B (zh) 2021-06-01

Similar Documents

Publication Publication Date Title
JP7350103B2 (ja) 光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム及び方法
JP7073450B2 (ja) 対象領域の観察画像の生成
US6304372B1 (en) Microscope including a fade-in element and related method of using a microscope
CN106535806B (zh) 来自多端口视角的手术场景的定量三维成像
JP2023073381A (ja) 同時の白色光及びハイパースペクトル光撮像システム
US5531520A (en) System and method of registration of three-dimensional data sets including anatomical body data
US20190212533A9 (en) Surgical microscope with integrated optical coherence tomography and display systems
JP7379704B2 (ja) 視覚化カメラ及び光学コヒーレンストモグラフィを統合するシステム及び方法
JP7404534B2 (ja) 一体化された視覚化カメラ及び光学コヒーレンストモグラフィを用いた外科的応用
JPH05215971A (ja) 計算器に支援された定位形けんび外科用の手術けんび鏡ならびにその操作法
JP7106804B2 (ja) 生体組織検査装置及びその方法
US11698535B2 (en) Systems and methods for superimposing virtual image on real-time image
CN110720986A (zh) 一种多模态显微外科手术导航系统
Schoob et al. Comparative study on surface reconstruction accuracy of stereo imaging devices for microsurgery
JP5027624B2 (ja) 画像処理方法および画像処理装置
US20240056558A1 (en) System and method for multimodal image acquisition and image visualization
US20240054717A1 (en) System for Acquiring and Visualizing OCT Signals
CN211409350U (zh) 激光手术系统
US20240070970A1 (en) Visualization system with stereo-volumetric intraoperative oct and stereoscopic camera
Babilon et al. High‐resolution depth measurements in digital microscopic surgery
JP2004016357A (ja) 手術用観察システム
JP2017012535A (ja) 眼科用顕微鏡
JP2022077565A (ja) 眼科撮影装置
WO2024018383A1 (en) Calibration of imaging system with combined optical coherence tomography and visualization module

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230912

R150 Certificate of patent or registration of utility model

Ref document number: 7350103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150