JP2019141578A - 脈管叢構造の弾性マッピングを用いた画像処理方法および画像処理装置 - Google Patents

脈管叢構造の弾性マッピングを用いた画像処理方法および画像処理装置 Download PDF

Info

Publication number
JP2019141578A
JP2019141578A JP2019024250A JP2019024250A JP2019141578A JP 2019141578 A JP2019141578 A JP 2019141578A JP 2019024250 A JP2019024250 A JP 2019024250A JP 2019024250 A JP2019024250 A JP 2019024250A JP 2019141578 A JP2019141578 A JP 2019141578A
Authority
JP
Japan
Prior art keywords
image data
intraoperative
preoperative
vascular plexus
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019024250A
Other languages
English (en)
Other versions
JP6972049B2 (ja
Inventor
テメリス ゲオルゲ
Themelis George
テメリス ゲオルゲ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Instruments Singapore Pte Ltd
Original Assignee
Leica Instruments Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Instruments Singapore Pte Ltd filed Critical Leica Instruments Singapore Pte Ltd
Publication of JP2019141578A publication Critical patent/JP2019141578A/ja
Application granted granted Critical
Publication of JP6972049B2 publication Critical patent/JP6972049B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0037Performing a preliminary scan, e.g. a prescan for identifying a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06T3/153
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3941Photoluminescent markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • A61B2090/3975Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
    • A61B2090/3979Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active infrared
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

【課題】画像処理方法および医用観察装置に関する。【解決手段】弾性マッチングされた術前三次元画像データを術中画像データと共に表示することにより、外科医は可視の表面階層下にある生体軟組織の一貫性を認識できるようになる。変形する可能性のある生体軟組織において手術が実施される場合には、画像誘導手術のための既存のシステムを手動で再調節しなければならない。これを避けるため、生体軟組織の術中画像データに基づき、術前三次元画像データの弾性マッチングを実施する。少なくとも1つの脈管叢構造が最初に術中画像データにおいて識別され、次いで同じ脈管叢構造が術前三次元画像データにおいて識別される。その後、術前三次元画像データにおける脈管叢構造が、術中画像データにおける脈管叢構造と弾性マッチングされる。弾性マッチングされた術前三次元画像データを術中画像データと組み合わせて、出力画像データが生成される。【選択図】図1

Description

本発明は、特に手術中にリアルタイムに、軟組織画像を表示するための画像処理方法および医用観察装置に関する。
近年、脳外科手術といった特定の種類の外科手術のために、画像誘導手術が一般的に用いられている。画像誘導手術は、手術領域に関する画像データの形態で記憶された術前三次元情報を使用する。かかる術前三次元画像データを例えば、磁気共鳴イメージングを用いて取得されたものとすることができる。手術中、術前情報が、手術すべき組織の目下の光学ビューと視覚的に整列させられる。術前三次元情報を用いれば、そうでなければ可視組織表面の下にあって見ることのできない腫瘍または脈管叢構造といった組織構造を視覚化することができる。
術前三次元情報の使用は、神経、動脈および静脈といった過敏な組織を避ける目的で、かつ/または腫瘍のような特定の組織を効果的に切除する目的で、外科医が組織の特定の領域を見つけてそこに到達するために役立つ。
術前三次元情報を外科医の目下のビューに整列させる目的で、患者体部に取り付けられた光学的または電磁的なマーカを検出するためのステレオ赤外線カメラまたはセンサが一般的に用いられる。
しかしながら、マーカに対し相対的に変位および変形する可能性がある軟組織上で手術が実施される場合には、これらの方法の空間精度は不十分である。
このため既存のシステムの場合には、手術中のあるポイントにおいて、外科医が術前三次元情報を手動で自身の目下のビューに整列させなければならない。これは時間を浪費するものであり、時間はあらゆる手術にとってクリティカルである。しかも外科医は手術から注意を逸らされてしまい、これも避けなければならないことである。
したがって本発明の課題は、たとえ手術中に変形および変位しやすい軟組織において手術が実施される場合であっても、画像誘導手術を実施できるようにする方法および装置を提供することにある。
本発明の方法によればこの課題は、特に手術中にリアルタイムに軟組織画像を表示するための、以下のステップを有する画像処理方法によって解決される。すなわちこの方法は、生体軟組織の術前三次元画像データを準備するステップと、可視光スペクトルと近赤外スペクトルとのうちの少なくとも一方において、生体軟組織の術中画像データを取得するステップと、少なくとも1つの脈管叢構造を術中画像データにおいて自動的に識別するステップと、少なくとも1つの識別された脈管叢構造を術前三次元画像データにおいて識別するステップと、術前三次元画像データの少なくとも一部を術中画像データにおける少なくとも1つの識別された脈管叢構造にマッピングすることによって、術前三次元画像データを術中画像データに弾性マッチングさせるステップと、弾性マッチングされた術前三次元画像データと術中画像データとから出力画像データを形成するステップと、を有する。
上述の課題を解決するため、特に手術中に生体軟組織を観察するための医用観察装置は、術前三次元画像データを有するメモリアセンブリと、可視光スペクトルと近赤外スペクトルとのうちの少なくとも一方において術中画像データを取得するためのカメラアセンブリと、画像プロセッサアセンブリと、出力画像データを出力するための出力インタフェースとを有しており、この場合、画像プロセッサアセンブリは、少なくとも1つの脈管叢構造を術中画像データにおいて識別するための、および少なくとも1つの識別された脈管叢構造を術前三次元画像データにおいて識別するための、パターンマッチングモジュールと、少なくとも1つの識別された脈管叢構造に基づき、術前三次元画像データを術中画像データに弾性マッチングさせるためのマッチングモジュールと、弾性マッチングされた術前三次元画像データを術中画像データと組み合わせて出力画像データを形成するための画像形成モジュールと、を有する。
本発明による方法および装置によって、たとえ組織が体内で変形および移動しても、術前画像データを術中画像データに手動で整列し直す必要なく、軟組織において画像誘導手術を継続的に実施できるようになる。その理由は、術前三次元画像データを弾性マッチングさせるために用いられる構造は、軟組織の一部分でありしたがって軟組織と共に変形および移動する構造だからである。よって、術前三次元画像データは、外科医が目下見ているものに継続的にマッピングされる。実際には、外科医が利用可能な視覚情報自体が、術前三次元画像データを整列させるために用いられる。
本発明による画像処理方法および医用観察装置を、以下の特徴のうちの1つまたは複数を加えることによって改良することができる。以下の特徴各々を、他の特徴とは無関係に加えることができる。以下の特徴各々は、それらに固有の有利な技術的効果を有する。さらに以下の特徴をすべて、方法および装置の双方に等しく加えることができる。
また、上述のモジュールを、ソフトウェア、ハードウェアまたはソフトウェアとハードウェア双方の組み合わせとして実装することができる。さらに固有のモジュール間の相違点は、主として機能的なことである。したがってそれぞれ異なるモジュールを、単一または複数の電気的な構成要素および/または単一の論理単位例えば単一のサブルーチンから成るものとすることができる。
出力画像データをディスプレイアセンブリにおいて表示することができ、これを医用観察装置の一部とすることができる。
弾性マッチングさせるステップは、Gee, J. C., Reivich, M.およびBajcsy, R.による“Elastically Deforming a Three-Dimensional Atlas to Match Anatomical Brain Images” (1993). IRCS Technical Reports Series. 192に記載されているような技術を含むことができる。脈管叢構造を識別するステップは、Suri, J.S., Laxminarayan, S.編による"Angiography and Plaque Imaging: Advanced Segmentation Techniques", CRC Press, 2003 501〜518頁、およびRouchdy, Y., Cohen, L.による"A Geodesic Voting Method of Tubular Tree and Centrelines”, DOI: 10.1109/ISBI.2011.5872566, 2011 979〜983頁に記載されているような方法を使用することができる。マッチングモジュールを特に、これらの参考文献のいずれかに記載されているマッチングルーチンを実行するように構成することができる。
1つの実施形態によれば、少なくとも1つの脈管叢構造の識別を、好ましくはもっぱら術中蛍光発光画像データを用いて実施することができる。かかる蛍光発光画像データを、インドシアニングリーンなどのような蛍光体を組織中に注入することによって、取得することができる。カメラアセンブリは、通過帯域が蛍光体の蛍光スペクトルに制限されているバンドパスフィルタアセンブリなどのような光学フィルタアセンブリを有することができる。蛍光体は血液によって搬送されるので、蛍光発光画像において脈管叢構造をいっそう簡単に規定することができる。医用観察装置は、蛍光体の蛍光をトリガする波長の光を含む照射スペクトルをもつ照射アセンブリを有することができる。照射スペクトルを、これらの蛍光トリガ波長に制限することができる。
別の実施形態によれば、術中画像データは、白色光画像データと蛍光発光画像データの双方を含むことができる。外科医が自分自身の眼で見ているものを表す出力画像データを外科医に呈示するために、白色画像データを使用することができる。この目的で照射スペクトルは、可視スペクトル特に白色光の波長を有することもできる。
医用観察装置を、顕微鏡と内視鏡のうちの一方とすることができる。
術中画像データを、二次元、三次元または多次元のデータとすることができる。三次元の術中画像データを例えば、zスタックまたは立体視設定を用いる顕微鏡によって、あるいはSCAPE顕微鏡またはSPIM顕微鏡によって、取得することができる。
例えば2台以上のカメラ、1台のマルチスペクトルカメラおよび/または1台のハイパースペクトルカメラを用いて、4つ以上のそれぞれ異なる波長帯域において同時に、術中画像データを記録することができる。
弾性マッピングは、術前三次元画像データにおいて識別された少なくとも1つの脈管叢構造を、術中画像データにおいて識別された少なくとも1つの対応する脈管叢構造に弾性マッチングさせるステップを含むことができ、またはこのステップから成るものとすることができる。少なくとも1つの脈管叢構造に対して用いられるマッピングを、術前三次元画像データの残りの部分に対して用いることができる。
術中画像データへの術前三次元画像データのマッピングの精度および信頼性は、少なくとも1つの脈管叢構造をどのくらい正確に認識できるのかに左右される。上述の記載ですでに述べたように、蛍光体が配置されているため高い蛍光発光強度を有する領域を用いて、蛍光発光術中画像データに対してパターン認識を実施することができる。
別の実施形態による方法は、術中画像データ内で少なくとも1つの動脈脈管叢構造を識別するステップ、および/または術中画像データ内で少なくとも1つの静脈脈管叢構造を識別するステップ、を有することができる。脈管叢構造のタイプを識別するために、かつそれぞれ異なるタイプの脈管叢構造がそれぞれ異なる擬似カラーでマーキングされた出力画像データを生成するために、欧州特許出願第17174047.5号明細書(EP 17 174 047.5)に記載されたシステムおよび方法を使用することができる。この出願をここで参照したことにより、その内容全体が本願に取り込まれたものとする。
これに加え、または別の選択肢として、例えばマルチスペクトルカメラおよび/またはハイパースペクトルカメラによって、複数の別個の波長のうちの少なくとも1つにおいて取得された術中画像データを用いて、少なくとも1つの脈管叢構造を識別することができる。動脈血または静脈血、または個々の血管のうちの少なくとも1つの分布を示すために、マルチスペクトルおよび/またはハイパースペクトルの術中画像データを、分離および/または処理することができる。少なくとも1つの脈管叢構造を識別するための方法および装置については例えば、Matthew B. Bouchard, Brenda R. Chen, Sean A. BurgessおよびElizabeth M. C. Hillmanによる"Ultra-fast multispectral optical imaging of cortical oxygenation, blood flow, and intracellular calcium dynamics" Opt. Express 17, 15670-15678 (2009)に記載されている。
少なくとも1つの脈管叢構造の識別を容易にする別の手法は、鏡面反射を低減するために少なくとも1つの光学的な交差偏光子フィルタアセンブリを使用することである。この方法については、欧州特許出願第16204933.2号明細書(EP 16 204 933.2)に記載されており、ここでこの文献を参照したことによりその内容全体が本願に取り込まれたものとする。
少なくとも1つの脈管叢構造のいっそう信頼性の高い識別を目的としたさらなるステップを、術中画像データ内の少なくとも1つのロケーションにおいて、蛍光発光画像データを用いて血流方向を計算することとすることができる。時間導関数と空間導関数とのうちの少なくとも一方を求めることによって、所定のロケーションにおいて血流方向を計算することができる。これについては欧州特許出願第17210909.2号明細書(EP 17 210 909.2)に記載されており、ここでこの文献を参照したことによりその内容全体が本願に取り込まれたものとする。術中画像データの1つのロケーションを、単一の画素または干渉画素配列に応じさせることができる。これに加えて、または別の選択肢として、血流方向を求めるために主成分分析を用いることができ、これについては欧州特許出願第17174047.5号明細書(EP 17 174 047.5)に記載されており、ここでこの文献を参照したことにより同様にその内容全体が本願に含まれるものとする。
単なる画像データに加えて、術中画像データつまりは組織内の脈管叢構造のポジションに関する付加的な情報を用いることができるならば、術中画像データに対する術前三次元画像データのマッピングを容易にすることができる。この目的で、カメラアセンブリの視野のポジションを表すポジションデータを発生させるために、ポジションセンサを設けることができる。ポジションデータは、カメラアセンブリの焦点距離、焦点深度および間隔設定のうちの少なくとも1つを有することができる。ポジションデータは、増分ポジションデータと絶対ポジションデータとのうちの少なくとも一方を有することができる。術中画像データの1つのフレームから術中画像データの次のフレームへと視野のポジションが変化したことを表すために、増分ポジションデータを使用することができる。術中画像データのフレームごとに、一定の参照点を基準にして絶対ポジションを表すために、絶対ポジションデータを使用することができる。この場合には個々の絶対ポジションデータの差を計算することによって、術中画像データの相続くフレーム間でのポジションデータの変化を取得することができる。1つの実施形態によれば、三次元データにおける少なくとも1つの脈管叢構造の識別、術中画像データへの術前三次元画像データの弾性マッチング、および出力画像データの表示、のうちの少なくとも1つにおいて、ポジショニングデータを用いることができる。
最後に述べておくと本発明は、上述の実施形態のいずれかにおける方法をコンピュータに実行させるプログラムを記憶する非一時的コンピュータ可読媒体にも関する。
次に、添付の図面を参照しながら、本発明の1つの実施形態について例示的に説明する。例示的な実施形態に示されている特徴の組み合わせは、説明の目的で挙げたにすぎない。上述の個々の特徴の技術的効果が、ある特定の用途のためには不要であるならば、ある特徴を実施形態から省いてもよい。これとは逆に、1つまたは複数の技術的特徴の技術的効果が、ある特定の実施形態のために必要とされるならば、上述の特徴のうちの1つまたは複数を実施形態に加えることができる。
本発明による方法および装置の例示的な実施形態について示す図である。
特に手術中、生体組織を観察するための光学観察装置1の構成および機能について説明する。単に説明の目的で、医用観察装置が顕微鏡2であるとして示されている。医用観察装置1を内視鏡としてもよい(図示せず)。
医用観察装置1は、術前三次元画像データ6が記憶されているメモリアセンブリ4を有する。メモリアセンブリ4は、標準的なコンピュータメモリを有することができる。
医用観察装置1はさらに、視野10を有するカメラアセンブリ8を備えている。手術中、脳組織、筋肉組織、リンパ組織、あるいは内臓器官または他の軟性体部の組織といった生体軟組織12を、視野10内に配置することができる。手術中、カメラアセンブリ8は、単一の入力フレーム16または複数の入力フレーム16の時系列18として構築可能な術中画像データ14を取得する。術中画像データ14は、複数の画素20を有することができ、または複数の画素20から成るものとすることができる。術中画像データ14を、二次元すなわち視野10内の1つの平面を表すものとすることができ、または三次元すなわち視野10内の1つのボリュームを表すものとすることができ、または多次元画像データとすることができ、このデータは例えば、視野10内の三次元データをそれぞれ異なるスペクトル波長で有することができる。
カメラアセンブリ8は、RGBカメラ、マルチスペクトルカメラおよびハイパースペクトルカメラのうちの少なくとも1つを有することができる。
術中画像データは、蛍光発光画像データを有することができ、または蛍光発光画像データから成るものとすることができる。インドシアニングリーンといった蛍光体22が組織12に注入され、蛍光をトリガする波長でこの蛍光体22が照射されると、かかる蛍光発光画像データを取得することができる。
カメラアセンブリ8は、1つまたは複数のフィルタアセンブリ24を有することができ、これは図1には概略的にしか示されていない。フィルタアセンブリ24は、鏡面反射を阻止するためのフィルタ装置26を有することができる。かかるフィルタ装置の例は、欧州特許出願第16204933.2号明細書(EP 16 204 933.2)に記載されており、ここでこの文献を参照したことによりその内容全体が本願に取り込まれたものとする。
フィルタアセンブリ24は、術中画像データ14における光を少なくとも1つの蛍光体22の蛍光波長に制限するためのバンドパスフィルタ装置28を有することもできる。かかるフィルタ装置は、欧州特許出願第17179019.8号明細書(EP 17 179 019.8)に記載されており、ここでこの文献を参照したことによりその内容全体が本願に取り込まれたものとする。
医用観察装置1はさらに、ある1つの照射スペクトルを有する照射光34を発生させるための照射アセンブリ32を含むことができる。照射スペクトルを、少なくとも1つの蛍光体22の蛍光をトリガする波長に制限することができ、または照射スペクトルはこの波長を含むことができる。照射光34はさらに、動脈血の反射スペクトルにマッチした波長を有することができ、または照射光34をこの波長に制限することができる。照射光34を、静脈血の反射スペクトルにマッチさせた波長に制限することができ、または照射光34はこの波長を有することができる。照射光34の照射スペクトルを単一の波長または好ましくは複数の別個の波長に制限することによって、種々の周波数帯域間のクロストークが低減される。これによって、術中画像データ14の自動的な分析が容易になる。後続の入力フレーム16を、異なる照射スペクトルにおいて取得されたものとすることができる。別の選択肢として、術中画像データ14は、好ましくは可視光スペクトルのうちの少なくとも1つにおける情報を含み、例えば動脈血と静脈血の反射スペクトルおよび例えば少なくとも1つの蛍光体22の蛍光波長における近赤外スペクトルのうちの少なくとも1つにおける情報を含む。
医用観察装置1はさらに画像プロセッサアセンブリ40を含み、一例にすぎないがこのアセンブリは図1では集積回路として示されている。画像プロセッサ40およびその構成要素を、ソフトウェアとして実装してもよいし、ハードウェアとして実装してもよいし、またはハードウェアとソフトウェアの組み合わせとして実装してもよい。メモリアセンブリ4を、画像プロセッサ40の一部とすることができる。画像プロセッサアセンブリ40は、機能的にかつ/または構造的に区別可能な複数のモジュールを有することができる。画像プロセッサアセンブリ40は、有線および/または無線とすることができるデータコネクション42を介してカメラアセンブリ8に接続されている。画像プロセッサアセンブリ40の入力インタフェース44を、少なくとも1つのカメラアセンブリ8から、かつ/または例えば事前処理後に術中画像データ14が記憶またはバッファリングされる記憶装置例えばメモリアセンブリ4から、術中画像データ14を取得するように適合させることができる。
画像プロセッサアセンブリ40は、少なくとも1つの脈管叢構造48を術中画像データ14において識別するために、かつ少なくとも1つの識別された脈管叢構造48を術前三次元画像データ6において識別するために、パターンマッチングモジュール46を有することができる。
例えば蛍光体22の蛍光スペクトルに制限された術中画像データ14aにおいて、少なくとも1つの脈管叢構造48を識別することができる。これに加えて、または別の選択肢として、可視光スペクトルにおいて記録されたものであり、かつ特に動脈血および静脈血の反射スペクトルのうちの少なくとも1つに制限可能である、術中画像データ14bにおいて、少なくとも1つの脈管叢構造48を識別することができる。術中画像データ14において脈管叢構造48を識別し、次いでこの構造を術前三次元画像データ6において識別するためのアルゴリズムは例えば、Rouchdy, Y.およびCohen, L.による"A Geodesic Voting Method of Tubular Tree and Centrelines", DOI: 10.1109/ISBI.2011.5872566 979〜983頁、ならびにSuri, J.S.およびLaxminarayan, S. 編による"Angiography and Plaque Imaging: Advanced Segmentation Techniques", CRC Press 501〜518頁に記載されている。さらに少なくとも1つの蛍光体のボーラスを用いることによって脈管叢構造を識別する方法が、欧州特許出願第17174017.5号明細書(EP 17 174 017.5)に記載されており、ここでこの文献を参照したことによりその内容全体が本願に含まれるものとする。
画像プロセッサアセンブリ40はさらに、少なくとも1つの識別された脈管叢構造48に基づき、術前三次元画像データ6を術中画像データ14に弾性マッチングさせるための弾性マッチングモジュール50を有することができる。やはり、かかる弾性マッチングを実施するためのアルゴリズムについても、先に挙げたIRCS Technical Reports Series, 192, “Elastically Deforming a Three-Dimensional Atlas to Match Anatomical Brain Images"に記載されている。弾性マッチングの結果として、両方のデータにおいて識別された脈管叢構造48が幾何学的に一致するように、術前三次元画像データ6が変位させられ、回転させられ、かつ/または歪められる。このため弾性マッチングさせるステップは、結果として術中画像データ14において表示される視野10となる術前三次元画像データ6の1つの断面を規定することもできる。さらにカメラアセンブリ8が、術中画像データ14を取得するためにマルチスペクトルカメラとハイパースペクトルカメラのうちの少なくとも1つを有するならば、先に挙げたOpt. Express 17, 15670-15678, "Ultra-fast Multispectral Optical Imaging of Cortical Oxigenation, Blood Flow, and Intracellular Calcium Dynamics"に記載されている装置および方法を用いて、血管構造48およびそのタイプを決定することができる。
画像プロセッサアセンブリ40はさらに、弾性マッチングされた術前三次元画像データ6またはこのデータのうちの1つの断面を術中画像データ14と組み合わせて出力画像データ54を形成するために、画像形成モジュール52を有することができる。画像プロセッサアセンブリはさらに、出力画像データ54を出力するための出力インタフェース55を有することができる。出力インタフェース55は少なくとも1つの標準コネクタを有することができ、例えばHDMI、DVI、RGBまたは他の適切なタイプのコネクタおよび/またはワイヤレスコネクションを有することができ、これにはマッチングデータ伝送プロトコルが含まれる。
出力画像データ54を表示するために、医用観察装置1はディスプレイアセンブリ56を有することができ、これは立体ディスプレイ例えば顕微鏡または内視鏡の接眼レンズおよび/またはモニタを含むことができる。ディスプレイアセンブリ56を、有線または無線により出力インタフェース55と接続することができる。
術中画像データ14の識別された脈管叢構造48を術前三次元画像データ6において配置および/または識別するための計算負荷は、大きい可能性がある。視野10、脈管叢構造48および/または術中画像データ14が、生体軟組織12内においてどこに配置されているのかについてポジション情報が提供されれば、この負荷を低減することができる。この情報が有用となるのは例えば、時系列18の1つの入力フレーム16に対し、弾性マッチングプロセスがすでに首尾よく実施されており、次いで手術中にそのあとで時系列18の次の入力フレーム16に対し、このプロセスを繰り返さなければならない場合である。このため医用観察装置1は、医用観察装置1の光学レンズシステム62の焦点距離、焦点深度および間隔設定、ならびに光学レンズシステム62および画像プロセッサアセンブリ40の大きさおよびそれらからの距離、例えば視野10の寸法など、のうちの少なくとも1つを表すポジショニングデータ60を取得および/または供給するために、少なくとも1つのポジションセンサ58を有することができる。
ポジショニングデータ60を、パターンマッチングモジュール46、弾性マッチングモジュール50および画像形成モジュール52のうちの少なくとも1つに入力することができ、少なくとも1つの識別された脈管叢構造48を術前三次元画像データ6において識別し、術前三次元画像データ6を術中画像データ14に弾性マッチングする際に、さらに弾性マッチングされた術前三次元画像データ6および術中画像データ14から出力画像データ54を形成する際に、用いることができる。
欧州特許出願第17210909.2号明細書(EP 17 210 909.2)に記載されているように、画像プロセッサアセンブリ40を、少なくとも1つの識別された脈管叢構造48における1つのロケーション66で血流方向64を計算するように適合することができ、ここでこの文献を参照したことによりその内容全体が本願に含まれるものとする。1つのロケーションを、術中画像データ14における1つの画素20または好ましくは干渉画素配列とすることができる。識別された脈管叢構造48の組織のタイプすなわち静脈組織、動脈組織および毛管組織および/または脈管のいずれであるかの弁別を、欧州特許出願第17174047.5号明細書(EP 17 174 047.5)に記載されている方法およびシステムを用いて、実施することができる。
ここで説明したとおり、上述のシステムおよび方法は、術中画像データ14が記録されるときに自動的に取得される情報のみに依拠するものである。このシステムおよび方法はさらに、術中画像データ14を取得するための医用観察装置1の設定の結果から得られるポジショニングデータ60を有することができる。
1 医用観察装置
2 顕微鏡
4 メモリアセンブリ
6 術前三次元画像データ
8 カメラアセンブリ
10 視野
12 生体軟組織
14 術中画像データ
14a 蛍光発光術中画像データ
14b 可視光術中画像データ
16 入力フレーム
18 入力フレームの時系列
20 画素
22 蛍光体
24 フィルタアセンブリ
26 鏡面反射を阻止するためのフィルタ装置
28 蛍光発光に対するバンドパスフィルタ装置
32 照射アセンブリ
34 照射光
40 画像プロセッサアセンブリ
42 データコネクション
44 入力インタフェース
46 パターンマッチングモジュール
48 脈管叢構造
50 弾性マッチングモジュール
52 画像形成モジュール
54 出力画像データ
55 出力インタフェース
56 ディスプレイアセンブリ
58 ポジションセンサ
60 ポジショニングデータ
62 光学レンズシステム
64 血流方向
66 ロケーション

Claims (14)

  1. 特に手術中にリアルタイムに、生体軟組織(12)の出力画像データ(54)を表示するための画像処理方法であって、前記画像処理方法は、
    生体軟組織(12)の術前三次元画像データ(6)を準備するステップと、
    可視光スペクトルと近赤外スペクトルとのうちの少なくとも一方において、前記生体軟組織(12)の術中画像データ(14)を取得するステップと、
    少なくとも1つの脈管叢構造(48)を前記術中画像データ(14)において自動的に識別するステップと、
    少なくとも1つの識別された前記脈管叢構造(48)を前記術前三次元画像データ(6)において識別するステップと、
    少なくとも1つの識別された前記脈管叢構造(48)に基づき、前記術前三次元画像データ(6)を前記術中画像データ(14)に弾性マッチングさせるステップと、
    弾性マッチングされた前記術前三次元画像データ(6)と前記術中画像データ(14)とから出力画像データ(54)を形成するステップと、
    を有する画像処理方法。
  2. 識別される前記脈管叢構造(48)を、蛍光体(22)からの蛍光発光を用いて取得された術中画像データ(14)において識別する、
    請求項1記載の画像処理方法。
  3. 前記術中画像データ(14)において識別された前記脈管叢構造(48)は、前記可視光スペクトルの光を用いて記録されていたものである、
    請求項1または2記載の画像処理方法。
  4. 前記出力画像データ(54)を表示する、
    請求項1から3までのいずれか1項記載の画像処理方法。
  5. 前記術中画像データ(14)を取得するために、鏡面反射を低減する少なくとも1つの光学フィルタ装置(26)を用いる、
    請求項1から4までのいずれか1項記載の画像処理方法。
  6. 識別された前記脈管叢構造(48)における少なくとも1つのロケーション(66)において、血流方向(64)を計算する、
    請求項1から5までのいずれか1項記載の画像処理方法。
  7. ポジショニングデータ(60)を取得し、
    前記ポジショニングデータ(60)は、前記術中画像データ(14)を取得するために用いられる光学レンズシステム(62)の焦点距離、前記光学レンズシステム(62)の焦点深度、前記光学レンズシステム(62)の間隔設定、前記術中画像データ(14)の取得時点における前記光学レンズシステム(62)の視野(10)の大きさ、寸法および配向、のうちの少なくとも1つを表し、
    前記ポジショニングデータ(60)を、前記術前三次元画像データ(6)における前記脈管叢構造(48)の識別、前記術中画像データ(14)への前記術前三次元画像データ(6)の弾性マッチング、および前記出力画像データ(54)の表示、のうちの少なくとも1つにおいて用いる、
    請求項1から6までのいずれか1項記載の画像処理方法。
  8. 特に手術中に、生体軟組織(12)の出力画像データ(54)を生成するための医用観察装置(1)、例えば顕微鏡(2)または内視鏡であって、前記医用観察装置は、
    生体軟組織(12)の術前三次元画像データ(6)を有するメモリアセンブリ(4)と、
    可視光スペクトルと近赤外スペクトルとのうちの少なくとも一方において、前記生体軟組織(12)の術中画像データ(14)を取得するためのカメラアセンブリ(8)と、
    画像プロセッサアセンブリ(40)と、
    出力画像データ(54)を出力するための出力インタフェースと、
    を有しており、
    前記画像プロセッサアセンブリ(40)は、
    少なくとも1つの脈管叢構造(48)を前記術中画像データ(14)において識別するための、および少なくとも1つの識別された前記脈管叢構造(48)を前記術前三次元画像データ(6)において識別するための、パターンマッチングモジュール(46)と、
    少なくとも1つの識別された前記脈管叢構造(48)に基づき、前記術前三次元画像データ(6)を前記術中画像データ(14)に弾性マッチングさせるためのマッチングモジュール(50)と、
    弾性マッチングされた前記術前三次元画像データ(6)の少なくとも一部を前記術中画像データ(14)と組み合わせて前記出力画像データ(54)を形成するための画像形成モジュール(52)と、
    を有する医用観察装置(1)。
  9. 前記医用観察装置(1)は、さらに、前記出力画像データ(54)を表示するためのディスプレイアセンブリ(56)を有する、
    請求項8記載の医用観察装置(1)。
  10. 前記カメラアセンブリ(8)は、鏡面反射を低減するための少なくとも1つのフィルタ装置(26)を有しており、前記フィルタ装置(26)は、少なくとも1つの交差偏光子ペアを有する、
    請求項8または9記載の医用観察装置(1)。
  11. 前記カメラアセンブリ(8)は、少なくとも1つの蛍光体(22)の蛍光スペクトルにマッチされた通過帯域をもつ少なくとも1つのフィルタ装置(28)を有する、
    請求項8から10までのいずれか1項記載の医用観察装置(1)。
  12. 前記カメラアセンブリ(8)は、光学レンズシステム(62)と、ポジショニングデータ(60)を取得するための少なくとも1つのポジションセンサ(58)と、を有しており、
    前記ポジショニングデータ(60)は、前記光学レンズシステム(62)の焦点距離、焦点深度および間隔設定、視野(10)の大きさ、寸法および配向、のうちの少なくとも1つを表す、
    請求項8から11までのいずれか1項記載の医用観察装置(1)。
  13. 前記画像プロセッサアセンブリ(40)は、識別された前記脈管叢構造(48)において血流方向(64)を計算するように構成されており、その際に前記画像形成モジュール(52)は、前記出力画像データ(54)における識別された前記脈管叢構造(48)を、前記血流方向(64)を表す時変的なマーカデータと組み合わせるように適合されている、
    請求項8から12までのいずれか1項記載の医用観察装置(1)。
  14. 請求項1から7までのいずれか1項記載の画像処理方法をコンピュータに実行させるプログラムを記憶している、非一時的コンピュータ可読媒体。
JP2019024250A 2018-02-15 2019-02-14 脈管叢構造の弾性マッピングを用いた画像処理方法および画像処理装置 Active JP6972049B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18156906.2A EP3527123B1 (en) 2018-02-15 2018-02-15 Image processing method and apparatus using elastic mapping of vascular plexus structures
EP18156906.2 2018-02-15

Publications (2)

Publication Number Publication Date
JP2019141578A true JP2019141578A (ja) 2019-08-29
JP6972049B2 JP6972049B2 (ja) 2021-11-24

Family

ID=61521289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024250A Active JP6972049B2 (ja) 2018-02-15 2019-02-14 脈管叢構造の弾性マッピングを用いた画像処理方法および画像処理装置

Country Status (4)

Country Link
US (1) US20190247142A1 (ja)
EP (1) EP3527123B1 (ja)
JP (1) JP6972049B2 (ja)
CN (1) CN110164528B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3540494B1 (en) 2018-03-16 2022-11-23 Leica Instruments (Singapore) Pte. Ltd. Augmented reality surgical microscope and microscopy method
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
CN111292410B (zh) * 2020-01-19 2022-04-12 华中科技大学同济医学院附属协和医院 一种静脉显影照相装置及其三维全景模型的生成方法
EP3991685A1 (en) * 2020-11-03 2022-05-04 Leica Instruments (Singapore) Pte. Ltd. Surgical microscope system
WO2022232264A1 (en) * 2021-04-28 2022-11-03 Smith & Nephew, Inc. Computerized systems for arthroscopic applications using real-time blood-flow detection
WO2023052534A1 (en) * 2021-09-30 2023-04-06 Leica Instruments (Singapore) Pte. Ltd. Image processing for surgical applications

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263498A (ja) * 2001-12-22 2003-09-19 Koninkl Philips Electronics Nv 検査されるべき対象の様々な画像を形成する方法
JP2008148858A (ja) * 2006-12-15 2008-07-03 Toshiba Corp 3次元画像処理装置及び医用画像診断装置
WO2010046838A1 (en) * 2008-10-23 2010-04-29 Koninklijke Philips Electronics N.V. Cardiac- and/or respiratory-gated image acquisition system and method for virtual anatomy enriched real-time 2d imaging in interventional radiofrequency ablation or pacemaker placement procedures
WO2015023990A1 (en) * 2013-08-15 2015-02-19 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
WO2015084143A1 (en) * 2013-12-06 2015-06-11 Mimos Berhad An apparatus and method for volumetric and speed measurement of blood 'train' in visible vessels
JP2016177327A (ja) * 2015-03-18 2016-10-06 伸彦 井戸 動的計画法を適用する有向無閉路グラフの構成と格子点のコストとに特徴を持つ、2つの要素列の対応付け方法
WO2018012080A1 (ja) * 2016-07-12 2018-01-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AP931A (en) * 1995-10-23 2001-02-02 Cytometrics Inc Method and apparatus for reflected imaging analysis.
JP4147033B2 (ja) * 2002-01-18 2008-09-10 オリンパス株式会社 内視鏡装置
KR100896477B1 (ko) * 2002-03-20 2009-05-08 노바다크 테크놀러지즈 인코포레이티드 관을 통과하는 유체 흐름을 영상화하는 시스템 및 방법
US20060173358A1 (en) * 2005-01-11 2006-08-03 Olympus Corporation Fluorescence observation endoscope apparatus and fluorescence observation method
WO2007102920A2 (en) * 2005-12-20 2007-09-13 University Of Maryland, Baltimore Method and apparatus for accelerated elastic registration of multiple scans of internal properties of a body
US8423117B2 (en) * 2009-06-22 2013-04-16 General Electric Company System and method to process an acquired image of a subject anatomy to differentiate a portion of subject anatomy to protect relative to a portion to receive treatment
JP2011104199A (ja) * 2009-11-19 2011-06-02 Fujifilm Corp 内視鏡装置
US8761474B2 (en) * 2011-07-25 2014-06-24 Siemens Aktiengesellschaft Method for vascular flow pattern analysis
DE102011120937B4 (de) * 2011-12-14 2019-03-14 Carl Zeiss Meditec Ag Anordnung und Verfahren zur Registrierung von Gewebeverschiebungen
US11510600B2 (en) * 2012-01-04 2022-11-29 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
JP2017536870A (ja) * 2014-10-20 2017-12-14 ボディ・ビジョン・メディカル・リミテッドBody Vision Medical Ltd. 外科的デバイスおよび外科的デバイスの使用方法
US11844576B2 (en) * 2015-01-22 2023-12-19 Koninklijke Philips N.V. Endograft visualization with optical shape sensing
EP3248531A1 (en) * 2016-05-23 2017-11-29 Leica Instruments (Singapore) Pte. Ltd. Medical observation device, such as a microscope or an endoscope, and method using a pseudo-color pattern having temporal and/or spatial modulation
WO2018002347A1 (en) * 2016-06-30 2018-01-04 Koninklijke Philips N.V. Registering tomographic imaging and endoscopic imaging

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263498A (ja) * 2001-12-22 2003-09-19 Koninkl Philips Electronics Nv 検査されるべき対象の様々な画像を形成する方法
JP2008148858A (ja) * 2006-12-15 2008-07-03 Toshiba Corp 3次元画像処理装置及び医用画像診断装置
WO2010046838A1 (en) * 2008-10-23 2010-04-29 Koninklijke Philips Electronics N.V. Cardiac- and/or respiratory-gated image acquisition system and method for virtual anatomy enriched real-time 2d imaging in interventional radiofrequency ablation or pacemaker placement procedures
WO2015023990A1 (en) * 2013-08-15 2015-02-19 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
WO2015084143A1 (en) * 2013-12-06 2015-06-11 Mimos Berhad An apparatus and method for volumetric and speed measurement of blood 'train' in visible vessels
JP2016177327A (ja) * 2015-03-18 2016-10-06 伸彦 井戸 動的計画法を適用する有向無閉路グラフの構成と格子点のコストとに特徴を持つ、2つの要素列の対応付け方法
WO2018012080A1 (ja) * 2016-07-12 2018-01-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム

Also Published As

Publication number Publication date
EP3527123B1 (en) 2022-08-31
CN110164528A (zh) 2019-08-23
CN110164528B (zh) 2023-12-29
EP3527123A1 (en) 2019-08-21
US20190247142A1 (en) 2019-08-15
JP6972049B2 (ja) 2021-11-24

Similar Documents

Publication Publication Date Title
JP6972049B2 (ja) 脈管叢構造の弾性マッピングを用いた画像処理方法および画像処理装置
US11857317B2 (en) Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
US20230320649A1 (en) Surgical navigation with stereovision and associated methods
AU2015202805B2 (en) Augmented surgical reality environment system
EP3540494B1 (en) Augmented reality surgical microscope and microscopy method
US20160086380A1 (en) Hyperspectral imager
WO2015023990A1 (en) Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
US11183295B2 (en) Medical image processing apparatus and medical image processing method which are for medical navigation device
JP2023088989A (ja) 内視鏡設計における血流および灌流撮像および定量化のためのレーザ撮像方法およびシステムを用いたマルチスペクトル生理機能視覚化(mspv)
WO2015187620A1 (en) Surgical navigation with stereovision and associated methods
Cha et al. Multispectral tissue characterization for intestinal anastomosis optimization
CN114300095A (zh) 图像处理设备、图像处理方法、装置、设备及存储介质
US11690558B2 (en) Surgical navigation with stereovision and associated methods
KR20190069751A (ko) 복수의 후보 좌표를 이용한 특징점 기반 정합 장치 및 방법
KR102084251B1 (ko) 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR101977650B1 (ko) 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
WO2021044590A1 (ja) 内視鏡システム、処理システム、内視鏡システムの作動方法及び画像処理プログラム
KR102208577B1 (ko) 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
Medievsky et al. Intraoperative Visualization of Anatomical Structures in Massive Bleeding Using Infrared Images
EP4333763A1 (en) Augmented reality headset and probe for medical imaging
JP2024518392A (ja) 医療イメージングのための拡張現実ヘッドセット及びプローブ
WO2018055061A1 (en) Hyperspectral tissue imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6972049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150