JP2015527909A - 灌流評価マルチモダリティ光学医用デバイス - Google Patents

灌流評価マルチモダリティ光学医用デバイス Download PDF

Info

Publication number
JP2015527909A
JP2015527909A JP2015521112A JP2015521112A JP2015527909A JP 2015527909 A JP2015527909 A JP 2015527909A JP 2015521112 A JP2015521112 A JP 2015521112A JP 2015521112 A JP2015521112 A JP 2015521112A JP 2015527909 A JP2015527909 A JP 2015527909A
Authority
JP
Japan
Prior art keywords
image sensor
oci
modality
interest
modalities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015521112A
Other languages
English (en)
Other versions
JP6023883B2 (ja
Inventor
マルク アンドレ,
マルク アンドレ,
ミヒャエル フリードリッヒ,
ミヒャエル フリードリッヒ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aimago SA
Original Assignee
Aimago SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aimago SA filed Critical Aimago SA
Publication of JP2015527909A publication Critical patent/JP2015527909A/ja
Application granted granted Critical
Publication of JP6023883B2 publication Critical patent/JP6023883B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B2207/00Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
    • G02B2207/113Fluorescence

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Hematology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

灌流評価多様モダリティ光学医用デバイスであって、身体の関心領域(130、340)をイメージするように構成されている白色光画像センサ(320)及び光学システムと、前記身体の関心領域を760〜810nmの波長で照明するためのコヒーレント光源(330)と、前記照明されている身体の関心領域(340)の少なくとも一部からの、照明の前記波長付近の後方散乱光(302)の変動を検出する光コヒーレンスイメージング(OCI)画像センサ(310)と、前記照明されている身体の関心領域(340)の少なくとも一部からの、照明の前記波長より高い波長の蛍光信号を検出する蛍光画像センサ(315)と、前記モダリティからの結果を表示するスクリーン(115、210)を含み、以上全ての要素は1つの可動ユニット(200)に含有され、前記可動ユニットはさらにLDI又はLSIアルゴリズムを使用して前記OCI画像センサ(310)から灌流マップを算出する処理部(105、110)を含み、前記白色光画像センサ(320)と、前記OCI画像センサ(310)と、前記蛍光画像センサ(315)は、少なくとも部分的に共通の光パス(610)を有するデバイス。

Description

本発明は、医用イメージングを用いる灌流評価に関する。
[定義]
光コヒーレンスイメージング(Optical Coherence Imaging, OCI):選択した組織及び/又は身体の関心領域における、生理的流動性質及び非生理的流動性質、特に血流性質を記録、測定、視覚化、及び/又は評価するために、光の物理性質、特にコヒーレンス性質を利用した非接触式及び非侵襲的医用イメージングモダリティ。OCIシステムは、少なくともコヒーレント光源、光取得部、画像とデータ処理及びデバイス制御部、及び流動情報を視覚化又は表現するための手段を含むが、これらに限定されない。OCIの具体的な実施例は、レーザドップライメージング(Laser Doppler Imaging, LDI)、レーザドップラ分光イメージング(Laser Doppler Spectroscopic Imaging, LDSI)、レーザスペックルイメージング(Laser Speckle Imaging, LSI)、レーザスペックルコントラスト分析(Laser Speckle Contrast Analysis, LASCA)、及び機能的光コヒーレンスイメージング(Functional Optical Coherence Imaging, fOCI)を含むが、これらに限定されない。
LSI/LASCA:LSI及びLASCAはOCI技術である。LSIとLASCA間の相違は少ないため、この書類ではレーザスペックルイメージング(LSI)とレーザスペックルコントラスト分析(LASCA)を同義語とする。
デバイスとは、多様式光学医用デバイスを意味する。
ディスプレイ及びスクリーンは同義語とする。
3Dスクリーン:3D又は3Dの様な画像の観察を容易にする任意のスクリーン又はディスプレイである。
デバイスヘッド:一つの可動ユニットにおいて、光ビームのエントリー部及びスクリーンを含むデバイスの一部である。
光学マーカー:身体又はデバイスに付着する特徴であって、光学センサを用いたその検出を容易化する光学特性を有する任意の特徴である。多くの場合、マーカーの方向も検出可能である。センサシステムにより検出される光学マーカーは、空間におけるその位置の識別を可能にする。
モダリティ:デバイスに統合された任意の検出システム又は動作モードである。例としては、レーザドップライメージング、蛍光イメージング、マイクロスコピー、又は身体の関心領域に関連する事前に記録した画像或いは任意の種類の由来のメタデータのレビューが考えられる。
デジタル顕微鏡:光学システム、画像センサ、及び領域の拡大を容易化するスクリーンと、それをスクリーンに表示することを含むシステムである。
マップ:多次元(通常は2次元)の値の配列である。多くの場合、それぞれの値に色を割り当てることにより(つまり、カラーマップを用いて)、値は画像にマッピングされる。
カラーマップ:値から色への変換である。このような変換は表及び/又はアルゴリズムを使用して行われる。値のマップを画像に変換するためにカラーマップが使用される。
作業距離:デバイスヘッドの光学システム開口部と身体の関心領域の間の距離である。
身体の関心領域:デバイスヘッドが指す、患者における領域であって、任意のモダリティによりイメージングされる領域である。領域は、モダリティ間で異なり得る(例えば、異なるサイズ)。
マイクロフォン:音波の検出を可能にするセンサである。
ICG:インドシアニングリーン。
ECG:心電図検査。
光コヒーレンスイメージング(OCI)は、大いに、光の物理性質及び特にコヒーレンス性質を利用する非接触式イメージングモダリティである。OCIは、リスクの評価をより正確にし、かつ治療判断を最適化し、及び患者管理と監視を向上させるために、臨床ユーザにとって組織生存率及び治療可能性を理解しやすくする。外科、火傷と高度創傷ケア、及び末梢血管用途に亘って、OCIの臨床的有益性は立証されている。最後に、OCIは物理的接触を含まないため、非接触式であり、そのため感染及び不快感のリスクを大きく回避する。
OCIのモダリティは、刺激に対するフローの反応を測定することにより拡張できる。このようなアプローチは、機能的光コヒーレンスイメージング(fOCI)と呼ばれ、WO/2010/004365に開示されている。
PCT/IB2011/051098には、仮想ウィンドウアプローチを採用する埋め込み光コヒーレンスイメージングデバイスが記載されている。
クラシックな顕微鏡デザインは、たくさんの医療応用で使用され、特に神経手術、顕微手術、歯科医術及び眼科医術において使用される。クラシックな顕微鏡は、照明と1つ又は複数の双眼鏡を介して外科医とインタフェースする光学システムを含む。対象物(身体の関心領域)は、通常4xから40xの拡大率で拡大される。いくつかのシステムは、さらにカメラ及び結果を視覚化する外部のスクリーンを含む。また、いくつかのシステムは、移動支援部を含み、移動支援部は、例えばマウスピースを使用して、手を使わずに外科医が顕微鏡を移動させることを可能にする。
蛍光イメージングは、人気の医用診断イメージングモダリティである。蛍光現象は、1852年から知られている。蛍光イメージングでは、蛍光染料又は蛍光剤が血液に注入される。蛍光染料は、特定波長の光により励起される。蛍光染料は、励起光と反応(吸収)し、異なる(通常はより長い)波長の光を放射する。検出部が(励起光をフィルタした)放射光を検出する。蛍光イメージングを実施するカメラシステムは多数存在する。いくつかの外科用顕微鏡にも蛍光イメージングが実装されている。よく使われる蛍光染料はインドシアニングリーン(ICG)であり、この染料は約800nmで吸収し、約835nmで発光する(図6を参照)。異なる吸収/発光波長を有する他の剤も存在する。いくつかの剤は血液を視覚化するために使用される(ICG等)。他の剤は特定の細胞又はタンパク質をマークし、例えば癌細胞検出のため使用される。最後に、他の種類のボディフロー(例えばリンパ流)のための蛍光マーカーも存在する。
今までは、灌流イメージングデバイスは1つのモダリティに限定され、場合によっては白色光カメラに連結されていた。その結果、ユーザは多くの場合、手術室に複数のデバイスを置き、手術中にデバイスを切り替える必要があった。これは時間がかかり、コストも高く、場所も大きくとる。いくつかの外科用顕微鏡は、蛍光イメージングモダリティを有するが、その用途は極めて特定化されており、マイクロ手術のケース(神経手術等)に対して最適化されている。蛍光付きのクラシックな手術顕微鏡は、デバイスが嵩張る点及びユーザがより広い領域を観察したい点に関して、形成手術及び再建手術等の手術には向いていない。また、形成手術及び再建手術又は一般手術に関しては、これらの分野では拡大化を必要とする作業が少ないため、手術顕微鏡は余り使用されない。このようなレアな場合に、ユーザは完全な手術顕微鏡の使用を望まない。
仮想ウィンドウアプローチは、OCIモダリティに関してのみ知られている(PCT/IB2011/051098を参照)が、1つの可動ユニットに複数のモダリティを組み合わせるデバイスは存在しない。
灌流イメージングモダリティ(蛍光又はOCI)を1つのみ有することで、信頼性が低下した場合もある。次に例を2つあげる。蛍光(ICG)は、組織のある体積における血液濃度を視覚化する。(例えば薄い皮弁における)組織が蛍光信号検出深さよりも薄いと、灌流が正常であっても測定蛍光信号の強度は低下する。これは組織の体積自体が蛍光カメラの浸透深さに対して小さいためであって、蛍光カメラ自体は特定の組織の深さと厚みを区別することができない。しかし、このような場合において、LDIは通常灌流を示す。なぜなら、LDI信号は、組織の最上層内でのみ測定され、よって組織が薄く、低下した蛍光強度により蛍光信号が弱い灌流を暗示するにも関わらず、最上層における灌流は正常であることを確証する。別の例としては、OCIは運動に敏感である。実際の灌流度が低くても、運動アーティファクトは高灌流度を示すことができる。このようなケースは、ICGを用いて検出する。
通常、外科医は、CT、X線、MRI、又は他の技術により得られ、予め記録した画像を使用して手術の準備をする。手術中にこの画像をレビューする必要がある。今までは、これは患者から離れて画像を閲覧するための別のコンピュータ及び/又はプレゼンテーション・ウォールを装備することにより達成されていた。ユーザは患者から離れ又は向きを変え、そして手動でこの予め記録した画像で見える構造を身体と合わせる必要があり、さらに灌流イメージングデバイス等で得られたデータをその予め記録した画像に合わせる必要がある。
本発明の目的は、少なくとも2つの医用イメージングモダリティを組み合わせてテーブルのような、使用しやすい、及び直観的なカメラとした、手術室の中及び/又は外での応用のための万能医用イメージング機器を提供することである。
よって、本発明は、請求項において定義するデバイスに関する。
図1は、本発明に係るデバイスの一例を示す。この例においては、3つのモダリティ(100)が実施されている。いくつかのモダリティは光学系(101)を共有する一方、他のモダリティは別の光学系(102)を有する。モダリティは、結果マップを生成するための処理部(105)も含む。結果マップは、一般制御及び処理部(110)によりさらに処理される。このようなユニットは、ここで記載するように、モダリティからの結果を組み合わせる。ユニットはさらに、モダリティを制御可能であり、例えば、他のモダリティの結果に基づいてパラメータを設定できる。モダリティからの結果及び/又は一般処理部に処理された結果を表示するために、スクリーン(115)が使用される。全てのモダリティは、同様な身体の関心領域(130)を、同じ又は近接する開口部/エントリー点(120)を通して観察する。各モダリティに対する身体の関心領域は、同一であってもよく、又は全てのモダリティ間で少なくとも一部が共通であれば、異なってもよい。モダリティの光学的開口部(120)及び結果を表示するためのスクリーン(115)は、デバイスヘッドと呼ぶ1つの可動ユニットに一体化される。多くのモダリティは類似する光学系、機械系、及び電子系を必要とし、それらは完全に又は部分的に共用されてもよい。全てのモダリティは同じスクリーンを共用し、同じ又は近接する開口部/エントリー点を共用する。
このようなデバイスに含まれ得るモダリティの一覧を以下に記載する。この一覧は、限定的なものではなく、ここに開示しない他のモダリティも、このようなデバイスに追加してもよい。
●微小循環血流を視覚化するための、レーザドップライメージング(LDI)及び/又はレーザスペックルに基づくイメージング(LSI)等の光コヒーレンスイメージング(OCI)
●刺激に対する微小循環血流又は血液動態学的反応の変化を測定する、機能的光コヒーレンスイメージング(OCI)に基づく技術
●血流、神経活動、若しくはその他任意の解剖的又は生理的パラメータを視覚化するため、又は特定の組織(例えば癌組織)の位置を特定すするための、蛍光に基づくモダリティ
●身体の関心領域の3次元的形を記録するための3Dカメラ
●分光イメージング
●オキシ‐/デオキシヘモグロビンイメージング
●デジタル顕微鏡(つまり、カメラとスクリーン)に基づくモダリティ
●現在の身体の関心領域に関するX線、CT又はMRI等の予め記録した画像の視覚化
異なるモダリティからの結果は、診断的価値を向上するために、さらに組み合わせられる。
●連続LDI信号を、蛍光信号により提供される開通性/流入出情報と組み合わせる
●蛍光で検出される大きな血管を、LSI又はLDIを用いて検出される灌流画像にマッピングする
●1つのモダリティのためのパラメータ(例えば、LDIのサンプリング頻度又はLSIの積分時間)を他のモダリティで決定したデータで最適化する
●組織の異なる層での灌流を評価する
●ズーム/顕微画像が表示されるところからのズーム灌流画像(例えば、フル画像の一部)を表示する
●同じパラメータを測定するいくつかのモダリティからの結果を組み合わせることにより、ノイズ/アーティファクトを低減し、信頼性を向上させる
●レーザドップライメージング及び同様の技術における曲率補正の必要性を向上させるためにいくつかのモダリティ(顕微鏡からの立体視等)を使用する
●蛍光と灌流イメージングモダリティの組み合わせにより癌検出を改善する
●蛍光イメージングをOCIモダリティと組み合わせることにより穿通枝の検出を改善する
●蛍光イメージングをLDI又はLSIイメージングと組み合わせることにより、血流の濃度/速度分離を改善する
●機能的マッピングを改善するために、いくつかのモダリティ(並びに非コヒーレント技術)からの結果を機能的OCIの入力として使用する
●流れの方向を検出する
簡素化した操作、及びハンズフリーな操作のために、音声コマンド制御を含むことも可能である。このような場合、同じデバイスは音声録音可能であってもよい。
[発明の詳細な説明]
本発明は、非限定的な例に表される、以下のより詳細な説明でより容易に理解できる。
多様モダリティカメラの一例の概観図である。 1つの可動ユニット(200)において、光学的センサ(220)の反対側にスクリーン(210)を有するデバイスの実施態様を表す図である。 デバイスヘッドの実施態様の例の図である。 正確な作業距離とカメラ角度を検出するための、4つの線源の投影の例の図である。 正確な作業距離を検出するための、3つの点源を含む投影システムの例の図である。 [Mitsuharu 2009, The Principle of ICG Fluorescence Method]からのICGとヘモグロビンの励起スペクトルと発光スペクトル、及び水の吸光度スペクトルである。 蛍光、OCI、及びマイクロスコピーモダリティを組み合わせ、蛍光及びOCIのための共通のイメージングセンサを共有するデバイスの実施態様の図である。 蛍光、OCI、及びマイクロスコピーモダリティを組み合わせ、共通のイメージングパスを共有するデバイスの実施態様の図である。 ナビゲーションシステムを用いてデバイスヘッドの位置と方向が検出される実施態様の例の図である。 レーザドップライメージングシステムで記録された、身体の関心領域からの6秒間の任意灌流単位(apu)のプロットである。 2つのモダリティのオーバレイの例である。この例において、白色光イメージに、OCIイメージがオーバレイされている。 共有の光パスを有するモダリティの実施態様例を示す図である。
[仮想ウィンドウ]
本発明の一つの態様は、デバイスの使用しやすさに関する。この有用性は、1つの可動ユニット(200)において、全てのモダリティのためのスクリーン(210)及び光学的センサ(光ビームの開口部/エントリー点)を組み合わせることで促進される。ユーザがカメラ部を動かす場合、ユーザは自動的にスクリーンも同様な距離だけ動かす。この状況は図2に表されている。この1つの可動ユニットは、本文において、デバイスヘッドとも呼ぶ。このようなデバイスヘッドは、操作者にとって仮想のウィンドウとして働き、操作者はモダリティからのデータを患者の上で直接に、かつ患者に対するスクリーンの位置/方向にリンクしてデータを見ることができる。
ある実施態様において、光学的システムの開口部(22)は、スクリーンの反対側に位置する。光学的システム開口部は、モダリティの光パスの、カメラ部内へのエントリー点である。モダリティは、光パス(230)を通して身体の関心領域(250)を画像化し、スクリーン(210)に表示する結果画像を算出する。
完全を期するために説明するが、スクリーンは、デバイスヘッドの任意の他の位置にも装着されてもよい。可能な角度は、側面若しくは他の任意の角度である。図3にいくつかの例を示す。ユーザが両手で患者の手術を行うことを可能にするため、そしていくつかのモダリティは安定したデータ取得を必要とするため、多くの場合、カメラ部はさらに支持するアームにマウントされている。この場合、スクリーンも、カメラ光学系に近接し、カメラ光学系と一緒に動く条件で、そのアームにマウントされてもよい。また、同じ又は異なる情報を表示する複数のスクリーンをデバイスに備えることも可能である。
異なるモダリティのための1つ又は複数の処理部は、デバイスヘッドの一部でもあっても、外部にあってもよい。その場合、センサ及びディスプレイデータはケーブル又は無線の接続手段により処理部から又は処理部へ転送される。
好ましい態様において、デバイスは、ユーザが頭を特に動かずにスクリーン及び観察領域を同時に直接目で見られるように小さい。これによりユーザに関心領域(例えば手術部位又は負傷)及び多様モダリティデバイスに提供される追加情報(例えば灌流、蛍光信号、及び/又はズーム画像)を同時に観察可能にする。このため、スクリーンは、良好な視角を有するべきである。結果として、ユーザは頭を(クラシックな顕微鏡とは比較的に)自由に動かすことができ、これはエルゴノミクスを向上させ、かつ頭を回し、外部のスクリーンで見えるものと別の視線にある身体の領域とをマッチングしようとする必要がなくなる。
[マン・マシン・インタフェース]
スクリーンは、LCDディスプレイ等のどのようなスクリーンであってもよい。スクリーン解像度、スクリーン応答性、コントラスト及び反射防止条件は、実施されるモダリティに依存する(例えば、マイクロスコピー応用に関しては、非常に高解像度のスクリーンが好ましい)。いくつかのモダリティには、3D又は3Dのような画像を視覚化することも興味の対象となり得る。例えば、デジタルマイクロスコピー又は3Dカメラモダリティにおいて、データの取得はステレオビジョン等の3D手段で達成し得る。このようなモダリティでは、スクリーンは、ユーザが特殊なゴーグルを着用する必要がある3D視覚化手段やその必要のない3D視覚化手段を容易化し得る。このような3Dスクリーンのための多くの技術は当業者に知られている。非限定的な例としては、偏光、干渉、アナグリフ、エクリプス方法、及び裸眼立体に基づく技術が存在する。
本発明に係る、デバイスとのユーザインタラクションは、タッチスクリーン、物理的ボタン、足踏みペダル、音声、外部操作部、又は遠隔ボタン、若しくはそれらの任意の組み合わせにより行われる。タッチスクリーン技術は抵抗式、静電容量式、又は当業者に知られている任意の他の技術であってもよい。
[音声インタフェース]
1つの実施態様において、デバイスは完全に又は部分的に音声コマンドにより制御できる。このようなコマンドは、必要の言語のコマンド又はデバイスにより設定されたものである。コマンドは短いほうがよく、「Take Snapshot(スナップショットを撮る)」、「New Reference(新なリファレンス)」、「Change to Microscope(顕微鏡に切り替え)」、「Change to LDI(LDIに切り替え)」、又は「Zoom in(ズーム・イン)」等の表現を含みうる。
このような態様において、発声されたコマンドを理解するために、デバイスはさらにマイク及びマイクからのデータを処理する処理部を含む。音声認識の手段は当業者に知られている。いくつか又は全てのコマンドは、確認のためにデバイスに復唱されてもよい。このような場合、デバイスはスピーカーも含む。
通常、音声インタフェースで実行できる全てのコマンドは、従来的なボタン及び/又はタッチスクリーンによるコマンドでも実行できる。
なお、このようなデバイスは録音にも使用し得る。録音は、音声コマンド(例えば、「Start Recording(録音開始)」)及び/又はボタン/デバイス又はタッチスクリーン上のコマンドで開始できる。同様に、録音の中止は「Stop Recording(録音中止)」で中止し得る。録音されたオーディオは、現在のセッション情報(現在の患者、操作者等)及び現在のタイムスタンプでタグ付けされて保存される。このような録音により、外科医は自分の行動や観察を、さらなる記録デバイスやノートとペンの必要なく記録することを可能にする。
[光コヒーレンスイメージング(OCI)モダリティ]
光コヒーレンスイメージングモダリティは、組織の流動性の視覚化を可能にする。通常は、微小循環血流(灌流)を測定する。このようなモダリティにおいては、レーザ等のコヒーレント光源が統合される。波長及びパワーは、詳細な実装によるが、色は通常、約800nmの近赤外域にある。レーザドップライメージング(LDI)及びレーザスペックルイメージング(LSI)において、後方散乱光はセンサに検出される。このようなセンサはCMOS、CCD、又は他の合理的な種類の画像センサであってもよい。ある態様において、センサは画素の2D配列である。また、2D画像を生成するためのスキャンニング手段をさらに含む単一の画素若しくは線状センサで実装することも可能である。
その後、信号は処理部により処理される。LDIの場合は、処理は通常フーリエ変換を行い、パワースペクトルのゼロ及び第1モーメントのモーメント解析をする。第1モーメントは灌流に比例する。同様な結果を出す他のアルゴリズムは当業者に知られている。LSIの場合は、(空間的及び/又は時間的な)スペックルコントラストを解析する。速度はスペックルコントラストに非線形的に反比例する。OCI処理の結果は、OCI値とOCIマップという。1つ又は複数のOCIマップは通常カラーマップを用いて(つまり、各値に色を割り当てることにより)画像に変換される。そして、画像はディスプレイ部に転送される。
追加の制御部で、個人内相対的評価を行うことが可能になる。この場合、OCI値は絶対値として視覚化されず、予め記録した基準値に比較される。そして、スクリーンに表示する画像は基準値に対して相対的に計算され、多くの場合はパーセント数として示される。
[機能的光コヒーレンスイメージングモダリティ(fOCI)]
機能的光コヒーレンスイメージングモダリティは、OCIモダリティに基づくが、さらに機能的な解析のためにOCI値を処理する。機能的解析では、OCI値の変化は、時間に対して解析され、刺激に関係づけられる。刺激は、心拍や呼吸等の体内の刺激、指の動き、発言等の実行刺激、若しくは電流又は光の適用等の外部刺激であってもよい。
多くの場合、刺激の状態(刺激信号)は、OCI値と並行に記録される。機能的処理は、独立成分抽出(ICE)、回帰分析、又は刺激パターンに対して領域の統計的有意性を抽出する任意の他の統計的方法により実行される。
結果は1つ又は複数のマップとして表すことができ、マップ値は刺激に対するあるゾーンの反応(血液動態反応)の統計的有意性に関する。血液動態反応は、刺激と完璧に一致しない。血液動態反応のモデリングは、当業者に知られている。例としては、脳の運動皮質における指の動きの刺激をイメージングする場合は、結果として得られるマップは指の動きに統計的に関連するゾーンを示す。
結果のマップはカラーマップを用いて画像に変換し、ディスプレイ部に転送する。
[デジタル顕微鏡モダリティ]
デジタル顕微鏡モダリティは、顕微鏡又はルーペの機能を実施する。このような場合、ユーザは通常の白色光カメラの拡大率を顕著に増加できる。ユーザはスクリーンで、身体の関心領域からのサブミリメータサイズの構造を、有意により大きく見えるようになる。(オブジェクトのサイズからスクリーンにおける視覚化サイズへの)拡大率は、1.5xから40xの範囲が可能である。より高い率も可能であるが、デバイスの機械的振動特性及び臨床的ユーザの手先の正確さのため、通常の場合、より高い率を適用する意味はない。拡大率は、本発明を限定しないと考える。クラシックな顕微鏡とは反対に、ユーザは接眼鏡を通してではなく、スクリーンでズームした内容を観察する。デバイスヘッドを動かす際に、ユーザは自動的に体の関心領域も動かす。よって、デジタル顕微鏡は、デジタル拡大鏡として働く。これは、拡大鏡の周知な有用性を促進し、クラシックな顕微鏡に比較した有意性を向上させる。
ある実施態様において、デジタル顕微鏡モダリティは、身体の関心領域が少なくとも1.5xの拡大率で表示できるように構成されている白色光センサを含む。
デジタル顕微鏡モダリティのある実施態様において、デバイスは、ズーム目的を形成するために構成されているレンズと他の光学的要素を含む。デバイスはさらに、白色光画像を検出するための画像センサを含む。このようなセンサは、カラーセンサが好ましく、CMOS、CCD、又は任意のその他の種類のものであってもよい。フレームレートはビデオ範囲の少なくとも半分、従って少なくとも1秒ごと12フレームであるべきである。ズームレベルは、タッチスクリーン、物理的ボタン、足踏みスイッチ、又はその他の合理的な手段を介するインプットでユーザにより調節可能であることが好ましい。ズームレベルは離散的又はスムースであってもよい。フォーカスは一定の距離であるか、自動調節する。ズームは完全に又は部分的にデジタルズームによりできる。ある実施態様において、光学的ズームは1xから5xの範囲のズームを可能にするが、デジタルズームはそれに1xから2x又は4xの倍率を追加で与える。好ましくは、ズーム率はスクリーンに表示される。デバイスヘッドは、安定性を確保するためにアームに、かつデバイスヘッドの位置の調整を終えた時にユーザが手を離せるように装着されている。
ある実施態様によると、レンズは部分的に又は全体的に、膜と液体で構成されているフォーカス・チューナブルレンズであってもよい。このようなレンズは、機械的に若しくは電流で調整可能できる。
さらなる拡大は、高解像度画像センサを使用して、照明されているセンサの全体のサブセクターのみを使用し、そのサブセクターを画像出力の全体に表示することによりデジタルズームを実行して達成できる。ズームした画像の画質はコントラスト/鮮明さを高めるためのフィルタを使用してさらに向上できる。ある実施態様において、画像センサは数百万個の画素を含む。
ある実施態様によると、フォーカスは自動調整式である。このような場合、システムは調整可能なレンズシステムを使用してフォーカスを調整する。フォーカス距離は、(例えば、光又は超音波に基づく距離センサを使用して)距離を測定すること、既知パターンを投影して画像センサで読み取ること、レンズを調整しながらコントラスト解析を実行すること、又は任意のその他の手段で検出する。自動フォーカス方法は、当業者に知られている。
ある実施態様によると、デジタル顕微鏡は同様の光学的構成を有する少なくとも2つの白色光カメラシステムを含み、それらは立体的データを生成できるように配置されている。このような態様では、両カメラからの信号が処理部において、立体的アルゴリズムで処理される。結果は、観察領域の全体的又は部分的な3D表現である。
デバイスにおけるスクリーンは、クラシックな2Dスクリーン又は3Dスクリーン、3Dメガネ、若しくは任意のその他の3D視覚化方法であってもよい。ユーザは頭をクラシックな手術用顕微鏡のレンズに固定されていなくても手術ができ、又は身体の関心領域を観察できる。
身体の関心領域の色を精度良く再現できるカメラディスプレイ及び画像センサを使用することについては特に注意する必要がある。ある実施態様においては、これは、身体の関心領域の良好な照明、及び画像センサのホワイトバランスの最適化で支持できる。
[デジタル顕微鏡モダリティにおける焦点距離の設定]
クラシックな顕微鏡において、ユーザは接眼鏡を通して見る。このようなシステムでは、顕微鏡の光学系と目の光学系はシステムを構成し、目の光学系がある程度フォーカスを調整できる。デジタル顕微鏡ではこれは不可能である。
ある実施態様によれば、フォーカス深度は大きめの身体の関心領域から鮮度の高い画像を提供するために十分に大きく、及び/又はフォーカス深度はユーザに選択可能である。
ある実施態様によれば、ユーザは身体の関心領域の中にあるフォーカス点を選択できる。デジタル顕微鏡は選択された点で画像が鮮明であるようにフォーカスを調整する自動フォーカスシステムを含む。
ある実施態様によれば、上記フォーカス点の選択は手動で行われ、例えばユーザがタッチスクリーン上の画像のある点をタッチすること、又は任意の他の合理的な選択手段により行われる。
ある実施態様によれば、上記身体の関心領域内のフォーカス点の選択は、主要ユーザが見る位置に基づいて自動的に実行される。ユーザの目は、ユーザの顔に向けられているカメラシステムを使用して観察される。このような眼位アルゴリズムは当業者に知られている。臨床環境においては、複数のユーザがスクリーンを見る。よって、主要ユーザを識別する必要もあり得る。このような識別は、最も近い顔、最も長い観察時間、及び/又はユーザに対するGUIの方向に基づいてできる。後者の場合、主要ユーザはGUIが向けられている側からスクリーンを見る顔として識別される。また、ユーザが主要ユーザを手動で選択する必要な場合もあり、そのようなユーザの顔はさらにトラッキングされる。このような選択は、主要ユーザを識別するための上記自動化したアルゴリズムが成功しなかった場合にのみ要求されてもよい。
ある実施態様によれば、上記フォーカス点の選択は、他のモダリティの結果に基づいて自動的に実行される。非限定的な例として、最大に/最小に灌流されている領域に自動的にフォーカスすること、又はCT又はX線画像から予め選択された領域にフォーカスすることがある。
ある実施態様によれば、上記フォーカス点の選択は、デバイスヘッドの移動に基づき連続的に調整される。移動は、本発明の別の節に記載されているように検出される。フォーカス点は、身体の関心領域上のほぼ同点に維持されるため、デジタル画像上のフォーカス点もデバイスヘッドと同じ距離移動する。
[蛍光イメージングモダリティ]
蛍光イメージングモダリティは、蛍光の活性化及び検出を実施する。
ある実施態様に係るデバイスは、蛍光物質の所望励起波長で発光する光源を含む。所望波長は必要な蛍光物質に依存する。光源は、(レーザ等の)単色光源又は任意の種類の光源に伴い所望波長のみを通すフィルタで構成されてもよい。光源が蛍光物質の発光波長で発光しないことは重要である。光源は身体の関心領域を照明する必要があり、十分な蛍光物質を活性化する程度の強度を必要とする。システムはさらに検出部を含み(例えば、CCD又はCMOS画像センサ)、励起波長をフィルタし、発光波長を通過させるもう1つのフィルタを含む可能性が高い。
もう1つの実施態様において、検出パスは他の光パスにぴったりと位置合わせされている。同じパスを使用してダイクロイックミラーを用いて発光波長をフィルタすることでこれを達成できる。
もう1つの実施態様において、デバイスはさらに2つ以上の波長の光源及び/又は2つ以上の発光波長での検出を含む。複数の波長での測定は、より良い信号対雑音比又は背景雑音の減算を可能にする。
もう1つの実施態様において、デバイスは、照明光源を高周波でオン/オフ切り替え又はパルスを可能にする制御部をさらに含む。光源の状態は検出処理部にシンクロナイズされ、それにより蛍光発光減衰の時間遅延の測定が可能になる。時間遅延の測定は、改善された信号対雑音比、背景雑音の減算、及び蛍光物質のクオリフィケーションを可能にする。
ある実施態様にかかるシステムは、インドシアニングリーン(ICG)向けに構築され、照明波長は750から810nmの範囲内であり、好ましくはレーザ光源で生成される。検出周波数は830から850nmの範囲内であり、好ましくは約835nmである。検出は蛍光画像検出部に>830nmを反射するダイクロイックミラーを用いて達成される。もう1つの実施態様において、画像検出部はLDI/LSI検出部と共有される。このような場合、全てのNIR(>780nm)は画像センサに転送される。電気的に又は機械的に制御されるロングパスフィルタがICG発光の検出のための検出部の前に挿入される。同フィルタはLDI検出のためには取り除かれる。このような実施態様では、LDI/LSI及び蛍光イメージングは同時に使用できない。
ある実施態様において、画像センサに検出される蛍光発光信号は、さらにデジタル的にフィルタされ、ディスプレイ部に転送される。多くの場合、結果は色付けられ及び/又は身体の関心領域の普通の白色光画像の上にオーバレイされる。
ある実施態様において、デバイスはさらに蛍光発光信号の時系列を記録し解析する処理部を含む。このような時系列は、身体への蛍光物質の注入直後に、身体の関心領域への蛍光物質の入出流を記録するために特に興味深い。この入出流特性は、純濃度情報に加えて流れ情報の決定に使用できる。
[画像マッピングモダリティ]
画像マッピングモダリティは、同患者からの予め記録した画像を取り込み、スクリーンに表示することを可能にする。このような画像(取り込んだ画像)は、同デバイスで予め記録したもの、又は他のデバイスやシステムで記録したものであってもよい。非限定的な例は、LDI画像、蛍光画像、X線画像、CT画像又はスライス、MRI画像又はスライス、fMRI等の機能的画像、超音波画像、PETスキャン等である。
ある実施態様において、デバイスはそれ自体の位置及び患者に対する相対的位置を自動的に検出する。本明細書の別の節を参照。このような場合、スクリーン上の取り込んだ画像は、現在イメージされている身体の部位に対応するように表示される。このため、全ての取り込んだ画像は、身体の部位、位置、及び向きを示すメタ情報で改良されるべきである。
また別の実施態様において、取り込んだ画像は、自動的に又は半自動的に、マッピング処理部を用いて身体の関心領域にマッピングされる。マッピング処理部は写真画像又は取り込んだ画像にリンクした特徴(取り込んだ画像に見える境界又はマーカー等で、依然として患者上で見えるもの)を使用して身体の関心領域におけるゾーンをリンクする。このようなリンクは、マーカー、境界、又はデバイスのカメラセンサと取り込んだ画像の特徴の画像比較を検出することを含んでもよい。この処理は、ユーザが身体の大体の領域にナビゲートしなければならない、及び/又はユーザがマッピング特徴を選択しなければならない等のように半自動化できる。
また別の実施態様において、取り込んだ画像のマッピングは手動でされる。依然としてデバイスは、現在の白色光画像の上に取り込んだ画像のオーバレイ、又はリンクした写真画像を表示することにより、マーカー又は特徴をハイライトすることにより、そのプロセスを補助できる。また、デバイスが位置決めされてから、マッピングを微調整できる。
また別の実施態様において、取り込んだ画像は現在イメージングされている身体の関心領域とは独立したものである。例としては、身体パラメータ、病歴の記録等がある。このような場合、デバイスは位置とは独立に画像のレビューを可能にする。
他の実施態様も可能である。また、これらの実施態様の要素を新しい解決手段において組み合わせることが可能である。
ある実施態様において、デバイスは取り込んだ画像をDICOM形式で取り込む。デバイスは任意に病院の画像データ格納であるPACS(Picture Archiving and Communication System)にアクセスできる。また別の実施態様では、デバイスはネイティブファイル形式又は他の標準ファイル形式で画像を取り込むこともできる。
[追加患者情報又は臨床情報]
ある実施態様において、デバイスは患者、臨床状況、及び現在の行為に関する追加情報をスクリーンに表示できる。このような情報は、内部の格納部(患者データ)、外部の格納部(病院の情報システムを通して)又はライブソース(例えば、患者監視システム)、又は内部センサや外部センサから取り込み可能である。
内部センサは赤外線体温計、環境体温計、湿度等であってもよい。
外部センサはケーブルや無線接続等の任意の通信手段を使用してインタフェースできる。Ethernet等の標準的なインタフェースや病院のインタフェースが好ましい。外部センサはECG、血圧や酸素度等の生体機能、又は任意の他の臨床的に関連する機能を監視できる。
センサ値はスクリーンに表示されてもよく、処理されてもよく、又は最適化のためにモダリティによって使用されてもよい。
[同じ又は類似する光軸]
ある実施態様において、全てのモダリティからマップ/画像が得られ、少なくとも身体の関心領域の一部が全てのマップに表現されるようにマップ/画像をマッチングできる。このような場合、マップはオーバレイできるように変換できる。
ある実施態様において、デバイス内のモダリティは少なくとも部分的に共有する光パスを有する。図12にいくつかの例を挙げる。同種類の複数の要素がある場合、このような要素は「a」又は「b」で拡張される。共有光パスは、共有のセンシング光パス(601)と複数のモダリティのための共有センサ(610)(例Aを参照)、又は共有のセンシング光パスであるがビームスプリッタ(620)を用いてスプリットされたもの(例Bを参照)、又は異なるモダリティの歪みが小さくなりモダリティからのマップがオーバレイできるように変換できるように完全に若しくはほぼ平行であって小さいオフセットを有する2つ以上の独立したセンシング光パス(602)であってもよい。共有光パスはモダリティ間で光源(630)を共有することによっても実施できる(例Dを参照)。モダリティは少なくとも部分的に共通の身体の関心領域(640)を画像化する。
ある実施態様において、デバイスヘッドの光学セットアップは、身体の関心領域に向かう光軸(光パス)が複数のモダリティ間で同様又は類似するようにされる。しかし、個々のモダリティの開口数と他の光学設定は異なり、独立している。このような場合、マップのマッチングは開口数のみに依存する。
あるいは、同じ光軸が不可能である場合、平行軸を使用することが好ましい。このような場合、モダリティの結果は、マップを、軸のオフセットとモダリティの開口数から知られている一定のオフセットでマップをシフトすることでマッチングできる。
あるいは、機械的又は光学的な制限により同じ、類似する、又は平行する光軸が不可能である場合、異なる軸による歪みの補正や複数のモダリティの結果をマッチングするためにアルゴリズムを適用できる。このようなアルゴリズムは、知られている光学セットアップ及び、ことにより作業距離等の追加パラメータを、画像の歪みをとるために使用する。画像の歪みは、全ての関連モダリティにより検出可能な既知パターンを身体の関心領域に投影することにより検出できる。このようなパターンは、その後画像歪みの調整のために使用される。アルゴリズムは当業者に知られている。
ある実施態様において、異なるモダリティのいくつかの要素(例えばレーザ、ビームスプリッタ、レンズ、ミラー、プリズム、画像センサ、制御及びデータ処理の電子及びソフトウェア、メカニックス、及びモーター)が共通する。
ダイクロイックミラーやビームスプリッタ等の特殊な光学要素は、光パスを共有するために使用できる。作動しているモダリティによって光学系のパスを、光学的又は機械的(例えばモーター付きミラー又は電気制御可能フィルタ)で偏光することも可能である。このような場合、いくつかのモダリティは同時に使用できないが、モダリティ間の切り替えは、一秒に数回まで、短時間でできる。
[フォーカス及び作業距離]
関係するモダリティによって、可変又は一定の作業距離が必要になる可能性がある。
ある実施態様において、作業距離を測定するシステムが実施される。このようなシステムは、レーザに基づく飛行時間センサ又は超音波に基づくセンサ等の距離センサで実施できる。場合によって、身体の表面に対するデバイスヘッドの角度を測定することも興味深い可能性がある。このような場合、複数の距離センサを使用可能である。代わりの実施態様においては、投影パターンを使用して、画像センサで検出することにより距離が検出される。
一定の作業距離を使用する場合、ある実施態様においては、レーザ位置合わせシステムが使用され、ユーザが正確な作業距離にいるかについて瞬間的フィードバックを提供できる。よい位置合わせシステムは、デバイスヘッドにおいて4つの異なる開口部位置を有する4つの線状光源(4つのラインレーザ等)を含む。2つの光源はグループ化され、作業距離においてその2つの線が一致するように位置が合わせられる。他の2つの光源はグループ化され、それらも作業距離においてその2つの線が一致するように位置されるが、他の線とは直交するようにも位置される。理想的な場合、デバイスヘッド上の2つのグループされた光源それぞれの開口部間の距離は同様である。よい色は赤と緑である。図4はそのラインソースの投影の例を示す。(A)は正確に位置が合わせられている。(B)は不正確な作業距離ではあるが、表面に対して並行である。(C)は正確な作業距離にあるが、並行ではない。
このような一定の作業距離指示システムを実施する代わりの実施態様を図5に示し、これは既にPCT/IB2011/051098に開示されている。光源(241)及びコリメート光学系(242)を含む、少なくとも2つのコリメート光源(240)が、カメラ部(200)の異なる位置に配置されている。このコリメート光源は、観察する表面(250)に小さい点を投影する。小さい点は、カメラ部のフォーカス距離で一致する。理想的な場合、この一致点はさらに観察領域の中心にある。このシンプルなシステムでは、ユーザは、2つの点が同位置に投影され、よって1つの投影点のみが見えるような距離にカメラを運ぶ必要がある。3つ目のレーザを加えると、焦点距離に関してカメラが観察対象表面に近すぎるか遠すぎるかを示すことも可能である。
ある実施態様において、一定の作業距離と可変作業距離を組み合わせることが可能である。このような場合、デバイスヘッドは通常一定の作業距離で動作するが、ある程度の距離の誤差を許容する。いくつかのモダリティは、少なくとも距離の許容誤差のレンジを有する自動フォーカスシステムを使用してフォーカスを調整し、他のモダリティは自動フォーカスシステムを必要としない程のよいフォーカス深度を有する。
[温度測定/マッピング]
多くのモダリティにおいては、結果の解釈又は確認のために、身体の関心領域の表面温度を知ることは興味深い。
ある実施態様において、デバイスは非接触式の温度センサ、例えば赤外線に基づくセンサを含む。このようなセンサは身体の関心領域に向けられ、1つの点、又は複数の点若しくは表面に亘って身体の関心領域の温度を記録できる。デバイスの作業距離がフレキシブルである場合、センサは光軸にぴったりと整合しているか、又は作業距離に基づいて調整可能である必要がある。このような調整は、電動の制御で自動的に実行可能である。代わりの実施態様において、デバイスは外部の接触に基づくセンサの接続を可能にする。
ある実施態様において、完全な赤外線カメラセンサが使用され、身体の関心領域はこのセンサを使用してイメージされ、身体の関心領域の完全な温度マップが提供される。このようなマップは追加のモダリティとして使用可能であり、又はこのセクションに記載のように、いくつかの点の温度を抽出してそれをメタデータとして使用可能である。
センサ値は、標準温度単位に変換される。結果はスクリーンに表示及び/又はメタデータとして任意のモダリティデータと記録してもよい。
ある実施態様において、温度値はさらにデバイスからの診断情報を改善するために使用される。このような実施態様において、温度から灌流への依存性の補正データベースはデバイス内に格納される。このような依存性はさらに性別、歳、皮膚色、又は疾患等の患者集団情報を使用してパラメータ化できる。そして、デバイスは測定温度及び補正データベースの関数として補正灌流情報を算出する。補正データベースは、各集団グループの測定の統計的解析により構成される。
[複数のモダリティのための要素の組み合わせ使用]
ある実施態様において、モダリティ間で共有可能な最大の数の光学的、機械的、及び電気的な要素が共有される。最低限、1つ又は複数のスクリーン及びヒューマン・マシン・インタフェースは全てのモダリティに共有される。
OCIモダリティの場合(例えばLDI又はLASCA)、照明は、通常近赤外線波長(約800nm)におけるレーザソースにより達成され、画像センサは同波長で光を検出する。蛍光イメージングには、多くの場合、少なくとも1つの検出波長は同じ周波数(例えばICGのため)にある。よって、LDIと蛍光の両方のために同じ画像センサを使用することは興味深い。
ある実施態様にかかるデバイスは、蛍光(ICG)、LDI/LSI、及びデジタル顕微鏡モダリティを含む。図7に、光学的概念の略図を示す。身体の関心領域(340)は、コヒーレントレーザ源(330)で照明される。レーザ源は(LDI/LSIのために)シングルモードである必要があり、十分な輝度(数mW/cm3)で身体の関心領域を照明するために十分なパワーを必要とする。照明波長は、760〜810nmの範囲内であり、好ましくは約800nmである。ICGに必要な輝度は通常より高いが、シングルモードは必要ではない。よって、LDI/LSIの場合と同じレーザ源を使用することは可能であり、又はより強いソースに変えることも可能である。また、ICGに複数のソースを使用可能である。同時にいくつかのソースを使用するとスペックルノイズが低下する可能性もある。後方散乱光(302)はビームスプリッタ(例えばダイクロイックミラー)で、赤外光を可視光から分けるためにスプリットされる。ビームスプリッタは、選択されたレーザ波長に依存して>750〜800nm波長を反射し、可視光を通過させる。赤外光のためには、光ビームは、実際に使用されているモダリティ(LDI対ICG)によって構成される帯域通過/ロングパスフィルタ(313)を通過する。このフィルタは、LDI/LSIの場合は機械的手段又は任意の他の合理的な手段で無効にされ、蛍光の場合は有効にされる。ビームはさらにフォーカスレンズシステム(312)及び可能性としてモダリティによって調整できる開口部(311)を通過する。フォーカスレンズシステムと開口部の順番を逆にしても、又は混合(レンズシステム内に開口部)してもよい。画像センサ(310)は800−840nmに対するよい量子効率を必要とし、LDIの場合は高スピード能力を必要とする。技術は集積化CMOS又はCCDセンサであってもよいが、好ましくはCMOSである。
白色光カメラ/顕微鏡モダリティについては、光ビームはビームスプリッタを通過し、さらに電気的に調整可能な可能性もあるズームレンズシステム(322)と、自動フォーカスシステムが使用される場合は固定又は調整可能なフォーカスレンズシステム(321)を通過する。高解像度カラーセンサ(320)は光を検出し、カラーの2D画像を生成する。カラーセンサはCMOS、CCD,又は任意のその他の合理的なセンサ種類であってもよい。多くの場合、身体の関心領域の均一な照明のために白色光源(331)が使用される。このような光源は、LED又は白色光照明のための任意の他の合理的な技術から構成されてよい。この光源が近赤外(ICG発光)スペクトルで発光しないことを確保することは必要である。これは、加算型ショートパスフィルタで容易化できる。
ある実施態様にかかる近赤外線(310)は、2セットの画素を含む画像センサである赤外カラーセンサで構成される。画素の1つのセットは<=810nmに帯域通過フィルタされ、他のセットは>830nmにフィルタされる。このような実施態様において、ロングパス/帯域通過フィルタ(313)を除いてもよい。通常のカラー画像センサのように、画像センサは2セットの画素群に対応する少なくとも2つの異なる画像を返す。センサのデザインはカラーセンサデザインに非常に類似してもよいが、画素の波長レンジはクラシックなカラーセンサとは異なる。デザインは当業者に知られている。
他の実施態様によると、同じデバイスはLDI/LSI及び蛍光のための2つの別個の画像センサで実施でき(図8を参照)、これはLDI/LSIとICGの同時動作を可能にする。このような実施態様において、ロングパスフィルタは加算型ビームスプリッタ(314)に置き換えられる。このビームスプリッタは全ての蛍光信号(800nm照明の場合は>830nm)を反射し、より短い波長を全て通過させる(又はその逆)。フォーカスレンズは2つの別のレンズシステム(316及び312)で実施される。加算型画像センサ(315)は、830−840nmの範囲においてよい量子効率を必要である。このセンサに必要なフレームレートはふつうのビデオカメラの範囲内である。
[組み合わせ:オーバレイ]
ある実施態様において、異なるモダリティの結果はスクリーンにオーバレイされる。このようなオーバレイの例として、OCIマップ上への蛍光マップのオーバレイ、又は任意の画像マッピングモダリティ上へのOCI又は蛍光マップのオーバレイ(例えばX線上にOCI)が可能である。いずれにせよ、普通の白色光(又は顕微鏡)画像上に任意のモダリティをオーバレイするとおもしろい。
オーバレイは、身体の関心領域における同じ点を同じ画素座標にマッピングすることにより生成される。そして、画像はミックスされる。例えは蛍光が検出されない領域のように画像の幾つかの部分は透明に設定でき、又は半透明に設定できる。まら、全てのモダリティが同じ身体の関心領域を含まないことも可能である。このような場合、オーバレイ画像は、全てのモダリティが含む領域のみを含むか、又はオーバレイ画像は幾つかのモダリティに部分的にのみオーバレイされる。このような場合、各モダリティのカバー領域を視覚化可能である。
図11は、OCIモダリティからの指の灌流画像が示されるオーバレイの例を示す。この例において、より大きい観察領域を有する白色光画像(510)は、OCIマップ(520、ボーダーはユーザに見えない)でオーバレイされる。この例において、非灌流値及び低灌流値は完全に透明(521)に設定され、他の値は透明性を有さない(522)。
[処理:より大きい血管を微小循環から区別する]
ある実施態様において、デバイスは蛍光(例えばICG)及びOCI灌流イメージングを備え、2つのモダリティは共通の身体の関心領域から少なくとも部分的に同時に又は短い時間間隔で連続マップをとる。デバイスはさらに、両モダリティからのデータを比較する処理部を含む。
蛍光モダリティは基本的に蛍光物質の濃度を測定し、ICG等の蛍光物質は血液に結合しているため、血液の濃度を示す。この値は基本的に血液の速度には依存しない。OCI灌流イメージングは、速度に比例する灌流の視覚化を行う。OCIは検出可能な最大速度を有する。技術によって、最大速度より高い速度は最大速度で検出されるか、又はより低い値で検出される(アンチエイリアシング効果)。
蛍光とOCIモダリティデータ間の比較は、微小循環灌流をより大きい(かつよってより速い)血管から区別するために使用できる。両方の技術は微小循環流動には反応するものの、蛍光のみがより大きい血管に反応する。このような比較の例は、蛍光マップからOCIマップのシンプルな重み付け減算である。OCIマップは灌流又は濃度マップであってもよい。
このような比較を実行するためには、浸透深さも考慮する必要がある。2つのモダリティの浸透深さが有意に異なる場合、比較は組織の異なる深さにおける血流の貢献を区別するためにも使用できる。
他の実施態様においては、蛍光画像はまず記録される。その後、蛍光画像はリアルタイムOCI画像上にオーバレイされる。可能性としては、大きい血管のみをハイライトするために、蛍光はさらにフィルタされる。これは、上記手段により、又は蛍光物質の入流中に鮮明な画像を撮ることで達成できる。このような場合、ユーザに表示される画像は蛍光モダリティで検出された大きい血管を含み、及びOCIモダリティを使用したリアルタイムの微小循環灌流を含む。オーバレイ画像は、ユーザがカメラヘッドを移動させた場合に、依然としてOCI画像に位置合わせされるように大きい血管も移動するように、マッチングされている。このような位置合わせ解決法は、本文の別箇所に説明してあるが、両モダリティから見えるマーカー、及び/又はデバイスヘッドの位置/方向情報を含み得る。
[処理:浸透深さ]
異なるモダリティは異なる浸透深さを有し得る。例えば、多くの場合、蛍光モダリティはOCIと比べて皮膚へのより深い浸透深さを有する。
モダリティの浸透深さを知ると、モダリティからの結果の比較は、皮膚の異なるレベルにおける灌流の評価の助けとなる。よって、ある実施態様において、異なる浸透深さを有するモダリティのデータの組み合わせは、皮膚及び皮下組織における異なるレベルでの灌流を評価するために使用される。
例えば、ICGに基づく蛍光灌流イメージングは、皮膚に対してOCIより深い浸透深さを有し、よってより深い構造及び皮下構造における灌流の評価をアシストできるが、OCIは皮膚の上層に限定される。灌流はよいが薄い皮弁領域においては、ICGに基づく灌流信号は、血液の体積が小さいため、弱く見える。同時にOCIに基づく灌流信号は強い。よって、ICGのみを見ると、皮弁領域が生存可能でないという誤った結論に至る。両モダリティの組み合わせは従って、個々のモダリティを単独で使用する場合よりは高い臨床実績に至る。
[処理:モダリティ信頼性の改善]
同じデバイスに、同じ又は類似するパラメータ(例えば、灌流を評価するためにICG及びLDI)を測定する幾つかのモダリティを実施すると、それらを組み合わせて測定の信頼性を改善できる。
ある実施態様において、蛍光モダリティ(例えばICG)とOCIモダリティ(LDI又はLSI等)が組み合わせられる。2つのモダリティは共通の身体の関心領域を観察する。このモダリティにより生成されるマップは処理部により処理される。処理部はマップを比較する。2つのモダリティの結果(例えば標準又は絶対値より高い/低い灌流)が一致する領域は、より高い信頼性を有する一方、結果が異なる領域の信頼性は低い。処理部は各領域に対する信頼性情報で加算マップを生成する。このマップは、モダリティからのマップと同じ解像度、又は低下した解像度を有し得る。
ある実施態様において、上記組み合わせは更にデバイスヘッドの移動を検出するために使用される。デバイスヘッドの移動は、OCIモダリティでは測定灌流を有意に増加させるが、蛍光信号は増加しない。処理部は時系列でデータを解析し、蛍光信号の有意な増加が伴わないOCIモダリティからの灌流増加を検出する。このような場合は、信頼できないとマークされる。
ある実施態様において、上記処理部はさらに両モダリティからの情報を組み合わせて新しい灌流マップを生成する。
大きい血管と信頼できないデータを区別するために、データの時系列を解析できる。特に、大きい血管における流動は微小循環における流動より前に見えるため、蛍光物質の入流のフェーズはこの区別に有利である。
[処理:心拍]
本発明のもう1つの目的は、デバイスの外部監視デバイスとの接続である。ある実施態様において、OCIモダリティを備えるデバイスは、さらにリアルタイムECG、心拍、又はパルス情報を提供する監視デバイスに接続される。この情報は、OCIモダリティで撮った灌流画像の解析に使用される。OCIモダリティは>4Hzのフレームレートでいくつかの画像を撮る。OCIモダリティのダイナミックスを心拍情報に比較する際、OCIマップのクオリティを向上できる。灌流及び心拍における対応するピークを除去又は識別できる。パルスラグも解析できる。また、(特に異なる周波数で)心拍に対応しないダイナミックなピークも全て識別できる。このようなピークは、他の生理的要素により導入されたもの、又は(移動等による)アーティファクトである。よって、接続した監視デバイスは信号質を向上させ、ノイズを低下又は識別できる。図10において、関心領域からの任意灌流単位(apu)を、6秒間レーザドップライメージングシステムで記録し、プロットされた例を挙げる。このプロットで見れるように、1秒の間隔でだいたい心拍に関するピークが見える。しかし、全てのピークが一定の周波数をもち、必ずしも心拍に相関するわけではない。追加の外部心拍監視をOCIモダリティデータと同期すると、測定信号の解析を改善可能にする。いくつかのピークは心拍に割り当てられ、他のピークは他又は未知のソースに割り当てられる。このような解析は、独立成分抽出(ICE)で達成し得る。
スキャニング法でOCIモダリティが実装され、1つのフレームの取得に1秒以上かかる実施態様において、心拍信号はスキャニング中の心拍による影響を除去するために使用できる。このような場合、スキャニングOCIシステムの各画素値は、心拍のフェーズに基づいて重みづけられる。OCI信号の一般的な心拍関連パルスを理解するために、スキャニングシステムは、マップの幾つかの点で心拍の完全サイクルを測定できる。その点におけるOCI信号のパルスと外部心拍信号の相関は、使用するパルス関連重みを計算するために使用される。
[処理:蛍光及びOCIモダリティで癌検出]
本技術革新のさらなる側面は、蛍光イメージングと灌流イメージングの組み合わせにより改善した癌検出である。癌細胞を検出するために使用できる具体的な蛍光剤は当業者に知られている。その剤は、具体的な癌細胞に存在する具体的なタンパク質又は他の分子に付着する。完成した剤も存在する一方、多くの物もまだ開発中である。また、いくつかの種類の癌は、過剰又は過少灌流を示すことが知られ、よって通常の組織に比較して癌は、増加又は低下した潅流を示す。
ある実施態様において、蛍光イメージングとOCIモダリティが組み合わせられる。両モダリティの解析は、検出の信頼性を高めることができる。例えば、過剰灌流を起こすことが知られ、かつ特定の蛍光物質に結合することが知られている癌の種類は、両方のモダリティが予測された反応(増加した灌流及び蛍光反応)を示す場合に、より信頼して検出されうる。また、蛍光物質が異なる種類の癌に結合し、過剰/過少灌流情報が癌の種類を区別する場合、さらに癌の種類を区別することが可能である。このような実施態様において、処理部は両モダリティからのマップを解析し、共通する若しくは(比較的に)異なるデータをマップにおいて検索する。
上記方法は、具体的な蛍光剤に基づき、さらに灌流情報を用いてさらに識別/区別できる、他の種類の組織検出にも適用できる。
[患者に対するデバイスヘッドの位置及び方向性]
いくつかの実施態様においては、患者の身体に対して仮想ウィンドウの位置及び/又は方向を検出する必要があり得る。このような身体の検出は幾つかの方法で容易化できる。
ある実施態様において、関心領域において、患者の身体に光学マーカーが付着される。そして、このようなマーカーは、デバイスヘッドにおけるセンサを使用して検出される。このようなセンサは、デバイスに存在する任意のイメージングモダリティからの任意のカメラセンサ又は専用カメラセンサ等の特定のセンサであってもよい。カメラヘッドに対するマーカーの位置は、センサの情報、光学的公正、及び既知若しくは測定された作業距離を用いて計算される。また、作業距離に依存しない位置計算のために、複数のセンサ及び/又はステレオビジョンを処理することも可能である。
また他の実施態様において、デバイスヘッドは、ナビゲーションシステム(430)の外部3Dステレオカメラにより検出可能な光学的マーカーを(402)装備される。同様な光学的マーカー(410)は、患者の身体(440)及び/又は手術台(420、マーカー421)等の患者に対する既知の相対位置を有する任意の他の道具に装着される。(定位的な)ナビゲーションシステムは、全ての光学的マーカーの位置を計算し、絶対的な及び/又は相対的な位置情報をデバイスに送信する。情報は、ケーブル(435)又は無線通信等の任意の手段で送信できる。このようなシステムは、図9に示されている。この例において、デバイスヘッド(401)はアーム(403)及びスタンド(404)にマウントされている。アーム及びスタンドは、ナビゲーションシステムの操作には必要でない。いくつかの構成において、全ての光学的マーカーは1つの単一の3Dステレオカメラに見えない場合もある。このような場合、複数の3Dステレオカメラを使用可能であり、又は冗長マーカーが取り付けられうる。定位システムは、当業者に知られている。
また他の実施態様において、デバイスヘッドは、ジョイントのセンサ又はスタンドのベースに対するデバイスヘッドの位置計算を容易化する他のセンサを備えるアーム及びスタンドにマウントされる。スタンドのベースは(例えば、ホイールにブレーキを使用して)地面に固定できる。ユーザはデバイスヘッドで(いくつかの点を画像化するように)患者の身体上のいくつかの点を指す。カメラは、光学的構成、スタンドに対するデバイスの相対的位置、及び場合により作業距離を記憶する。この情報に基づき、かつカメラスタンドが移動されない(又は移動が知られている)限り、デバイスヘッドは、患者に対するデバイスヘッドの位置を計算できるように「調整」されている。
他の実施態様も可能である。また、これらの実施態様の側面を新たな解決法に組み合わせることも可能である。
通常、デバイスはモダリティの光学構成を、患者の身体上の絶対的なイメージング領域の計算に、追加情報として使用する。
このような位置検出は、イメージマッピングモダリティに必要であるが、位置情報が各記録についての位置情報を記憶するために使用でき、このような記録が位置情報を用いて後処理において組み合わせられるような、他のモダリティにも有利である。
ある実施態様において、位置情報及び方向情報は、撮像画像とビデオと一緒に保存される。
[相対的デバイスヘッド移動情報]
患者に対するデバイスヘッドの位置を計算する代わりに、いくつかのモダリティ及び応用に関しては、デバイスヘッドの移動のみを検出することで十分である。このような場合、位置情報は、仮想座標フレームに対するデバイスヘッドの位置及び方向に限定される。仮想座標フレームは、デバイスの各セッションに対して異なり、患者の座標フレームに完全に、又は部分的にリンクされ、若しくはまったくリンクされないことも可能である。
ある実施態様において、このような検出は、運動センサ(加速度センサ、ジャイロスコープ)及び/又はジョイント角度センサの組み合わせで容易化し得る。処理部がセンサデータを連合し、デバイスヘッドの運動を計算する。
[画像つなぎ合わせ]
カメラの位置及び方向情報は、絶対的又は相対的なものに関わらず、捕捉したデータをつなぎ合わせるために使用できる。捕捉したデータは、任意のモダリティからの任意の捕捉画像又はビデオであってもよい。
画像のつなぎ合わせは、それぞれの捕捉データ/フレームの位置情報及び方向情報を、大きな画像において位置合わせするために使用する処理部により行われる。このような処理は、デバイスにおいて実行でき、又は位置/方向情報を利用する外部ソフトウェアにより実行できる。必要なアルゴリズムは、画像歪曲と変換を含み、当業者に知られている。
一般的な身体の形を知ると、位置された画像はさらに身体の3Dモデルにマッピングできる。
[データ捕捉]
ある実施態様において、同時に、若しくは短時間内に順番に幾つかのモダリティからデータを捕捉することが可能である。このような捕捉は、単独のスナップショット又は完全なビデオ記録で実行できる。デバイスヘッドの位置及び方向、作業距離、並びに光学的構成、又は他のセンサ値等の追加情報は、メタデータとして記憶できる。後処理は、異なるモダリティのデータのマッチングを可能にする。
異なるモダリティの結果は、好ましくは1つのファイルに記憶されるが、いくつか又は全てのモダリティを別のファイルに記憶することもできる。カスタムファイル形式も可能であるが、ある実施態様において、結果はDICOMファイル形式で記憶される。DICOMは医療分野において広く受け入れられる、拡張可能なファイル形式である。
[必要とされる場合に利用可能な機能]
いくつかの臨床及び手術の設定においては、上記イメージングモダリティのうち1つにより提供される情報で十分である。しかし、他の場合では、上記イメージングモダリティの少なくとも2つは必要である。それらを1つのデバイスにおいて統合することで、ユーザは必要な時に装置の周りを動き回らずに、このモダリティのスイッチを入れられる。
[使用に基づく管理及び請求]
各モダリティは少なくとも部分的にデジタル処理を含むため、詳細なデバイス使用統計を取得、及び記録できる。これは、デバイス及びそのモダリティの使用に基づくビジネス及び請求モデルを可能にする。記録できるパラメータには、使用されたモダリティ、使用時間、記録した画像又はビデオの量、又は具体的な患者や操作者に関する情報、又はシステムのアルゴリズムにより実行された解析の量が含まれる。一般的なワークフローは、以下のように見える。
1. デバイスの起動又はレジューム
2. 患者情報の入力及び任意的には操作者の選択
3. 一次モダリティの選択及びイメージングセッションの開始
4. モダリティの操作、任意的にはモダリティから取得する情報の記録
5. 任意的には他のモダリティの追加
6. イメージングセッションの完了
ある実施態様において、使用情報はデバイスにより記録され、定期間隔で請求センターに転送される(例えば、セキュアな電子伝送手段により)。そして、請求センターは、所定の料金プランに基づいて、使用をインボイスする。
代わりの実施態様において、ユーザはデバイスの使用のために、クレジットを前払いする。クレジットは、特定のモダリティに対するもの、又は包括的なものであってもよい。包括的なクレジットの場合は、各モダリティはその使用のために異なる量のクレジットを要することも可能である。
上記2つの実施態様を組み合わせることも可能である。また、消耗品(例えばインプラントやICG)とバンドルされる際に、クレジットが与えられることも可能である。これは、インプラントと同時に渡されるバーコードを(例えばデバイスのカメラ、又は特定のバーコード読み取り機で)スキャンすること、RFID等の近距離無線通信、又は任意の他の許可コードの転送により達成できる。このような許可コードは、1回のみスキャンできる。この限定は、システム上に既に使用されたコードを格納するデータベースを有することにより実現できる。
このような使用ベース請求は任意的であり、資本的設備に基づくビジネスモードと組み合わせ可能である。
また、ライセンスに基づきモダリティを有効/無効にすることも可能である。

Claims (12)

  1. 灌流評価マルチモダリティ光学医用デバイスであって、
    身体の関心領域をイメージするように構成されている白色光画像センサ及び光学システムと、
    前記身体の関心領域を760〜810nmの波長で照明するためのコヒーレント光源と、
    前記照明されている身体の関心領域の少なくとも一部からの、照明波長付近における後方散乱光の変動を検出するOCI画像センサと、
    前記照明されている身体の関心領域の少なくとも一部からの、照明波長より長い波長の蛍光信号を検出する蛍光画像センサと、
    前記モダリティからの結果を表示するスクリーンを含み、
    以上全ての要素は1つの可動ユニットに含まれ、
    前記可動ユニットはさらにLDI又はLSIアルゴリズムを使用して前記OCI画像センサから灌流マップを算出する処理部を含み、
    前記白色光画像センサと、前記OCI画像センサと、前記蛍光画像センサは、少なくとも部分的に共通の光学パスを使用するデバイス。
  2. 前記OCI画像センサと前記蛍光画像センサは、1つの画像センサである、請求項1に記載のデバイス。
  3. 前記白色光画像センサは、身体の関心領域が少なくとも1.5倍拡大で表示できるように構成されている、請求項1又は2に記載のデバイス。
  4. 患者に対するデバイスヘッドの位置及び方向を検出するための検出手段をさらに含む、請求項1乃至3のいずれか1項に記載のデバイス。
  5. 現在視覚化されている身体領域に関する、記憶されている画像及び/又はメタデータをレンダリング及び表示する処理部をさらに含む、請求項4に記載のデバイス。
  6. 2つ以上のモダリティによる結果を組み合わせる一般処理部をさらに含む、請求項1乃至5のいずれか1項に記載のデバイス。
  7. 前記一般処理部は、OCIマップと蛍光マップを比較することにより信頼性情報を計算するために使用される、請求項6に記載のデバイス。
  8. 前記一般処理部は、微小血管灌流を大きい血管から分離するために使用される、請求項6又は7に記載のデバイス。
  9. 前記一般処理部は、少なくとも2つのモダリティからオーバレイ画像を生成するために使用される、請求項6乃至8のいずれか1項に記載のデバイス。
  10. 前記白色光画像のための自動フォーカスシステムをさらに含み、フォーカス点は、ユーザの目によりフォーカスされるスクリーン上の点の位置を突きとめることにより自動的に検出される、請求項1乃至9のいずれか1項に記載のデバイス。
  11. 音声を記録及び解析し、音声コマンドを認識するマイク及び処理部をさらに含み、前記コマンドは前記デバイスを制御するために使用される、請求項1乃至10のいずれか1項に記載のデバイス。
  12. 少なくとも使用されたモダリティと使用時間を記憶する使用に基づく課金をさらに含み、この使用情報はインターネットを介して課金サーバに転送される、請求項1乃至11のいずれか1項に記載のデバイス。
JP2015521112A 2012-07-10 2013-07-05 灌流評価マルチモダリティ光学医用デバイス Active JP6023883B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IBPCT/IB2012/053524 2012-07-10
IB2012053524 2012-07-10
PCT/IB2013/055517 WO2014009859A2 (en) 2012-07-10 2013-07-05 Perfusion assessment multi-modality optical medical device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016199363A Division JP6285522B2 (ja) 2012-07-10 2016-10-07 灌流評価マルチモダリティ光学医用デバイス

Publications (2)

Publication Number Publication Date
JP2015527909A true JP2015527909A (ja) 2015-09-24
JP6023883B2 JP6023883B2 (ja) 2016-11-09

Family

ID=49305028

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015521112A Active JP6023883B2 (ja) 2012-07-10 2013-07-05 灌流評価マルチモダリティ光学医用デバイス
JP2016199363A Active JP6285522B2 (ja) 2012-07-10 2016-10-07 灌流評価マルチモダリティ光学医用デバイス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016199363A Active JP6285522B2 (ja) 2012-07-10 2016-10-07 灌流評価マルチモダリティ光学医用デバイス

Country Status (5)

Country Link
US (1) US10101571B2 (ja)
EP (1) EP2872035B1 (ja)
JP (2) JP6023883B2 (ja)
CA (1) CA2914780C (ja)
WO (1) WO2014009859A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016043066A (ja) * 2014-08-22 2016-04-04 株式会社リガク 画像処理装置、画像処理方法および画像処理プログラム
JP2019510220A (ja) * 2016-03-14 2019-04-11 マサチューセッツ インスティテュート オブ テクノロジー 短波赤外線蛍光を撮像するためのデバイスおよび方法
WO2019146228A1 (ja) * 2018-01-29 2019-08-01 ソニー株式会社 医療用撮像装置及び医療用撮像方法
WO2020095446A1 (ja) * 2018-11-09 2020-05-14 株式会社Splink サーバシステム、サーバシステムによって実行される方法及びプログラム
WO2023090828A1 (ko) * 2021-11-17 2023-05-25 계명대학교 산학협력단 Perfusion imaging 기반 비접촉 자율신경계 반응 다차원 바이오신호 측정 시스템 및 방법

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004365A1 (en) 2008-07-10 2010-01-14 Ecole Polytechnique Federale De Lausanne (Epfl) Functional optical coherent imaging
WO2020093034A1 (en) * 2018-11-02 2020-05-07 Vanderbilt University Combined fluorescence and laser speckle contrast imaging system and applications of same
US10575737B2 (en) 2012-04-27 2020-03-03 Novadaq Technologies ULC Optical coherent imaging medical device
WO2014009859A2 (en) 2012-07-10 2014-01-16 Aïmago S.A. Perfusion assessment multi-modality optical medical device
JP2015192697A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 制御装置および制御方法、並びに撮影制御システム
EP3136951A4 (en) * 2014-05-01 2018-05-09 Yeda Research and Development Co. Ltd. Multimodal transcranial brain optical imaging
EP3143941B1 (en) * 2014-06-25 2021-12-01 Panasonic Intellectual Property Management Co., Ltd. Projection system
JP6534096B2 (ja) * 2014-06-25 2019-06-26 パナソニックIpマネジメント株式会社 投影システム
US9968285B2 (en) * 2014-07-25 2018-05-15 Christie Digital Systems Usa, Inc. Multispectral medical imaging devices and methods thereof
RU2563915C1 (ru) * 2014-08-25 2015-09-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский государственный университет" (СПбГУ) УСТРОЙСТВО ДЛЯ ДИАГНОСТИКИ СОСТОЯНИЯ МИКРОГЕМОЛИМФОДИНАМИКИ in vivo
WO2016052543A1 (ja) * 2014-09-30 2016-04-07 富士フイルム株式会社 内視鏡用外科手術装置
EP3188651A4 (en) 2014-10-14 2018-07-04 East Carolina University Methods, systems and computer program products for visualizing anatomical structures and blood flow and perfusion physiology using imaging techniques
JP2017534378A (ja) 2014-10-14 2017-11-24 イースト カロライナ ユニバーシティ 血流量及び灌流量のマルチスペクトル画像化によって得られる信号を使用して血行動態パラメータを決定する方法、システム、及びコンピュータプログラム製品
US11553844B2 (en) 2014-10-14 2023-01-17 East Carolina University Methods, systems and computer program products for calculating MetaKG signals for regions having multiple sets of optical characteristics
WO2016130424A1 (en) * 2015-02-09 2016-08-18 The Arizona Board Of Regents Of Regents On Behalf Of The University Of Arizona Augmented stereoscopic microscopy
DE102015202605B4 (de) 2015-02-12 2017-03-09 Carl Zeiss Meditec Ag Visualisierungssystem
US10058256B2 (en) 2015-03-20 2018-08-28 East Carolina University Multi-spectral laser imaging (MSLI) methods and systems for blood flow and perfusion imaging and quantification
US10390718B2 (en) 2015-03-20 2019-08-27 East Carolina University Multi-spectral physiologic visualization (MSPV) using laser imaging methods and systems for blood flow and perfusion imaging and quantification in an endoscopic design
EP3291725A4 (en) 2015-05-07 2018-11-07 Novadaq Technologies Inc. Methods and systems for laser speckle imaging of tissue using a color image sensor
KR20160147452A (ko) * 2015-06-15 2016-12-23 한국전자통신연구원 디지털 광학 기기를 위한 가상현실 기반의 디지털 광학 컨텐츠 제공 방법 및 이를 이용한 장치
JP6653467B2 (ja) * 2015-06-15 2020-02-26 パナソニックIpマネジメント株式会社 脈拍推定装置、脈拍推定システムおよび脈拍推定方法
JP6721306B2 (ja) * 2015-09-10 2020-07-15 株式会社ミツトヨ 硬さ試験機
DE102015219121A1 (de) * 2015-10-02 2017-04-06 Carl Zeiss Microscopy Gmbh Mikroskopsteuerungsverfahren und Mikroskop
DE102015117824B4 (de) * 2015-10-20 2017-06-29 Carl Zeiss Meditec Ag Vorrichtung und Verfahren zum Einstellen eines Fokusabstands in einem optischen Beobachtungsgerät
JP6704255B2 (ja) * 2016-01-19 2020-06-03 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、医療用観察システム及び画揺れ補正方法
WO2017181129A2 (en) 2016-04-15 2017-10-19 Worcester Polytechnic Institute Devices and methods for measuring vascular deficiency
WO2019043631A1 (en) * 2017-08-31 2019-03-07 Gentex Corporation LIGHTING SYSTEMS
CN108010570A (zh) * 2017-11-30 2018-05-08 上海联影医疗科技有限公司 一种医学影像处理方法、医学影像处理设备及系统
JP7139637B2 (ja) * 2018-03-19 2022-09-21 株式会社リコー 画像処理装置及び投影システム
PL425395A1 (pl) * 2018-04-30 2019-11-04 Milton Essex Spolka Akcyjna Aparat do multimodalnej analizy odczynu alergicznego w przebiegu testów skórnych oraz hybrydowa metoda multispektralnego obrazowania odczynów alergicznych w przebiegu testów skórnych i jej zastosowanie do automatycznej oceny wyniku tych testów
CN112770668A (zh) 2018-07-16 2021-05-07 布鲁恩医疗创新有限责任公司 灌注和氧合测量
EP3626160A1 (en) 2018-09-24 2020-03-25 Dianova A/S A handheld imaging element with a movement sensor
EP3674773B1 (en) * 2018-12-27 2023-08-02 Leica Instruments (Singapore) Pte. Ltd. Digital microscope system, method for operating the same and computer program
EP3911940A4 (en) * 2019-01-17 2022-10-26 Moleculight Inc. MODULAR MULTIMODAL IMAGING AND ANALYSIS SYSTEM
EP3836154A1 (en) 2019-12-13 2021-06-16 Morten Bo Søndergaard Svendsen A method and an apparatus for imaging curved surfaces
EP3839883A1 (en) 2019-12-18 2021-06-23 Morten Bo Søndergaard Svendsen A method and a system for obtaining image data of an object
DE102020103911A1 (de) 2020-02-14 2021-08-19 Technische Hochschule Lübeck Verfahren zur kontaktlosen Messung wenigstens eines Vitalparameters eines Patienten
IL295510A (en) * 2020-02-14 2022-10-01 Activ Surgical Inc Systems and methods for processing laser speckle signals
CN113433684A (zh) * 2020-03-23 2021-09-24 丽宝大数据股份有限公司 显微成像拼接装置及其方法
CN111505819B (zh) * 2020-05-21 2022-04-05 杨星瑶 显微仪器和利用数字序列图像进行重复定位与测量的方法
CN112415002B (zh) * 2020-11-10 2023-03-14 之江实验室 一种基于图像传感器的多模态传感器件
DE102021118657A1 (de) 2021-07-20 2023-01-26 B. Braun New Ventures GmbH Operationsmikroskop mit verbessertem Autofokus und Fokussierverfahren
CN115444390A (zh) * 2022-09-30 2022-12-09 西安交通大学 一种耦合激光散斑和荧光成像的血液流速测量系统及方法
EP4371473A1 (en) * 2022-11-15 2024-05-22 Quest Photonic Devices B.V. Method of measuring a fluorescence signal and of determining a 3d representation, image capturing and processing device

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142748A (ja) * 1997-11-14 1999-05-28 Topcon Corp 医用実体顕微鏡
JP2003527700A (ja) * 2000-03-17 2003-09-16 イシス・イノベイション・リミテッド 2つのx線乳房造影図からの乳房の3次元再構成
JP2005515818A (ja) * 2002-02-01 2005-06-02 スティヒティング・フォール・デ・テヘニッセ・ヴェーテンサッペン 複数のビームを用いるレーザドップラー灌流イメージング
JP2005532393A (ja) * 2002-07-02 2005-10-27 ザ・リージェンツ・オブ・ジ・ユニバーシティ・オブ・カリフォルニア 眼の障害についての処置
JP2006180926A (ja) * 2004-12-24 2006-07-13 Mitaka Koki Co Ltd 医療用表示装置
JP2007315827A (ja) * 2006-05-24 2007-12-06 Shimadzu Corp 光生体計測装置、光生体計測装置用プログラム及び光生体計測方法
JP2008142355A (ja) * 2006-12-11 2008-06-26 Aloka Co Ltd 画像形成システム
JP2008289870A (ja) * 2007-04-19 2008-12-04 Carl Zeiss Surgical Gmbh 患者の脳の一部分を表示するための方法及び装置、並びに、脳外科手術用ナビゲーションシステム
WO2009028136A1 (ja) * 2007-08-29 2009-03-05 Panasonic Corporation 蛍光観察装置
US20100113940A1 (en) * 2008-01-10 2010-05-06 The Ohio State University Research Foundation Wound goggles
JP2010532699A (ja) * 2007-07-06 2010-10-14 インダストリアル リサーチ リミテッド レーザスペックル画像化システム及び方法
JP2011027895A (ja) * 2009-07-23 2011-02-10 Mitaka Koki Co Ltd 顕微鏡システム
US20110090325A1 (en) * 2007-10-09 2011-04-21 Carl Zeiss Surgical Gmbh System and method for examining an object
WO2011084528A1 (en) * 2009-12-15 2011-07-14 Emory University Office Of Technology Transfer System and method for providing real-time anatomical guidance in a diagnostic or therapeutic procedure
JP2012113191A (ja) * 2010-11-26 2012-06-14 Kao Corp 血流画像の形成方法

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63214238A (ja) 1987-03-03 1988-09-06 藤居 良子 血流分布表示装置
AU608807B2 (en) 1987-03-03 1991-04-18 Hitoshi Fujii Apparatus for monitoring bloodstream
US6485413B1 (en) * 1991-04-29 2002-11-26 The General Hospital Corporation Methods and apparatus for forward-directed optical scanning instruments
US5267016A (en) 1991-11-27 1993-11-30 United Technologies Corporation Laser diode distance measurement
US5685313A (en) 1994-05-31 1997-11-11 Brain Monitor Ltd. Tissue monitor
DE19506484C2 (de) 1995-02-24 1999-09-16 Stiftung Fuer Lasertechnologie Verfahren und Vorrichtung zur selektiven nichtinvasiven Lasermyographie (LMG)
GB9610700D0 (en) 1996-05-22 1996-07-31 Moor Instr Ltd Apparatus for imaging microvascular blood flow
US6073041A (en) 1996-07-18 2000-06-06 Regents Of The University Of Minnesota Physiological corrections in functional magnetic resonance imaging
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
EP1007901B1 (en) 1997-06-02 2009-04-29 Joseph A. Izatt Doppler flow imaging using optical coherence tomography
JP3898816B2 (ja) 1997-11-04 2007-03-28 株式会社島津製作所 位置検出機能付きヘッドマウントディスプレイ
US6178340B1 (en) 1998-08-24 2001-01-23 Eduardo Svetliza Three-dimensional infrared imager for subcutaneous puncture and study of vascular network
AT409451B (de) 1999-12-14 2002-08-26 Hoffmann La Roche Vorrichtung zur bestimmung der örtlichen verteilung einer messgrösse
EP1323116A4 (en) 2000-08-23 2009-02-18 Philadelphia Opthalmologic Ima ARRANGEMENTS AND METHODS FOR TELE-OPHTHALMOLOGY
US7685005B2 (en) * 2000-08-29 2010-03-23 Medtronic, Inc. Medical device systems implemented network scheme for remote patient management
WO2002036015A1 (en) 2000-10-30 2002-05-10 The General Hospital Corporation Optical methods and systems for tissue analysis
US6650928B1 (en) 2000-11-27 2003-11-18 Ge Medical Systems Global Technology Company, Llc Color parametric and composite maps for CT perfusion
AU2002337666A1 (en) 2001-08-03 2003-02-17 Joseph A. Izatt Aspects of basic oct engine technologies for high speed optical coherence tomography and light source and other improvements in oct
US6728561B2 (en) 2001-08-14 2004-04-27 University Of Alabama In Huntsville Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel
WO2003028660A2 (en) * 2001-10-04 2003-04-10 Case Western Reserve University Drug delivery devices and methods
US7113817B1 (en) 2001-10-04 2006-09-26 Wintec, Llc Optical imaging of blood circulation velocities
JP4395068B2 (ja) * 2002-07-15 2010-01-06 イタマール メディカル リミテッド 医学的状態を非侵襲的に検出するための体表面プローブ、装置、および方法
US6763256B2 (en) 2002-08-16 2004-07-13 Optical Sensors, Inc. Pulse oximeter
US7123363B2 (en) 2003-01-03 2006-10-17 Rose-Hulman Institute Of Technology Speckle pattern analysis method and system
JP4048274B2 (ja) 2003-03-06 2008-02-20 国立大学法人九州工業大学 パッチテスト測定用の血流状態表示装置
US20040225222A1 (en) 2003-05-08 2004-11-11 Haishan Zeng Real-time contemporaneous multimodal imaging and spectroscopy uses thereof
JPWO2005084526A1 (ja) 2004-02-20 2007-11-29 独立行政法人理化学研究所 網膜機能の光学計測方法と装置
DE102004011156A1 (de) 2004-03-08 2005-10-06 Siemens Ag Verfahren zur endoluminalen Bildgebung mit Bewegungskorrektur
DK1731101T3 (da) 2004-03-31 2009-09-07 Nat Inst Of Advanced Ind Scien Ultralydsensor til bestemmelse af urinvolumen
SE0401004D0 (sv) 2004-04-19 2004-04-19 Gert Nilsson Non-invasive method to monitor microcalculation
GB0409463D0 (en) 2004-04-28 2004-06-02 Ibm Method for removal of moving objects from a video stream
US20080017787A1 (en) * 2004-04-30 2008-01-24 J. Morita Manufacturing Corporation Living Body Observing Apparatus, Intraoral Imaging Apparatus and Medical Treatment Appliance
GB2415778B (en) 2004-06-29 2008-05-14 Patrick Kerr Analysis of retinal metabolism over at least a portion of a cardiac cycle
US20060111620A1 (en) * 2004-11-23 2006-05-25 Squilla John R Providing medical services at a kiosk
CA2947613C (en) 2005-04-04 2019-11-05 Hypermed Imaging, Inc. Hyperspectral imaging in diabetes and peripheral vascular disease
US20130296715A1 (en) 2005-04-20 2013-11-07 Ecole Polytechnique Federale De Lausanne (Epfl) Instrument and method for high-speed perfusion imaging
WO2006111909A1 (en) 2005-04-20 2006-10-26 Cvl Cosmetics S.A. Instrument and method for high-speed perfusion imaging
CN101212928B (zh) 2005-05-06 2011-02-09 耶德研究和发展有限公司 红血球运动成像与分析
DE112006002099A5 (de) 2005-05-31 2008-05-21 W.O.M. World Of Medicine Ag Verfahren und Vorrichtung zur optischen Charakterisierung von Gewebe
JP2007125144A (ja) 2005-11-02 2007-05-24 Omega Wave Kk レーザー血流画像装置
DE102006004583A1 (de) * 2006-02-01 2007-08-09 Siemens Ag Optische Abtasteinrichtung
JP5079240B2 (ja) 2006-02-06 2012-11-21 株式会社ニデック 網膜機能計測装置
US20090130650A1 (en) * 2006-02-17 2009-05-21 Weihong Tan Methods for the production of highly sensitive and specific cell surface probes
US20070225606A1 (en) 2006-03-22 2007-09-27 Endothelix, Inc. Method and apparatus for comprehensive assessment of vascular health
GB0612096D0 (en) 2006-06-19 2006-07-26 Greater Glasgow Nhs Board Functional imaging of the retina
US20070291277A1 (en) 2006-06-20 2007-12-20 Everett Matthew J Spectral domain optical coherence tomography system
US8244333B2 (en) 2006-06-29 2012-08-14 Accuvein, Llc Scanned laser vein contrast enhancer
US8223143B2 (en) 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
US8961932B2 (en) 2007-03-30 2015-02-24 David G. Silverman “Micro-patch” for assessment of the local microvasculature and microcirculatory vasoreactivity
US8811692B2 (en) 2007-04-17 2014-08-19 Francine J. Prokoski System and method for using three dimensional infrared imaging for libraries of standardized medical imagery
US8509879B2 (en) * 2007-11-06 2013-08-13 The Regents Of The University Of California Apparatus and method for widefield functional imaging (WiFI) using integrated structured illumination and laser speckle imaging
US9332942B2 (en) * 2008-01-28 2016-05-10 The General Hospital Corporation Systems, processes and computer-accessible medium for providing hybrid flourescence and optical coherence tomography imaging
DE102008017390A1 (de) 2008-04-02 2009-10-08 Carl Zeiss Surgical Gmbh Verfahren und Vorrichtung zum Aufnehmen von Farbbildern und LDI-Signalen von einem Objekt
WO2010004365A1 (en) 2008-07-10 2010-01-14 Ecole Polytechnique Federale De Lausanne (Epfl) Functional optical coherent imaging
US8249697B2 (en) 2008-10-07 2012-08-21 Alfred E. Mann Institute For Biomedical Engineering At The University Of Southern California Cardiac output monitor with compensation for tissue perfusion
US20110099031A1 (en) * 2009-10-28 2011-04-28 Nair Deepthi S Real time capture and communication of in-transit patient medical information
GB0921477D0 (en) 2009-12-08 2010-01-20 Moor Instr Ltd Apparatus for measuring blood parameters
WO2011117779A2 (en) 2010-03-26 2011-09-29 Aïmago S.A. Optical coherent imaging medical device
US8996086B2 (en) 2010-09-17 2015-03-31 OptimumTechnologies, Inc. Digital mapping system and method
CN101926644B (zh) 2010-09-21 2011-12-14 华中科技大学 脑皮层功能多模式成像系统
US20120078113A1 (en) 2010-09-28 2012-03-29 Point of Contact, LLC Convergent parameter instrument
US9271658B2 (en) 2011-01-10 2016-03-01 East Carolina University Methods, systems and computer program products for non-invasive determination of blood flow distribution using speckle imaging techniques and hemodynamic modeling
US10575737B2 (en) 2012-04-27 2020-03-03 Novadaq Technologies ULC Optical coherent imaging medical device
WO2014009859A2 (en) 2012-07-10 2014-01-16 Aïmago S.A. Perfusion assessment multi-modality optical medical device
EP3291725A4 (en) 2015-05-07 2018-11-07 Novadaq Technologies Inc. Methods and systems for laser speckle imaging of tissue using a color image sensor

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142748A (ja) * 1997-11-14 1999-05-28 Topcon Corp 医用実体顕微鏡
JP2003527700A (ja) * 2000-03-17 2003-09-16 イシス・イノベイション・リミテッド 2つのx線乳房造影図からの乳房の3次元再構成
JP2005515818A (ja) * 2002-02-01 2005-06-02 スティヒティング・フォール・デ・テヘニッセ・ヴェーテンサッペン 複数のビームを用いるレーザドップラー灌流イメージング
JP2005532393A (ja) * 2002-07-02 2005-10-27 ザ・リージェンツ・オブ・ジ・ユニバーシティ・オブ・カリフォルニア 眼の障害についての処置
JP2006180926A (ja) * 2004-12-24 2006-07-13 Mitaka Koki Co Ltd 医療用表示装置
JP2007315827A (ja) * 2006-05-24 2007-12-06 Shimadzu Corp 光生体計測装置、光生体計測装置用プログラム及び光生体計測方法
JP2008142355A (ja) * 2006-12-11 2008-06-26 Aloka Co Ltd 画像形成システム
JP2008289870A (ja) * 2007-04-19 2008-12-04 Carl Zeiss Surgical Gmbh 患者の脳の一部分を表示するための方法及び装置、並びに、脳外科手術用ナビゲーションシステム
JP2010532699A (ja) * 2007-07-06 2010-10-14 インダストリアル リサーチ リミテッド レーザスペックル画像化システム及び方法
WO2009028136A1 (ja) * 2007-08-29 2009-03-05 Panasonic Corporation 蛍光観察装置
US20110090325A1 (en) * 2007-10-09 2011-04-21 Carl Zeiss Surgical Gmbh System and method for examining an object
US20100113940A1 (en) * 2008-01-10 2010-05-06 The Ohio State University Research Foundation Wound goggles
JP2011027895A (ja) * 2009-07-23 2011-02-10 Mitaka Koki Co Ltd 顕微鏡システム
WO2011084528A1 (en) * 2009-12-15 2011-07-14 Emory University Office Of Technology Transfer System and method for providing real-time anatomical guidance in a diagnostic or therapeutic procedure
JP2012113191A (ja) * 2010-11-26 2012-06-14 Kao Corp 血流画像の形成方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016043066A (ja) * 2014-08-22 2016-04-04 株式会社リガク 画像処理装置、画像処理方法および画像処理プログラム
JP2019510220A (ja) * 2016-03-14 2019-04-11 マサチューセッツ インスティテュート オブ テクノロジー 短波赤外線蛍光を撮像するためのデバイスおよび方法
JP7146264B2 (ja) 2016-03-14 2022-10-04 マサチューセッツ インスティテュート オブ テクノロジー 短波赤外線蛍光を撮像するためのデバイスおよび方法
WO2019146228A1 (ja) * 2018-01-29 2019-08-01 ソニー株式会社 医療用撮像装置及び医療用撮像方法
WO2020095446A1 (ja) * 2018-11-09 2020-05-14 株式会社Splink サーバシステム、サーバシステムによって実行される方法及びプログラム
WO2023090828A1 (ko) * 2021-11-17 2023-05-25 계명대학교 산학협력단 Perfusion imaging 기반 비접촉 자율신경계 반응 다차원 바이오신호 측정 시스템 및 방법

Also Published As

Publication number Publication date
JP6023883B2 (ja) 2016-11-09
JP6285522B2 (ja) 2018-02-28
EP2872035B1 (en) 2020-09-30
WO2014009859A2 (en) 2014-01-16
CA2914780A1 (en) 2014-01-16
CA2914780C (en) 2020-02-25
EP2872035A2 (en) 2015-05-20
US10101571B2 (en) 2018-10-16
WO2014009859A3 (en) 2014-03-06
US20150198797A1 (en) 2015-07-16
JP2017060778A (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6285522B2 (ja) 灌流評価マルチモダリティ光学医用デバイス
US9848772B2 (en) Image displaying method
EP2821006B1 (en) Funduscopic device
JP5867720B2 (ja) 画像表示装置、画像表示方法、及びプログラム
EP3254234A1 (en) Optical imaging system and methods thereof
JP5916110B2 (ja) 画像表示装置、画像表示方法、及びプログラム
JP2007044532A (ja) 皮下組織撮影装置
CN108472088A (zh) 用于管理从医学成像导出的数据的方法和系统
CN111867446B (zh) 裂隙灯显微镜及眼科系统
JP7133950B2 (ja) 眼科システム、眼科情報処理装置、プログラム、及び記録媒体
JP7002239B2 (ja) 眼科システム
EP3888529A1 (en) Ophthalmological device
JP2018000699A (ja) 画像処理装置、撮像装置、及び画像処理方法
JP7237219B2 (ja) 眼科システム、眼科情報処理装置、プログラム、及び記録媒体
US20240225776A1 (en) Augmented reality headset and probe for medical imaging
JP6776313B2 (ja) 血流計測装置
GB2606359A (en) Augmented reality headset and probe for medical imaging

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161007

R150 Certificate of patent or registration of utility model

Ref document number: 6023883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250