JP2021153786A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2021153786A JP2021153786A JP2020056297A JP2020056297A JP2021153786A JP 2021153786 A JP2021153786 A JP 2021153786A JP 2020056297 A JP2020056297 A JP 2020056297A JP 2020056297 A JP2020056297 A JP 2020056297A JP 2021153786 A JP2021153786 A JP 2021153786A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- eye
- region
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、被検眼に係る画像を処理する画像処理装置及び画像処理方法、並びに、当該画像処理装置としてコンピュータを機能させるためのプログラム関するものである。この際、画像処理装置としては、例えば、被検眼からの測定光の戻り光における収差を測定して補正する補償光学機能を有する眼科撮影装置を適用することが好適である。 The present invention relates to an image processing device and an image processing method for processing an image related to an eye to be inspected, and a program for operating a computer as the image processing device. At this time, as the image processing device, for example, it is preferable to apply an ophthalmologic imaging device having an adaptive optics function of measuring and correcting an aberration in the return light of the measurement light from the eye to be inspected.
近年、眼科撮影装置として、被検眼の眼底に2次元的にレーザ光を照射してその戻り光を受光して画像化するSLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)装置や、低コヒーレンス光の干渉を利用したイメージング装置が開発されている。低コヒーレンス光の干渉を利用したイメージング装置は、OCT(Optical Coherence Tomography:光干渉断層計または光干渉断層撮影法)装置と呼ばれ、特に被検眼の眼底あるいはその近傍の断層画像を得る目的で用いられている。OCTの種類としては、TD−OCT(Time Domain OCT:タイムドメインOCT)や、SD−OCT(Spectral Domain OCT:スペクトラルドメインOCT)等を含め、種々のものが開発されてきている。 In recent years, as an ophthalmologic imaging device, an SLO (Scanning Laser Ophthalmoscope) device that two-dimensionally irradiates the fundus of the eye to be inspected with a laser beam and receives the return light to form an image, and a low coherence light device. Imaging devices that utilize interference have been developed. An imaging device that utilizes the interference of low coherence light is called an OCT (Optical Coherence Tomography) device, and is used especially for the purpose of obtaining a tomographic image of the fundus of the eye to be examined or its vicinity. Has been done. Various types of OCT have been developed, including TD-OCT (Time Domain OCT) and SD-OCT (Spectral Domain OCT).
特に、近年、このような眼科撮影装置では、照射レーザの高NA化等によって、撮影画像の更なる高解像度化が進められている。しかしながら、例えば被検眼の眼底を撮影する場合には、被検眼の角膜や水晶体等の光学組織を通じた撮影を行わなければならないため、撮影画像の高解像度化が進むに連れて、これらの角膜や水晶体による収差が撮影画像の画質に大きく影響するようになってきた。 In particular, in recent years, in such an ophthalmologic imaging apparatus, the resolution of captured images has been further increased by increasing the NA of the irradiation laser and the like. However, for example, when photographing the fundus of the eye to be inspected, it is necessary to take an image through an optical tissue such as the cornea or the crystalline lens of the eye to be inspected. Aberrations caused by the crystalline lens have come to have a great influence on the image quality of captured images.
現在、被検眼による収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだAO−SLO装置やAO−OCT装置の研究が進められている。例えば、非特許文献1には、AO−OCT装置の例が示されている。AO−SLO装置やAO−OCT装置では、一般的には、シャックハルトマン波面センサー方式によって戻り光の波面を測定する。ここで、シャックハルトマン波面センサー方式とは、被検眼に測定光を入射し、その戻り光を、マイクロレンズアレイを通してCCDカメラで受光することによって、戻り光の波面を測定するものである。そして、AO−SLO装置やAO−OCT装置では、測定した戻り光の波面を補正するように可変形状ミラーや空間位相変調器等を駆動し、それらを通じて被検眼の眼底を撮影することにより、眼底の高分解能な平面画像や断層画像の撮影が可能となる(例えば、特許文献1参照)。
Currently, research is underway on AO-SLO devices and AO-OCT devices that incorporate adaptive optics (AO) functions that measure aberrations caused by the eye to be inspected and correct the aberrations in the optical system. For example, Non-Patent
例えば、眼科撮影装置としてAO−OCT装置を用いて断層画像を撮影する場合、高NA化によって得られる断層画像の焦点深度は浅く、一度の撮影では限られた(幅の狭い)縦幅の断層画像しか取得することができない。例えば、被検眼の神経線維層から脈絡膜までの広範囲な縦幅の断層画像を高分解能に得るためには、測定光を集光させる集光位置となる合焦位置(フォーカス位置)を縦方向(被検眼の深さ方向)に徐々にずらしながら各集光位置での断層画像を何枚も撮影し、最後にそれらの断層画像を組み合わせる(並べる)技術を採用することで達成されうる。しかしながら、この技術では、長時間に亘り患者に対して開瞼を要求することとなり、患者への負担が大きく、また患者の被検眼が不安定に陥りやすいため、精度の高い(解像度の高い)画像が得られないという問題がある。 For example, when a tomographic image is taken using an AO-OCT device as an ophthalmologic imaging device, the depth of focus of the tomographic image obtained by increasing the NA is shallow, and a tomographic tomography with a limited (narrow) vertical width is taken in one shot. Only images can be acquired. For example, in order to obtain a tomographic image with a wide range of vertical width from the nerve fiber layer of the eye to be examined to the choroid with high resolution, the focusing position (focus position), which is the focusing position for concentrating the measurement light, is set in the vertical direction (focus position). This can be achieved by taking a number of tomographic images at each condensing position while gradually shifting (in the depth direction of the eye to be inspected), and finally adopting a technique of combining (arranging) these tomographic images. However, this technique requires the patient to open the eyelids for a long period of time, which places a heavy burden on the patient and tends to cause the patient's eye to be examined to become unstable, resulting in high accuracy (high resolution). There is a problem that the image cannot be obtained.
本発明は、このような問題点に鑑みてなされたものであり、被検眼に係る広範囲な縦幅の画像を短時間に高い解像度で取得できる仕組みを提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism capable of acquiring a wide range of vertical width images related to an eye to be inspected in a short time with high resolution.
本発明の画像処理装置は、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像を取得する取得手段と、学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、上述した画像処理装置の各手段としてコンピュータを機能させるためのプログラムを含む。
The image processing apparatus of the present invention uses an acquisition means for acquiring a first image having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be examined and a trained model, and the focus in the first image. It has a generation means for generating an image having a resolution higher than the resolution of the second region excluding the first region related to the width of depth and having the vertical width.
The present invention also includes an image processing method using the above-mentioned image processing device and a program for operating a computer as each means of the above-mentioned image processing device.
本発明によれば、被検眼に係る広範囲な縦幅の画像を短時間に高い解像度で取得することができる。 According to the present invention, an image having a wide vertical width related to an eye to be inspected can be acquired in a short time with high resolution.
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First Embodiment)
First, the first embodiment of the present invention will be described.
図1は、本発明の第1の実施形態に係る画像処理装置において、学習済モデル300を用いて、入力データ220から出力データ(教師データ)230を生成する概念を示す図である。図1には、OCT画像200及びAO−OCT画像210の一例が示されている。ここでは、AO−OCTを用いた断層画像を撮影する場合の一例について説明する。
FIG. 1 is a diagram showing a concept of generating output data (teacher data) 230 from
図1において、入力データ220は、AO−OCTを用いた断層画像を撮影する際に得られる画像であって、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する「第1の画像」である。この入力データ220では、焦点深度の幅に係る集光位置の領域(第1領域)222と、第1領域222よりも解像度が低くボケた領域(第2領域)221及び223を有して構成されている。この際、集光位置の領域を示す第1領域222は、測定光を当該集光位置に合焦させる合焦位置の領域となる。そして、本実施形態では、学習済モデル300を用いて、入力データ220から出力データ(教師データ)230を生成する。具体的に、出力データ(教師データ)230は、入力データ220における第1領域222を除く第2領域221及び223の解像度よりも高い解像度を有する画像であって入力データ220の縦幅と同等の縦幅を有する「第2の画像」である。即ち、本実施形態では、学習済モデル300を用いて、AO−OCTによる撮影で得られた焦点深度の浅い(集光位置の縦幅(第1領域222)が狭い)断層画像を入力データ220とすることで、焦点深度の深い(集光位置の縦幅が広い)断層画像を出力データ(教師データ)230として生成するものである。
In FIG. 1, the
次に、図1に示す学習済モデル300を作成する際の処理について説明する。
図2は、図1に示す学習済モデル300を作成する際の処理の概念を示す図である。
学習済モデル300を作成する際の学習モデルでは、図2に示すように、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する画像であって且つ当該縦幅において合焦位置となる集光位置の領域が異なる複数の画像を入力データ320とする。図2に示す例では、入力データ320となる複数の画像における各画像は、図1の第1領域222に相当する集光位置の領域(第1領域)322と、図1の第2領域221及び223に相当するボケた領域(第2領域)321及び323を含み、集光位置の領域である第1領域322が相互に異なる6つの画像[1]−1〜[6]−1が示されている。また、図2に示す例では、6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322は、相互に異なる単層画像の部分画像となっている。また、6つの画像[1]−1〜[6]−1は、例えば連続した一連の撮影により得られた画像群である。そして、学習済モデル300を作成する際の学習モデルでは、例えば、結果として得たい縦幅広範囲断層画像1は、入力データ320となる6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322の部分画像(断層画像)を組み合わせることで生成される。即ち、図1の学習済モデル300は、縦幅において第1領域322の位置が異なる複数の画像を入力データ320とし、当該複数の画像のそれぞれの第1領域322の部分画像を用いて生成された画像1を出力データとする教師データを学習することにより得られるものである。
Next, the process for creating the trained
FIG. 2 is a diagram showing a concept of processing when creating the trained
In the training model when the trained
図3は、図1に示す学習済モデル300を作成する際の処理の概念を示す図である。具体的に、図3は、学習済モデル300を作成する際の学習モデルにおいて、図2の入力データ320から出力データ(教師データ)330を導出する概念図である。図3において、取得したい縦幅広範囲断層画像1は、入力データ320である複数の画像[1]−1〜[6]−1におけるそれぞれの集光位置の領域(図2の第1領域322)の部分画像(断層画像)を組み合わせることで生成される。同様に、取得したい縦幅広範囲断層画像2は、入力データ320である複数の画像[1]−2〜[6]−2におけるそれぞれの集光位置の領域(図2の第1領域322)の部分画像(断層画像)を組み合わせることで生成される。
FIG. 3 is a diagram showing a concept of processing when creating the trained
例えば、AO−OCTによる撮影で図3の画像[1]−1が得られた場合を考える。この場合、図1の学習済モデル300では、この図3の画像[1]−1を入力データ220とし、例えば導出エンジン[1]によって縦幅広範囲断層画像1を出力データ(教師データ)230として導き出すものである。
For example, consider the case where the image [1] -1 of FIG. 3 is obtained by photographing by AO-OCT. In this case, in the trained
以上は、本発明の概念を説明したものであるが、以下、具体的に、本発明の実施形態について説明する。まずは、本発明の実施形態に係る画像処理装置について説明する。 The concept of the present invention has been described above, but the embodiments of the present invention will be specifically described below. First, the image processing apparatus according to the embodiment of the present invention will be described.
<装置構成>
図4は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100の概略構成の一例を示す図である。本実施形態においては、測定対象を被検眼E(より具体的には、被検眼Eの眼底Ef)とし、眼科撮影装置100としては、同一装置内にAO−SLOユニット101とAO−OCTユニット102の両機能を有する、補償光学OCT−SLO装置を適用した一例について説明する。また、図4には、図1〜図3に示す画像の縦幅における縦方向に相当するZ方向、及び、当該Z方向と直交し且つ相互に直交するX方向及びY方向を示す、XYZ座標系を図示している。このように、図1〜図3に示す画像の縦幅における縦方向は、被検眼Eの眼底Efにおける深さ方向を示すZ方向に対応している。
<Device configuration>
FIG. 4 is a diagram showing an example of a schematic configuration of an
まず、AO−SLOユニット101について説明する。
AO−SLOユニット101は、図4に示すように、光源141、単一モード光ファイバー142、コリメータ143、光分割部144、集光レンズ145、及び、光センサー146を有して構成されている。
First, the AO-
As shown in FIG. 4, the AO-
光源141は、例えば、波長760nmのSLD光源(Super Luminescent Diode)を用いることができる。この際、光源141の波長は、特に制限されるものではないが、眼底Efの撮像用としては、被検者の眩しさの軽減と分解能維持のために、750nm〜1500nm程度の波長が好適に用いられる。また、本実施形態では、光源141としてSLD光源を用いたが、その他にレーザ等も用いることができる。また、本実施形態では、眼底撮像と波面測定のための光源を共用しているが、それぞれを別光源とし、光路の途中で合波する構成としてもよい。また、本実施形態では、AO−SLOユニット101を含むAO−SLO光学系は、AO−OCTユニット102を含むAO−OCT光学系と一部の光学系を共用するため、AO−OCT光学系との光路と分岐するために、AO−OCTユニット102に含まれる光源151の波長とは異なる波長を選択し、ダイクロイックミラー島で光路を分岐する構成としている。
As the
光源141から照射された光は、単一モード光ファイバー142を通って、コリメータ143により、平行光線(測定光105)として照射される。照射される測定光105の偏光は、単一モード光ファイバー142の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ143から出射された後の光路に偏光を調整する光学部品を配置する構成がある。
The light emitted from the
照射された測定光105は、ビームスプリッターからなる光分割部144を通過し、更にAO−OCTユニット102との光分岐用のビームスプリッター104を通過し、補償光学機能の光学系(補償光学系)に導光される。
The irradiated
補償光学系は、光分割部106、反射ミラー107−1〜107−4、波面補正デバイス108、リレー光学系113−1〜113−2、アパーチャー114、及び、波面センサー115を有して構成されている。ここで、反射ミラー107−1〜107−4は、少なくとも、被検眼Eの瞳と波面センサー115及び波面補正デバイス108とが光学的に共役関係になるように設置されている。また、本実施形態では、光分割部106としてビームスプリッターを用いる。
The adaptive optics system includes an
光分割部106を透過した測定光105は、反射ミラー107−1と反射ミラー107−2で反射されて波面補正デバイス108に入射する。そして、波面補正デバイス108で反射された測定光105は、更に反射ミラー107−3と反射ミラー107−4で反射され、走査光学系109−1に導光される。
The
本実施形態では、波面補正デバイス108として可変形状ミラーを用いる。この際、可変形状ミラーは、反射面が複数の領域に分割されており、各領域の角度を変えることにより、反射光の波面を変化させることができるミラーである。また、波面補正デバイス108としては、可変形状ミラーの代わりに液晶素子を用いた空間位相変調器を用いることも可能である。その場合、被検眼Eからの光の両偏光の波面を補正するために、2つの空間位相変調器を用いる場合もある。
In this embodiment, a variable shape mirror is used as the wave
反射ミラー107−3及び反射ミラー107−4で反射された光は、走査光学系109−1によって、1次元もしくは2次元に走査される。本実施形態では、走査光学系109−1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として1つの共振スキャナーと1つのガルバノスキャナーを用いる。別の構成では、走査光学系109−1に2つのガルバノスキャナーを用いることもある。走査光学系109−1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる構成を採用する場合もある。 The light reflected by the reflection mirror 107-3 and the reflection mirror 107-4 is scanned one-dimensionally or two-dimensionally by the scanning optical system 109-1. In the present embodiment, one resonance scanner and one galvano scanner are used in the scanning optical system 109-1 for the main scanning (horizontal direction of the fundus) and for the sub-scanning (vertical direction of the fundus). In another configuration, two galvano scanners may be used for the scanning optical system 109-1. In order to bring each scanner in the scanning optical system 109-1 into an optically conjugated state, a configuration in which an optical element such as a mirror or a lens is used between the scanners may be adopted.
本実施形態では、走査光学系109−1に加えて更にトラッキングミラー109−2を備える。このトラッキングミラー109−2は、2つのガルバノスキャナーから構成され、撮像領域をさらに2方向に移動させることが可能である。別の構成では、走査光学系109−1がトラッキングミラー109−2の機能を兼ねる構成や、トラッキングミラー109−2が走査光学系109−1の共振スキャナー方向のみの構成、トラッキングミラー109−2が2次元ミラーである構成もありうる。また、走査光学系109−1とトラッキングミラー109−2を光学的に共役関係とするために、不図示のリレー光学系が用いられることが多い。 In the present embodiment, in addition to the scanning optical system 109-1, a tracking mirror 109-2 is further provided. The tracking mirror 109-2 is composed of two galvano scanners, and can further move the imaging region in two directions. In another configuration, the scanning optical system 109-1 also functions as the tracking mirror 109-2, the tracking mirror 109-2 is configured only in the resonance scanner direction of the scanning optical system 109-1, and the tracking mirror 109-2 is There may be a configuration that is a two-dimensional mirror. Further, in order to optically couple the scanning optical system 109-1 and the tracking mirror 109-2, a relay optical system (not shown) is often used.
走査光学系109−1及びトラッキングミラー109−2で走査された測定光105は、接眼レンズ110−1及び接眼レンズ110−2を通して被検眼Eに照射される。被検眼Eに照射された測定光105は、眼底Efで反射もしくは散乱される。接眼レンズ110−1及び接眼レンズ110−2の位置を調整することによって、被検眼Eの視度に合わせて最適な測定光105の照射を行うことが可能となる。ここでは、眼科撮影装置100の接眼部に接眼レンズ110を配置したが、球面ミラー等で構成しても良い。
The
被検眼Eの網膜(眼底Ef)から反射もしくは散乱された測定光105の戻り光は、測定光105の入射時の経路を逆向きに進行し、光分割部106によってその一部の光が波面センサー115の側に反射され、戻り光の波面を測定するために用いられる。光分割部106において波面センサー115に向けて反射された戻り光は、リレー光学系113−1、アパーチャー114及びリレー光学系113−2を通り、波面センサー115に入射する。リレー光学系113−1とリレー光学系113−2との間に配置されたアパーチャー114は、レンズ等からの不要な反射散乱光が波面センサー115に入射しないようにするための光学部材である。本実施形態では、波面センサー115としてシャックハルトマンセンサーを用いる。
The return light of the
波面センサー115は、補償光学制御部116に接続され、受光した戻り光の波面を補償光学制御部116に伝える。波面補正デバイス108も補償光学制御部116に接続されており、補償光学制御部116から指示された変調(合焦位置への変調)を行う。例えば、補償光学制御部116は、波面センサー115の測定結果により導出される撮影に十分なスポット数から合焦位置を計算し、波面補正デバイス108にそのフォーカス値となるような合焦位置へ変調するように指令する。その後、補償光学制御部116は、波面センサー115の測定結果による取得された戻り光の波面に基づいて、収差のない波面へと補正するような波面補正デバイス108の画素ごとの変調量(収差補正量)を計算し、波面補正デバイス108にそのように変調するように指令する。波面センサー115による戻り光の波面の測定と補償光学制御部116による波面補正デバイス108への指示は、繰り返し処理され、常に最適な合焦位置と波面となるようにフィードバック制御が行われる。
The
光分割部106を透過した戻り光は、光分割部144によって一部の光が反射され、集光レンズ145によってピンホールを有する光センサー146に集光される。そして、光センサー146は、受光した光の強度に応じた電気信号に変換する。光センサー146は、制御部117に接続され、制御部117は、光センサー146で得られた電気信号と光走査の位置に基づいて被検眼Eの眼底Efの平面画像(眼底画像)を構成する。その後、被検眼Eの眼底Efの平面画像は、画像処理部118で画像処理が施された後、AO−SLO画像としてディスプレイ119に表示される。
A part of the return light transmitted through the
次に、AO−OCTユニット102について説明する。
AO−OCTユニット102は、図4に示すように、光源151、ファイバーカプラー152、参照光学系153、及び、分光器154を有して構成されている。
Next, the AO-
As shown in FIG. 4, the AO-
光源151は、例えば、波長840nmのSLD光源を用いる。光源151は、低干渉性の光を出射できるものであればよく、波長幅が30nm以上のSLDが好適に用いられる。また、光源151に、チタンサファイアレーザなどの超短パルスレーザ等を用いることもできる。本実施形態では、AO−OCTユニット102を含むAO−OCT光学系は、AO−SLOユニット101を含むAO−SLO光学系と一部の光学系を共用するため、光源151は、AO−SLOユニット101の光源141と異なる波長の光を出射するものとし、ダイクロイックミラー等で分岐する構成が望ましい。
As the
光源151から照射された光は、単一モード光ファイバーを通って、ファイバーカプラー152まで導光される。ファイバーカプラー152は、光源151から出射された光を測定光経路L1と参照光経路L2とに分岐する。本実施形態では、ファイバーカプラー152は、10:90の分岐比のものを使用し、投入光量の10%が測定光経路L1に行く構成とする。
The light emitted from the
測定光経路L1を通った光は、測定光としてコリメータ103によって平行光線として照射される。照射される測定光の偏光は、測定光経路L1としての単一モード光ファイバーに具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ103から出射された後の光路に偏光を調整する光学部品を配置する構成もある。また、測定光経路L1中に測定光の分散特性を調整する光学素子や色収差特性を調整する光学素子を具備する場合もある。
The light that has passed through the measurement light path L1 is irradiated as parallel light rays by the
AO−OCTユニット102から出射された測定光は、光分岐用のビームスプリッター104でAO−SLOユニット101から出射された測定光と合波され、測定光105として、AO−SLO光学系と同様の光路をたどり、被検眼E(具体的には、被検眼Eの眼底Ef)を照射する。被検眼Eから散乱・反射された戻り光は、AO−SLO光学系と同様に往路と同じ経路を逆向きに進み、光分岐用のビームスプリッター104で反射されて測定光経路L1としての光ファイバーを通じてファイバーカプラー152に戻る。
The measurement light emitted from the AO-
AO−OCTユニット102から出射された測定光の戻り光も、波面センサー115で波面が測定され、波面補正デバイス108で補正される。なお、波面補正の方法は、このような方式に限定されるわけではなく、AO−OCT光学系に係る戻り光の波面のみを測定する場合や、AO−SLO光学系に係る戻り光の波面のみを測定する場合には、例えば、波面センサー115の前に光学フィルターを追加する構成を採る。また、光学フィルターを動的に抜差ししたり変更したりすることで、波面を測定する戻り光を切り替える制御も可能である。
The wavefront of the return light of the measurement light emitted from the AO-
一方、AO−OCTユニット102において、参照光経路L2を通った参照光は、参照光学系153のコリメータ1531から出射され、ミラー1532−1及びミラー1532−2で反射して光路長可変部1533に到達する。そして、光路長可変部1533に到達した参照光は、光路長可変部1533で反射され、ミラー1532及びコリメータ1531を通じて、再度、ファイバーカプラー152に戻る。
On the other hand, in the AO-
ファイバーカプラー152に到達した測定光の戻り光と参照光とは、合波され干渉光として、光ファイバーを通して分光器154に導光される。分光器154に入った干渉光は、コリメータ1541で出射され、グレーティング1542により波長ごとに分光される。グレーティング1542で分光された干渉光は、レンズ系1543−1及びレンズ系1543−2を通じてラインセンサー1544に照射される。ラインセンサー1544は、CCDセンサーで構成される場合もあるし、CMOSセンサーで構成される場合もある。
The return light and the reference light of the measurement light that has reached the
分光器154のラインセンサー1544は、制御部117に接続され、制御部117は、ラインセンサー1544で得られた干渉光に基づく電気信号(干渉信号)に基づいて被検眼Eの眼底Efの断層画像を構成する。この際、制御部117は、光路長可変部1533を駆動制御し、被検眼Eの眼底Eにおける所望の深さ位置(深さ領域)の断層画像を取得する。また、制御部117は、走査光学系109−1及びトラッキングミラー109−2も同時に駆動制御しており、任意の位置(領域)の干渉信号が取得可能である。制御部117は、得られた干渉信号から断層画像を生成することにより、3次元ボリュームデータが取得できる。その後、被検眼Eの眼底Efの断層画像は、画像処理部118で画像処理が施された後、AO−OCT画像としてディスプレイ119に表示される。
The
AO−OCTでは、非常に高解像度で高精細な断層画像が得られるので、被検眼Eの神経節細胞などの細胞構造が明瞭に描出されるため、細胞レベルの解析に非常に有用である。 Since AO-OCT can obtain a very high-resolution and high-definition tomographic image, the cell structure such as the ganglion cell of the eye E to be inspected can be clearly visualized, which is very useful for cell-level analysis.
次に、波面センサー115について詳しく説明する。
図5は、図4に示す波面センサー115の概略構成の一例を示す図である。具体的に、図5は、波面センサー115としてシャックハルトマンセンサーを用いた例を示している。具体的に、波面センサー115は、図5(a)に示すように、マイクロレンズアレイ132及びCCDセンサー133を有して構成されている。
Next, the
FIG. 5 is a diagram showing an example of a schematic configuration of the
マイクロレンズアレイ132は、測定光105の戻り光131をCCDセンサー133上の焦点面134に集光させるものである。
The
図5(b)は、図5(a)に示す波面センサー115を、図5(a)のA−A'で示す位置から見た様子を示す図である。図5(a)に示すマイクロレンズアレイ132は、図5(b)に示すように、複数のマイクロレンズ135から構成されている。測定光105の戻り光131は、図5(b)に示す各マイクロレンズ135を通してCCDセンサー133上に集光される。このため、測定光105の戻り光131は、図5(c)に示すように、マイクロレンズ135の個数分のスポット136に分割されて、CCDセンサー133上に集光される。
FIG. 5B is a diagram showing a state in which the
図4に示す補償光学制御部116は、制御部117の制御に基づいて、図5(c)に示す各スポット136の位置から、入射した戻り光131の波面を計算する。例えば、補償光学制御部116は、各スポット136の波面に収差がない場合の基準位置と波面センサー115で測定された位置との差から各収差測定点における戻り光131の波面の傾きを算出する。また、例えば、補償光学制御部116は、各スポット136の基準位置と波面センサー115で測定された位置との差からZernike係数を算出することも可能である。
The adaptive
図6は、図4に示す波面センサー115で測定する波面を説明するための図である。この図6において、図5に示す構成と同様の構成については同じ符号を付しており、その詳細な説明は省略する。
FIG. 6 is a diagram for explaining the wavefront measured by the
図6(a)には、球面収差を持つ戻り光131の波面137が示されている。図6(a)に示す例の場合、測定光105の戻り光131は、図6(a)に示す波面137で形成されている。測定光105の戻り光131は、マイクロレンズアレイ132によって、CCDセンサー133において波面137の局所的な垂線方向の位置に集光される。図6(b)は、この場合の戻り光131のCCDセンサー133における集光状態の一例を示す図である。戻り光131が球面収差を持つため、スポット136は、図6(b)に示すように、CCDセンサー133の中央部に偏った状態で集光される。この位置を計算することによって、戻り光131の波面が検出される。ここでは、波面センサー115として、30個×40個のマイクロレンズアレイ132を有するシャックハルトマンセンサーを用いた。
FIG. 6A shows the
図4に示す接眼レンズ110−1及び接眼レンズ110−2で被検眼Eの視度に対応するような光学系がある場合には、接眼レンズ110−1及び接眼レンズ110−2が良好に調整されていることが重要である。そうすることで、収差補正処理の実行時に、被検眼Eの収差の大部分を占めるデフォーカス成分を波面補正デバイス108で補正する必要がなくなる。また、波面センサー115の直前に配置されたアパーチャー114によって不要光をカットすることで正しい収差を測定することが可能となる。しかしながら、被検眼Eの収差のデフォーカスが補正されていないと、本来は通過させるべき被検眼Eの網膜からの戻り光もアパーチャー114の部分で広がった状態となり、大部分がアパーチャー114でカットされてしまうことになる。さらに、収差補正処理を最大限有効に動作させるためには、正しい位置に被検眼Eを配置することが重要であり、不図示の前眼部モニターや波面センサー115の測定結果を見ながら、被検眼Eの位置を調整する必要がある。なお、表示される波面センサー115の測定結果は、例えば、図6(b)に示すハルトマン像と呼ばれる画像である。
When the eyepiece 110-1 and the eyepiece 110-2 shown in FIG. 4 have an optical system corresponding to the diopter of the eye E to be inspected, the eyepiece 110-1 and the eyepiece 110-2 are satisfactorily adjusted. It is important that it is done. By doing so, it is not necessary to correct the defocus component which occupies most of the aberration of the eye E to be inspected by the wave
図7は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法における処理手順の一例を示すフローチャートである。具体的に、図7は、本実施形態の学習用の教師データとなる収差補正された画像を取得するための処理手順の一例を示すフローチャートである。
FIG. 7 is a flowchart showing an example of a processing procedure in the image processing method by the
まず、ステップS110において、検査者の指示を受けた制御部117は、光源151等を駆動し光照射を開始する。なお、公知の手法により被検眼Eを眼科撮影装置100に対して大まかに位置合わせをした状態から説明する。本実施形態では、画像撮影用の光と波面測定用の光が同一であるため、ステップS110では、被検眼Eの眼底Efの撮影と測定光105の戻り光の波面測定が可能な状態となる。
First, in step S110, the
続いて、ステップS120において、制御部117は、検査者からの入力デバイスを用いた指示に基づいて、被検眼Eの顔位置の微調整やフォーカス調整等を行う。この際、フォーカス調整に係るフォーカス値は、予め別の装置で測定した値を入力する構成でもよい。
Subsequently, in step S120, the
続いて、ステップS130において、波面センサー115は、上述した図6(b)に示すハルトマン像を取得し、これを補償光学制御部116へ出力する。
Subsequently, in step S130, the
続いて、ステップS140において、補償光学制御部116は、ステップS130で得られたハルトマン像に基づいて、合焦位置補正処理を行う。ここで得られる補正された合焦位置での被検眼Eの断層画像は、全断層画像までは合焦されていない(焦点深度の浅い)、例えば図2に示す画像[3]−1のような断層画像である。
Subsequently, in step S140, the adaptive
続いて、ステップS150において、補償光学制御部116は、収差補正処理を行う。具体的に、補償光学制御部116は、波面センサー115により戻り光の収差を測定して収差情報を取得することで、測定した結果に基づく収差補正量を計算し、これに基づいて波面補正デバイス108を駆動させることで収差補正処理を行う。
Subsequently, in step S150, the adaptive
ここで、収差の測定は、波面センサー115として用いるシャックハルトマンセンサーのスポット136を計測し、各測定点のスポット位置の基準位置からの移動量(ずれ量)を算出することで行う。一般的に、移動量は、X方向とY方向の変位量で表される。本実施形態では、30個×40個のマイクロレンズアレイ132のシャックハルトマンセンサーを使用しているので、全てのマイクロレンズアレイ132に測定光が入射している場合には、30×40で1200の測定点におけるスポット136の移動量が算出される。補償光学制御部116は、このスポット136の移動量データから収差補正量を計算する。なお、この方法以外にも、測定したスポット136の移動量から戻り光の波面を表現するためのZernike係数を算出することも可能であり、それを基に波面補正デバイス108を制御することが可能であることは言うまでもない。
Here, the aberration is measured by measuring the
続いて、ステップS160において、制御部117は、合焦位置と収差が補正された状態で被検眼Eの撮影を行う。ここでは、例えば、その撮影で取得された断層画像を図2に示す画像[3]−1とする。
Subsequently, in step S160, the
焦点深度の深い(合焦された縦幅の広い)断層画像を取得するためには、ステップS160で撮影を実行した後、ステップS140に戻る。上述したステップS160で取得される断層画像は、焦点深度の浅い(合焦された縦幅が狭い)画像であるためである。そして、上述したステップS140で補正された合焦位置(例えば図2に示す画像[3]−1)から"ずらした"例えば図2に示す画像[4]−1のような合焦位置に補正する。その後、改めて収差補正を実行し撮影する。例えば、その撮影で取得された断層画像を図2に示す画像[4]−1とする。 In order to acquire a tomographic image with a deep depth of focus (wide in focus), the image is taken in step S160, and then the process returns to step S140. This is because the tomographic image acquired in step S160 described above is an image having a shallow depth of focus (the focused vertical width is narrow). Then, the focus position is corrected from the focus position corrected in step S140 (for example, the image [3] -1 shown in FIG. 2) to the focus position such as the image [4] -1 shown in FIG. do. After that, the aberration is corrected again and the photograph is taken. For example, the tomographic image acquired by the photographing is referred to as the image [4] -1 shown in FIG.
このように、撮影終了の要求があるまで、ステップS140〜ステップS160を繰り返し実行する。これは、例えば図2に示す画像[1]−1〜[6]−1までの単層画像を取得し、それらを結合して、焦点深度の深い(合焦された縦幅の広い)断層画像を生成する。 In this way, steps S140 to S160 are repeatedly executed until there is a request to end shooting. For example, a single-layer image of images [1] -1 to [6] -1 shown in FIG. 2 is acquired, and they are combined to form a fault with a deep depth of focus (wide in focus). Generate an image.
次に、ステップS140の合焦位置補正処理の詳細について説明する。 Next, the details of the in-focus position correction process in step S140 will be described.
ステップS140の合焦位置補正処理では、まず、ステップS141において、補償光学制御部116は、ハルトマン像から出力されてきたスポット像を認識し、認識できたスポット数nを算出(検出)する。この際、撮影に十分なスポット数となった場合には、次ステップであるステップS142に移行する。一方、スポット数が十分でない場合には、一定時間経過後にステップS130へ戻る。
In the focusing position correction process of step S140, first, in step S141, the adaptive
ステップS142に進むと、補償光学制御部116は、測定されたスポット136から公知の手法でフォーカス値Fを算出する。フォーカス値が十分小さく補正されると、次ステップであるステップS150に移行する。フォーカス値が十分小さく補正されていない場合には、一定時間経過後にステップS130へ戻る。
Proceeding to step S142, the adaptive
ここで、ステップSS160で得られる単層画像(例えば図2に示す画像[3]−1)と、その単層画像を結合し組み合わせて得られる全断層画像(例えば図2に示す「結果として得たい全断層画像1」)は、それぞれ不図示のメモリ上に蓄積される。そして、本実施形態では、被検眼Eに対する測定光の焦点深度の幅を超える縦幅の画像であって且つ当該縦幅において合焦位置が異なる複数の画像を結合し組み合わせた全断層画像1を教師データとして用いる。
Here, the single-layer image obtained in step SS160 (for example, the image [3] -1 shown in FIG. 2) and the total tomographic image obtained by combining the single-layer image (for example, obtained as a result) shown in FIG. 2 are combined. The total
<学習>
次に、眼科撮影装置100の撮影により得られた単層画像から、全断層画像を学習させる例について説明する。なお、ここでいう単層画像とは、例えば図2に示す画像[3]−1であり、また、ここでいう全断層画像とは、例えば図2に示す「結果として得たい全断層画像1」のことである。
<Learning>
Next, an example in which an all-tomographic image is learned from a single-layer image obtained by imaging with the
図8は、図4に示す画像処理部118の概略構成の一例を示す図である。ここで、図8では、画像処理部118と接続される、制御部117及びディスプレイ119も、図示している。
FIG. 8 is a diagram showing an example of a schematic configuration of the
画像処理部118は、図8に示すように、画像取得部810、CNN処理部820、及び、学習部830を有して構成されている。
As shown in FIG. 8, the
画像取得部810は、制御部117を介して、被検眼Eの眼底Efにおける単層画像を取得する。
The
CNN処理部820は、畳み込みニューラルネットワークを用いて画像処理を行って、画像取得部810で取得した単層画像から、全断層画像を生成する。本実施形態では、ディープラーニングの一種であるCNN(Convolutional Neural Network)によってモデルを学習する。
The
学習部830は、CNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。
The
図9は、図8に示すCNN処理部820の概略構成の一例を示す図である。CNN処理部820は、図8に示すように、画像エンコーダネットワーク821、及び、デコーダネットワーク822を含み構成されている。このCNN処理部820には、畳み込み(Convolution)層、活性化(Activation)層、ダウンサンプリング(Pooling)層、アップサンプリング(Up Sampling)層、合成(Merger)層がある。畳み込み(Convolution)層は、設定されたフィルタのカーネルサイズ、フィルタ数、ストライド値、ダイレーション値などのパラメータに従って、入力値群に対して畳み込み処理を行う層である。なお、前記フィルタのカーネルサイズを、入力画像の次元数に応じて変更する構成にしてもよい。活性化(Activation)層は、入力信号の総和の活性化について決定し、ステップ関数、シグモイド関数やReLU(Rectified Linear Unit)で構成される。ダウンサンプリング(Pooling)層は、Max Pooling処理など、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。アップサンプリング(Up Sampling)層は、線形補間処理など、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。合成(Merger)層は、或る層の出力値群や画像を構成する画素値群などの値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。
FIG. 9 is a diagram showing an example of a schematic configuration of the
画像エンコーダネットワーク821は、入力画像である上述した単層画像に対して複数のエンコード層による畳み込み演算を行う。各エンコード層は、1以上の畳み込み処理部とプーリング処理部を有し、各層の結果が内部的に保持できるように構成される。学習データとしては、単層画像を入力とし、出力として全断層画像を学習データとする。この学習データを用いて、モデルを機械学習し、学習したモデルを学習済モデル300として用いて単層画像から全断層画像へ変換するネットワークパラメータを得る。
The
<CNNによる単層画像の組合せを用いた撮影>
次に、上述した学習済モデル300を用いて、断層画像を撮影する方法について説明する。装置構成については、図4〜図6,図8〜図9で示したものとなる。
<Shooting using a combination of single-layer images by CNN>
Next, a method of taking a tomographic image using the trained
具体的に、図4に示すように、波面補正デバイス108は、補償光学制御部116に接続されており、補償光学制御部116から指示された合焦位置と収差となるように変調を行う。画像処理部118は、得られた単層画像データと、上述した学習(学習済モデル300)によって得られた全断層画像データを基にして、全断層の全縦幅に合焦された焦点深度の深い(合焦位置縦幅が広い)断層画像を生成し、これをディスプレイ119に表示する。
Specifically, as shown in FIG. 4, the wave
図10は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法における処理手順の一例を示すフローチャートである。具体的に、図10は、学習済モデル300を用いて、出力データ230を生成する際の処理手順の一例を示すフローチャートである。
FIG. 10 is a flowchart showing an example of a processing procedure in the image processing method by the
図10のステップS210〜ステップS260は、それぞれ、図7のステップS110〜ステップS160の処理と同様である。この際、ステップS260で得られる単層画像の合焦位置(集光位置)は、単層画像の特徴的な部位に合わせられる。ここでは、輝度値の高い、全断層の全縦幅の中の任意の位置(患者ごとに異なる)にフォーカスが合うものとする。 Steps S210 to S260 of FIG. 10 are the same as the processes of steps S110 to S160 of FIG. 7, respectively. At this time, the focusing position (condensing position) of the single-layer image obtained in step S260 is adjusted to the characteristic portion of the single-layer image. Here, it is assumed that the focus is on an arbitrary position (different for each patient) in the total vertical width of all faults having a high brightness value.
ステップS260で得られる単層画像と合焦位置(集光位置)を上述した学習によって得られた学習済モデル300のネットワークへ入力することで、全断層画像の生成が可能となる。具体的には、図1を用いて説明すると、例えばステップS260で得られる単層画像は、入力データ220で表されるような合焦位置(集光位置)と焦点深度の浅い(集光位置の縦幅が狭い)断層画像である。本実施形態では、この(1枚の)断層画像を入力データ220とし、学習済モデル300を用いて、CNNによる単層画像の組合せによって、図1に示す全断層の全縦幅に係る出力データ230を生成する。
By inputting the single-layer image obtained in step S260 and the focusing position (focusing position) into the network of the trained
ここで、一例として図3と図8を用いて説明を行う。
仮に、ここでは、ステップS260で得られる単層画像は、画像[2]−1であるものとする。学習済モデル300に対するインプット情報としては、「焦点深度の浅い(合焦位置(集光位置)の縦幅が狭い)画像情報」と、「輝度値の高い、全断層の全縦幅の中の任意の合焦位置(集光位置)(患者ごとに異なる)」である。そのインプット情報は、画像処理部118の画像取得部810にセットされ、CNN処理部820において畳み込みニューラルネットワークを用いて画像処理を行い、学習部830においてCNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。それは、例えば、図3に示す導出エンジン[2]において、インプット情報の画像情報内の輝度分布に基づく特徴量(輝度変化の傾きなど)をたよりに、縦幅広範囲断層画像を導き出すものである。
上述のように導き出された出力データ(教師データ)230としての縦幅広範囲断層画像をディスプレイ119に表示し、使用者に明示する。以上より、ステップS260での1回の撮影で任意の合焦位置と単層画像を得ることができ、学習済モデル300を用いることにより、縦幅広範囲断層画像である出力データ(教師データ)230を導き出して表示を行うことができる。
Here, a description will be given with reference to FIGS. 3 and 8 as an example.
Here, it is assumed that the single-layer image obtained in step S260 is the image [2] -1. The input information for the trained
The vertical wide-range tomographic image as the output data (teacher data) 230 derived as described above is displayed on the
本実施形態においては、図1に示すように、学習済モデル300を用いて生成された出力データ(教師データ)230は、入力データ220よりも、第1領域222の解像度と同等の解像度を有する範囲が大きい画像となっている。また、学習済モデル300を用いて生成された出力データ(教師データ)230は、例えば被検眼Eにおけるスクリーニング用の画像であることが好適である。
In the present embodiment, as shown in FIG. 1, the output data (teacher data) 230 generated by using the trained
以上説明したように、第1の実施形態に係る眼科撮影装置100では、被検眼Eに対する測定光の焦点深度の幅を超える縦幅を有する入力データ220を取得するようにしている。そして、第1の実施形態に係る眼科撮影装置100では、学習済モデル300を用いて、入力データ220における焦点深度の幅に係る第1領域222を除く第2領域221及び223の解像度よりも高い解像度を有する画像であって入力データ220の縦幅を有する出力データ(教師データ)230を生成するようにしている。
かかる構成によれば、被検眼Eに係る広範囲な縦幅の画像を短時間に高い解像度で取得することができる。より具体的には、各集光位置(各合焦位置)での複数枚の断層画像を撮影することなく、広範囲で高分解能な断層画像を短時間で取得することが可能となる。
As described above, the
According to such a configuration, an image having a wide vertical width related to the eye E to be inspected can be acquired in a short time with high resolution. More specifically, it is possible to acquire a wide range of high-resolution tomographic images in a short time without taking a plurality of tomographic images at each condensing position (each focusing position).
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。なお、以下に記載する第2の実施形態の説明においては、上述した第1の実施形態と共通する事項については説明を省略し、上述した第1の実施形態と異なる事項について説明を行う。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the description of the second embodiment described below, the matters common to the above-mentioned first embodiment will be omitted, and the matters different from the above-mentioned first embodiment will be described.
上述した第1の実施形態では、例えば図1の入力データ220に示されるように、集光位置の領域(第1領域222)が単層であるものについて説明を行ったが、複数層あるものであってもよい。また、集光位置の領域(第1領域222)が複数層である画像の生成方法としては、合焦位置をずらすことで人為的に得るものである。具体的に、意図的に複数枚の単層画像を取得し、例えば2枚の単層画像が得られたところでCNNによる単層画像の組合せを用い、「結果として得たい全断層画像」を生成する。
In the first embodiment described above, for example, as shown in the
第2の実施形態に係る画像処理装置として適用する眼科撮影装置の概略構成は、図4に示す第1の実施形態に係る画像処理装置として適用する眼科撮影装置100の概略構成と同様である。
The schematic configuration of the ophthalmologic imaging apparatus applied as the image processing apparatus according to the second embodiment is the same as the schematic configuration of the
図11は、本発明の第2の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法を説明するための図である。例えば、予め狙いたい被検眼Eの眼底Efにおける合焦位置がある場合には、その位置を選択できるようにする。ここで、選択できるようにする理由は、事前情報としてその位置に所見が認められる場合、或いはその位置の経時的変化を観察したい場合など、予め位置を狙いたい目的があるシーンが様々あるからである。つまり、医師は、部位によっては学習機能によって導出された画像ではなく、処理の無い真実の画像を要求する。
FIG. 11 is a diagram for explaining an image processing method by an
本実施形態では、図10のステップS260の撮影において得られる情報は、「選択された単層画像1111及び1121」を含む画像1110及び1120と「任意の合焦位置と単層画像」である。インプット情報としては、「選択された単層画像情報」と、「焦点深度の浅い(合焦位置(集光位置)の縦幅が狭い)画像情報」と、「輝度値の高い、全断層画像全縦幅の中の任意の合焦位置(集光位置)(患者ごとに異なる)」である。そのインプット情報は、画像処理部118の中の画像取得部810にセットされ、CNN処理部820において畳み込みニューラルネットワークを用いて「選択された単層画像1111及び1121」を除く範囲で画像処理を行い、学習部830においてCNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。それは、例えば、図3に示す導出エンジン[2]において、インプット情報の画像情報内の輝度分布に基づく特徴量(輝度変化の傾きなど)をたよりに、学習済モデル300によって縦幅広範囲断層画像を導き出すものである。
In the present embodiment, the information obtained in the photographing in step S260 of FIG. 10 is
その後、学習済モデル300によって生成された縦幅広範囲断層画像と「選択された単層画像1111及び1121」とを組み合わせ、出力データ(教師データ)1130としての縦幅広範囲断層画像をディスプレイ119に表示し、使用者に明示する。ここで、図11において、出力データ(教師データ)1130のうちの単層画像1131の部分画像及び単層画像1132の部分画像が、それぞれ、選択された単層画像1111の部分画像及び選択された単層画像1121の部分画像に相当するものである。即ち、出力データ(教師データ)1130は、学習済モデル300を用いて得られた画像に、画像1110及び1120における単層画像1111の部分画像及び単層画像1121の部分画像を合成した画像となっている。
After that, the vertical wide-range tomographic image generated by the trained
上述した第1の実施形態と本実施形態との相違点は、本実施形態では、「選択された単層画像1111及び1121」を除く範囲で導出処理を行うことと、導出された縦幅広範囲断層画像と選択された単層画像(真実の画像)をその後に組み合わせるという点である。図11の概念図で示すように、例えば病変部のある単層画像1111の部分画像ともう1つの単層画像1121の部分画像をもとに全断層画像に係る出力データ(教師データ)1130を生成することは、病変部も網羅した断層画像を生成することとなり且つ処理時間も短縮できる。
The difference between the first embodiment and the present embodiment described above is that, in the present embodiment, the derivation process is performed in a range excluding "selected single-
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。なお、以下に記載する第3の実施形態の説明においては、上述した第1及び第2の実施形態と共通する事項については説明を省略し、上述した第1及び第2の実施形態と異なる事項について説明を行う。
(Third Embodiment)
Next, a third embodiment of the present invention will be described. In the description of the third embodiment described below, the matters common to the above-mentioned first and second embodiments are omitted, and the matters different from the above-mentioned first and second embodiments are omitted. Will be explained.
上述した第1及び第2の実施形態では、単層画像の縦幅を例えば図2に示す画像[1]−1〜[6]−1といったように6層で分けられる例を説明したが、本発明においては、6層に限定されるものではない。 In the first and second embodiments described above, an example in which the vertical width of the single-layer image is divided into six layers, for example, images [1] -1 to [6] -1 shown in FIG. 2 has been described. In the present invention, the number of layers is not limited to six.
(その他の実施形態)
上述した本発明の実施形態では、画像処理部118を眼科撮影装置100の内部に構成し、眼科撮影装置100を本発明に係る画像処理装置として適用する形態を説明したが、本発明においてはこの形態に限定されるものではない。例えば、画像処理部118を眼科撮影装置100の外部の外部装置に構成し、当該外部装置を本発明に係る画像処理装置として適用する形態も、本発明に含まれるものである。
(Other embodiments)
In the above-described embodiment of the present invention, the embodiment in which the
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
This program and a computer-readable storage medium that stores the program are included in the present invention.
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments of the present invention merely show examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. Is. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
100:眼科撮影装置、101:AO−SLOユニット、102:AO−OCTユニット、103:コリメータ。104:光分岐用のビームスプリッター、105:測定光、106:光分割部、107:反射ミラー、108:波面補正デバイス、109−1:走査光学系、109−2:トラッキングミラー、113:リレー光学系、114:アパーチャー、115:波面センサー、116:補償光学制御部、117:制御部、118:画像処理部、119:ディスプレイ、E:被検眼、Ef:眼底、200:OCT画像、210:AO−OCT画像、220:入力データ、230:出力データ(教師データ)、300:学習済モデル 100: Ophthalmologic imaging device, 101: AO-SLO unit, 102: AO-OCT unit, 103: Collimator. 104: Beam splitter for optical branching, 105: Measurement light, 106: Optical divider, 107: Reflective mirror, 108: Wave surface correction device, 109-1: Scanning optical system, 109-2: Tracking mirror, 113: Relay optics System, 114: aperture, 115: wave surface sensor, 116: adaptive optics control unit, 117: control unit, 118: image processing unit, 119: display, E: eye to be examined, Ef: fundus, 200: OCT image, 210: AO -OCT image, 220: input data, 230: output data (teacher data), 300: trained model
Claims (7)
学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成手段と、
を有することを特徴とする画像処理装置。 An acquisition means for acquiring a first image having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be inspected.
Using the trained model, an image having a resolution higher than the resolution of the second region excluding the first region related to the width of the depth of focus in the first image and having the vertical width is obtained. The generation means to generate and
An image processing device characterized by having.
学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成ステップと、
を有することを特徴とする画像処理方法。 The acquisition step of acquiring a first image having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be inspected, and
Using the trained model, an image having a resolution higher than the resolution of the second region excluding the first region related to the width of the depth of focus in the first image and having the vertical width is obtained. Generation steps to generate and
An image processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056297A JP2021153786A (en) | 2020-03-26 | 2020-03-26 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056297A JP2021153786A (en) | 2020-03-26 | 2020-03-26 | Image processing device, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021153786A true JP2021153786A (en) | 2021-10-07 |
Family
ID=77916056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020056297A Pending JP2021153786A (en) | 2020-03-26 | 2020-03-26 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021153786A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023047692A1 (en) | 2021-09-22 | 2023-03-30 | 三菱造船株式会社 | Floating body |
-
2020
- 2020-03-26 JP JP2020056297A patent/JP2021153786A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023047692A1 (en) | 2021-09-22 | 2023-03-30 | 三菱造船株式会社 | Floating body |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9339183B2 (en) | Aberration correction method, photographing method and photographing apparatus | |
US8770752B2 (en) | Ophthalmic apparatus, ophthalmic system, processing apparatus, and blood flow velocity calculation method | |
JP5511324B2 (en) | Compensating optical device, compensating optical method, imaging device, and imaging method | |
US9875541B2 (en) | Enhanced algorithm for the detection of eye motion from fundus images | |
KR101453327B1 (en) | Fundus imaging method, fundus imaging apparatus, and storage medium | |
JP5517571B2 (en) | Imaging apparatus and imaging method | |
US9107619B2 (en) | Optical-image pickup apparatus and method for controlling the same | |
JP2013248260A (en) | Imaging apparatus, control method, and program | |
JP2011156080A (en) | Method for controlling optical image pick-up device equipped with compensation optical system, program thereof, storage medium, and optical image pick-up device | |
US11134841B2 (en) | Image acquisition apparatus and method for controlling the same | |
JP7091018B2 (en) | Tomographic image acquisition device and method | |
JP2021153786A (en) | Image processing device, image processing method and program | |
JP6021394B2 (en) | Imaging method and imaging apparatus | |
JP2014079464A (en) | Ophthalmologic apparatus and wave front aberration correcting method for the same | |
US10357155B2 (en) | Wavefront correction method for adaptive optics system | |
JP2019097944A (en) | Ophthalmologic imaging apparatus | |
WO2021106824A1 (en) | Photographing device and method for controlling same | |
WO2020166465A1 (en) | Image processing device, image processing method, and program | |
JP2016036588A (en) | Imaging apparatus and imaging method | |
KR101422731B1 (en) | Imaging device for laminography of muridae retina | |
JP2020131017A (en) | Image processing system, image processing method, and program | |
JP7309404B2 (en) | Imaging device and its control method | |
JP2021137256A (en) | Ophthalmologic apparatus, ophthalmologic apparatus operation method, and program | |
WO2020209012A1 (en) | Image analysis method and image analysis device | |
JP5943953B2 (en) | Imaging apparatus and control method thereof |