JP2021153786A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2021153786A
JP2021153786A JP2020056297A JP2020056297A JP2021153786A JP 2021153786 A JP2021153786 A JP 2021153786A JP 2020056297 A JP2020056297 A JP 2020056297A JP 2020056297 A JP2020056297 A JP 2020056297A JP 2021153786 A JP2021153786 A JP 2021153786A
Authority
JP
Japan
Prior art keywords
image
image processing
eye
region
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020056297A
Other languages
Japanese (ja)
Inventor
英之 大番
Hideyuki Oban
英之 大番
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020056297A priority Critical patent/JP2021153786A/en
Publication of JP2021153786A publication Critical patent/JP2021153786A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a system that can acquire an image having a wide-range vertical width relating to an eye to be examined, in a short time with a high-resolution.SOLUTION: An image processing method includes the steps of: acquiring a first image 220 having a vertical width exceeding a width of a focal depth of measuring beam relative to an eye to be examined; and generating a second image 230 having a vertical width of the first image 220 and having a resolution higher than resolution of second regions 221 and 223 except for a first region 222 relating to a width of a focal depth on the first image 220 using a learned model 300.SELECTED DRAWING: Figure 1

Description

本発明は、被検眼に係る画像を処理する画像処理装置及び画像処理方法、並びに、当該画像処理装置としてコンピュータを機能させるためのプログラム関するものである。この際、画像処理装置としては、例えば、被検眼からの測定光の戻り光における収差を測定して補正する補償光学機能を有する眼科撮影装置を適用することが好適である。 The present invention relates to an image processing device and an image processing method for processing an image related to an eye to be inspected, and a program for operating a computer as the image processing device. At this time, as the image processing device, for example, it is preferable to apply an ophthalmologic imaging device having an adaptive optics function of measuring and correcting an aberration in the return light of the measurement light from the eye to be inspected.

近年、眼科撮影装置として、被検眼の眼底に2次元的にレーザ光を照射してその戻り光を受光して画像化するSLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)装置や、低コヒーレンス光の干渉を利用したイメージング装置が開発されている。低コヒーレンス光の干渉を利用したイメージング装置は、OCT(Optical Coherence Tomography:光干渉断層計または光干渉断層撮影法)装置と呼ばれ、特に被検眼の眼底あるいはその近傍の断層画像を得る目的で用いられている。OCTの種類としては、TD−OCT(Time Domain OCT:タイムドメインOCT)や、SD−OCT(Spectral Domain OCT:スペクトラルドメインOCT)等を含め、種々のものが開発されてきている。 In recent years, as an ophthalmologic imaging device, an SLO (Scanning Laser Ophthalmoscope) device that two-dimensionally irradiates the fundus of the eye to be inspected with a laser beam and receives the return light to form an image, and a low coherence light device. Imaging devices that utilize interference have been developed. An imaging device that utilizes the interference of low coherence light is called an OCT (Optical Coherence Tomography) device, and is used especially for the purpose of obtaining a tomographic image of the fundus of the eye to be examined or its vicinity. Has been done. Various types of OCT have been developed, including TD-OCT (Time Domain OCT) and SD-OCT (Spectral Domain OCT).

特に、近年、このような眼科撮影装置では、照射レーザの高NA化等によって、撮影画像の更なる高解像度化が進められている。しかしながら、例えば被検眼の眼底を撮影する場合には、被検眼の角膜や水晶体等の光学組織を通じた撮影を行わなければならないため、撮影画像の高解像度化が進むに連れて、これらの角膜や水晶体による収差が撮影画像の画質に大きく影響するようになってきた。 In particular, in recent years, in such an ophthalmologic imaging apparatus, the resolution of captured images has been further increased by increasing the NA of the irradiation laser and the like. However, for example, when photographing the fundus of the eye to be inspected, it is necessary to take an image through an optical tissue such as the cornea or the crystalline lens of the eye to be inspected. Aberrations caused by the crystalline lens have come to have a great influence on the image quality of captured images.

現在、被検眼による収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだAO−SLO装置やAO−OCT装置の研究が進められている。例えば、非特許文献1には、AO−OCT装置の例が示されている。AO−SLO装置やAO−OCT装置では、一般的には、シャックハルトマン波面センサー方式によって戻り光の波面を測定する。ここで、シャックハルトマン波面センサー方式とは、被検眼に測定光を入射し、その戻り光を、マイクロレンズアレイを通してCCDカメラで受光することによって、戻り光の波面を測定するものである。そして、AO−SLO装置やAO−OCT装置では、測定した戻り光の波面を補正するように可変形状ミラーや空間位相変調器等を駆動し、それらを通じて被検眼の眼底を撮影することにより、眼底の高分解能な平面画像や断層画像の撮影が可能となる(例えば、特許文献1参照)。 Currently, research is underway on AO-SLO devices and AO-OCT devices that incorporate adaptive optics (AO) functions that measure aberrations caused by the eye to be inspected and correct the aberrations in the optical system. For example, Non-Patent Document 1 shows an example of an AO-OCT apparatus. In the AO-SLO device and the AO-OCT device, the wavefront of the return light is generally measured by the Shack-Hartmann wavefront sensor method. Here, the Shack-Hartmann wave surface sensor method measures the wave surface of the return light by incident the measurement light on the eye to be inspected and receiving the return light with a CCD camera through a microlens array. Then, in the AO-SLO device and the AO-OCT device, a variable shape mirror, a spatial phase modulator, or the like is driven so as to correct the wavefront of the measured return light, and the fundus of the eye to be inspected is photographed through them. High-resolution plane images and tomographic images can be taken (see, for example, Patent Document 1).

特開2015−221091号公報JP 2015-221091

ZHANG,et al.,"High−speed volumetric imaging of cone photoreceptors with adaptive optics spectral−domain optical coherence tomography",Optics Express,May 15,2006,pages 4380−4394,Vol.14,No.10ZHANG, et al. , "High-speed volumetric imaging of connection optical coherence with adaptive optics spectral-domain optics, optical coherence tomography, Optics4, Optics4, 14, No. 10

例えば、眼科撮影装置としてAO−OCT装置を用いて断層画像を撮影する場合、高NA化によって得られる断層画像の焦点深度は浅く、一度の撮影では限られた(幅の狭い)縦幅の断層画像しか取得することができない。例えば、被検眼の神経線維層から脈絡膜までの広範囲な縦幅の断層画像を高分解能に得るためには、測定光を集光させる集光位置となる合焦位置(フォーカス位置)を縦方向(被検眼の深さ方向)に徐々にずらしながら各集光位置での断層画像を何枚も撮影し、最後にそれらの断層画像を組み合わせる(並べる)技術を採用することで達成されうる。しかしながら、この技術では、長時間に亘り患者に対して開瞼を要求することとなり、患者への負担が大きく、また患者の被検眼が不安定に陥りやすいため、精度の高い(解像度の高い)画像が得られないという問題がある。 For example, when a tomographic image is taken using an AO-OCT device as an ophthalmologic imaging device, the depth of focus of the tomographic image obtained by increasing the NA is shallow, and a tomographic tomography with a limited (narrow) vertical width is taken in one shot. Only images can be acquired. For example, in order to obtain a tomographic image with a wide range of vertical width from the nerve fiber layer of the eye to be examined to the choroid with high resolution, the focusing position (focus position), which is the focusing position for concentrating the measurement light, is set in the vertical direction (focus position). This can be achieved by taking a number of tomographic images at each condensing position while gradually shifting (in the depth direction of the eye to be inspected), and finally adopting a technique of combining (arranging) these tomographic images. However, this technique requires the patient to open the eyelids for a long period of time, which places a heavy burden on the patient and tends to cause the patient's eye to be examined to become unstable, resulting in high accuracy (high resolution). There is a problem that the image cannot be obtained.

本発明は、このような問題点に鑑みてなされたものであり、被検眼に係る広範囲な縦幅の画像を短時間に高い解像度で取得できる仕組みを提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism capable of acquiring a wide range of vertical width images related to an eye to be inspected in a short time with high resolution.

本発明の画像処理装置は、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像を取得する取得手段と、学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、上述した画像処理装置の各手段としてコンピュータを機能させるためのプログラムを含む。
The image processing apparatus of the present invention uses an acquisition means for acquiring a first image having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be examined and a trained model, and the focus in the first image. It has a generation means for generating an image having a resolution higher than the resolution of the second region excluding the first region related to the width of depth and having the vertical width.
The present invention also includes an image processing method using the above-mentioned image processing device and a program for operating a computer as each means of the above-mentioned image processing device.

本発明によれば、被検眼に係る広範囲な縦幅の画像を短時間に高い解像度で取得することができる。 According to the present invention, an image having a wide vertical width related to an eye to be inspected can be acquired in a short time with high resolution.

本発明の第1の実施形態に係る画像処理装置において、学習済モデルを用いて、入力データから出力データ(教師データ)を生成する概念を示す図である。It is a figure which shows the concept of generating the output data (teacher data) from the input data by using the trained model in the image processing apparatus which concerns on 1st Embodiment of this invention. 図1に示す学習済モデルを作成する際の処理の概念を示す図である。It is a figure which shows the concept of the process at the time of creating the trained model shown in FIG. 図1に示す学習済モデルを作成する際の処理の概念を示す図である。It is a figure which shows the concept of the process at the time of creating the trained model shown in FIG. 本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the ophthalmologic imaging apparatus applied as the image processing apparatus which concerns on 1st Embodiment of this invention. 図4に示す波面センサーの概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the wave surface sensor shown in FIG. 図4に示す波面センサーで測定する波面を説明するための図である。It is a figure for demonstrating the wavefront measured by the wavefront sensor shown in FIG. 本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置による画像処理方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure in the image processing method by the ophthalmologic imaging apparatus applied as the image processing apparatus which concerns on 1st Embodiment of this invention. 図4に示す画像処理部の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the image processing unit shown in FIG. 図8に示すCNN処理部の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the CNN processing part shown in FIG. 本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置による画像処理方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure in the image processing method by the ophthalmologic imaging apparatus applied as the image processing apparatus which concerns on 1st Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置として適用する眼科撮影装置による画像処理方法を説明するための図である。It is a figure for demonstrating the image processing method by the ophthalmologic imaging apparatus applied as the image processing apparatus which concerns on 2nd Embodiment of this invention.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First Embodiment)
First, the first embodiment of the present invention will be described.

図1は、本発明の第1の実施形態に係る画像処理装置において、学習済モデル300を用いて、入力データ220から出力データ(教師データ)230を生成する概念を示す図である。図1には、OCT画像200及びAO−OCT画像210の一例が示されている。ここでは、AO−OCTを用いた断層画像を撮影する場合の一例について説明する。 FIG. 1 is a diagram showing a concept of generating output data (teacher data) 230 from input data 220 by using the trained model 300 in the image processing apparatus according to the first embodiment of the present invention. FIG. 1 shows an example of the OCT image 200 and the AO-OCT image 210. Here, an example of taking a tomographic image using AO-OCT will be described.

図1において、入力データ220は、AO−OCTを用いた断層画像を撮影する際に得られる画像であって、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する「第1の画像」である。この入力データ220では、焦点深度の幅に係る集光位置の領域(第1領域)222と、第1領域222よりも解像度が低くボケた領域(第2領域)221及び223を有して構成されている。この際、集光位置の領域を示す第1領域222は、測定光を当該集光位置に合焦させる合焦位置の領域となる。そして、本実施形態では、学習済モデル300を用いて、入力データ220から出力データ(教師データ)230を生成する。具体的に、出力データ(教師データ)230は、入力データ220における第1領域222を除く第2領域221及び223の解像度よりも高い解像度を有する画像であって入力データ220の縦幅と同等の縦幅を有する「第2の画像」である。即ち、本実施形態では、学習済モデル300を用いて、AO−OCTによる撮影で得られた焦点深度の浅い(集光位置の縦幅(第1領域222)が狭い)断層画像を入力データ220とすることで、焦点深度の深い(集光位置の縦幅が広い)断層画像を出力データ(教師データ)230として生成するものである。 In FIG. 1, the input data 220 is an image obtained when a tomographic image is taken using AO-OCT, and has a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be inspected. ". The input data 220 includes a condensing position region (first region) 222 related to the width of the depth of focus, and a blurred region (second region) 221 and 223 having a resolution lower than that of the first region 222. Has been done. At this time, the first region 222 indicating the region of the focusing position is the region of the focusing position that focuses the measurement light on the focusing position. Then, in the present embodiment, the trained model 300 is used to generate the output data (teacher data) 230 from the input data 220. Specifically, the output data (teacher data) 230 is an image having a resolution higher than the resolutions of the second regions 221 and 223 excluding the first region 222 in the input data 220, and is equivalent to the vertical width of the input data 220. It is a "second image" having a vertical width. That is, in the present embodiment, the trained model 300 is used to input a tomographic image having a shallow depth of focus (the vertical width of the condensing position (first region 222) is narrow) obtained by imaging by AO-OCT as input data 220. Therefore, a tomographic image with a deep depth of focus (wide vertical width of the focusing position) is generated as output data (teacher data) 230.

次に、図1に示す学習済モデル300を作成する際の処理について説明する。
図2は、図1に示す学習済モデル300を作成する際の処理の概念を示す図である。
学習済モデル300を作成する際の学習モデルでは、図2に示すように、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する画像であって且つ当該縦幅において合焦位置となる集光位置の領域が異なる複数の画像を入力データ320とする。図2に示す例では、入力データ320となる複数の画像における各画像は、図1の第1領域222に相当する集光位置の領域(第1領域)322と、図1の第2領域221及び223に相当するボケた領域(第2領域)321及び323を含み、集光位置の領域である第1領域322が相互に異なる6つの画像[1]−1〜[6]−1が示されている。また、図2に示す例では、6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322は、相互に異なる単層画像の部分画像となっている。また、6つの画像[1]−1〜[6]−1は、例えば連続した一連の撮影により得られた画像群である。そして、学習済モデル300を作成する際の学習モデルでは、例えば、結果として得たい縦幅広範囲断層画像1は、入力データ320となる6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322の部分画像(断層画像)を組み合わせることで生成される。即ち、図1の学習済モデル300は、縦幅において第1領域322の位置が異なる複数の画像を入力データ320とし、当該複数の画像のそれぞれの第1領域322の部分画像を用いて生成された画像1を出力データとする教師データを学習することにより得られるものである。
Next, the process for creating the trained model 300 shown in FIG. 1 will be described.
FIG. 2 is a diagram showing a concept of processing when creating the trained model 300 shown in FIG.
In the training model when the trained model 300 is created, as shown in FIG. 2, the image has a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be inspected, and the focus position is in the vertical width. A plurality of images having different condensing position regions are used as input data 320. In the example shown in FIG. 2, each image in the plurality of images serving as the input data 320 has a condensing position region (first region) 322 corresponding to the first region 222 in FIG. 1 and a second region 221 in FIG. 6 images [1] -1 to [6] -1 are shown, which include blurred regions (second regions) 321 and 323 corresponding to 223 and 223, and the first region 322, which is the region of the condensing position, is different from each other. Has been done. Further, in the example shown in FIG. 2, each first region 322 in the six images [1] -1 to [6] -1 is a partial image of a single-layer image different from each other. Further, the six images [1] -1 to [6] -1 are, for example, a group of images obtained by a series of continuous shooting. Then, in the training model when creating the trained model 300, for example, the vertical wide-range tomographic image 1 to be obtained as a result is each of the six images [1] -1 to [6] -1 which are the input data 320. It is generated by combining the partial images (tomographic images) of the first region 322 of the above. That is, the trained model 300 of FIG. 1 is generated by using a plurality of images having different positions of the first region 322 in the vertical width as input data 320 and using partial images of the first region 322 of each of the plurality of images. It is obtained by learning the teacher data using the image 1 as the output data.

図3は、図1に示す学習済モデル300を作成する際の処理の概念を示す図である。具体的に、図3は、学習済モデル300を作成する際の学習モデルにおいて、図2の入力データ320から出力データ(教師データ)330を導出する概念図である。図3において、取得したい縦幅広範囲断層画像1は、入力データ320である複数の画像[1]−1〜[6]−1におけるそれぞれの集光位置の領域(図2の第1領域322)の部分画像(断層画像)を組み合わせることで生成される。同様に、取得したい縦幅広範囲断層画像2は、入力データ320である複数の画像[1]−2〜[6]−2におけるそれぞれの集光位置の領域(図2の第1領域322)の部分画像(断層画像)を組み合わせることで生成される。 FIG. 3 is a diagram showing a concept of processing when creating the trained model 300 shown in FIG. Specifically, FIG. 3 is a conceptual diagram for deriving output data (teacher data) 330 from the input data 320 of FIG. 2 in the learning model for creating the trained model 300. In FIG. 3, the vertical wide-range tomographic image 1 to be acquired is a region of each condensing position in a plurality of images [1] -1 to [6] -1 which are input data 320 (first region 322 in FIG. 2). It is generated by combining the partial images (tomographic images) of. Similarly, the vertical wide-range tomographic image 2 to be acquired is the region of each condensing position (first region 322 in FIG. 2) in the plurality of images [1] -2 to [6] -2 which are the input data 320. It is generated by combining partial images (tomographic images).

例えば、AO−OCTによる撮影で図3の画像[1]−1が得られた場合を考える。この場合、図1の学習済モデル300では、この図3の画像[1]−1を入力データ220とし、例えば導出エンジン[1]によって縦幅広範囲断層画像1を出力データ(教師データ)230として導き出すものである。 For example, consider the case where the image [1] -1 of FIG. 3 is obtained by photographing by AO-OCT. In this case, in the trained model 300 of FIG. 1, the image [1] -1 of FIG. It is something to derive.

以上は、本発明の概念を説明したものであるが、以下、具体的に、本発明の実施形態について説明する。まずは、本発明の実施形態に係る画像処理装置について説明する。 The concept of the present invention has been described above, but the embodiments of the present invention will be specifically described below. First, the image processing apparatus according to the embodiment of the present invention will be described.

<装置構成>
図4は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100の概略構成の一例を示す図である。本実施形態においては、測定対象を被検眼E(より具体的には、被検眼Eの眼底Ef)とし、眼科撮影装置100としては、同一装置内にAO−SLOユニット101とAO−OCTユニット102の両機能を有する、補償光学OCT−SLO装置を適用した一例について説明する。また、図4には、図1〜図3に示す画像の縦幅における縦方向に相当するZ方向、及び、当該Z方向と直交し且つ相互に直交するX方向及びY方向を示す、XYZ座標系を図示している。このように、図1〜図3に示す画像の縦幅における縦方向は、被検眼Eの眼底Efにおける深さ方向を示すZ方向に対応している。
<Device configuration>
FIG. 4 is a diagram showing an example of a schematic configuration of an ophthalmologic imaging apparatus 100 applied as an image processing apparatus according to the first embodiment of the present invention. In the present embodiment, the object to be measured is the eye to be inspected E (more specifically, the fundus Ef of the eye to be inspected E), and the ophthalmologic imaging apparatus 100 includes the AO-SLO unit 101 and the AO-OCT unit 102 in the same apparatus. An example in which an adaptive optics OCT-SLO device having both of the above functions is applied will be described. Further, FIG. 4 shows XYZ coordinates showing the Z direction corresponding to the vertical direction in the vertical width of the images shown in FIGS. 1 to 3 and the X and Y directions orthogonal to and mutually orthogonal to the Z direction. The system is illustrated. As described above, the vertical direction in the vertical width of the images shown in FIGS. 1 to 3 corresponds to the Z direction indicating the depth direction in the fundus Ef of the eye E to be inspected.

まず、AO−SLOユニット101について説明する。
AO−SLOユニット101は、図4に示すように、光源141、単一モード光ファイバー142、コリメータ143、光分割部144、集光レンズ145、及び、光センサー146を有して構成されている。
First, the AO-SLO unit 101 will be described.
As shown in FIG. 4, the AO-SLO unit 101 includes a light source 141, a single-mode optical fiber 142, a collimator 143, an optical dividing unit 144, a condensing lens 145, and an optical sensor 146.

光源141は、例えば、波長760nmのSLD光源(Super Luminescent Diode)を用いることができる。この際、光源141の波長は、特に制限されるものではないが、眼底Efの撮像用としては、被検者の眩しさの軽減と分解能維持のために、750nm〜1500nm程度の波長が好適に用いられる。また、本実施形態では、光源141としてSLD光源を用いたが、その他にレーザ等も用いることができる。また、本実施形態では、眼底撮像と波面測定のための光源を共用しているが、それぞれを別光源とし、光路の途中で合波する構成としてもよい。また、本実施形態では、AO−SLOユニット101を含むAO−SLO光学系は、AO−OCTユニット102を含むAO−OCT光学系と一部の光学系を共用するため、AO−OCT光学系との光路と分岐するために、AO−OCTユニット102に含まれる光源151の波長とは異なる波長を選択し、ダイクロイックミラー島で光路を分岐する構成としている。 As the light source 141, for example, an SLD light source (Super Luminate Diode) having a wavelength of 760 nm can be used. At this time, the wavelength of the light source 141 is not particularly limited, but for imaging the fundus Ef, a wavelength of about 750 nm to 1500 nm is preferable in order to reduce the glare of the subject and maintain the resolution. Used. Further, in the present embodiment, the SLD light source is used as the light source 141, but a laser or the like can also be used. Further, in the present embodiment, the light sources for fundus imaging and wave surface measurement are shared, but each may be a separate light source and may be configured to combine waves in the middle of the optical path. Further, in the present embodiment, the AO-SLO optical system including the AO-SLO unit 101 shares a part of the optical system with the AO-OCT optical system including the AO-OCT unit 102. In order to branch off from the optical path of the above, a wavelength different from the wavelength of the light source 151 included in the AO-OCT unit 102 is selected, and the optical path is branched at the dichroic mirror island.

光源141から照射された光は、単一モード光ファイバー142を通って、コリメータ143により、平行光線(測定光105)として照射される。照射される測定光105の偏光は、単一モード光ファイバー142の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ143から出射された後の光路に偏光を調整する光学部品を配置する構成がある。 The light emitted from the light source 141 is emitted as parallel rays (measurement light 105) by the collimator 143 through the single-mode optical fiber 142. The polarization of the emitted measurement light 105 is adjusted by a polarization regulator (not shown) provided in the path of the single-mode optical fiber 142. As another configuration, there is a configuration in which an optical component for adjusting the polarization is arranged in the optical path after being emitted from the collimator 143.

照射された測定光105は、ビームスプリッターからなる光分割部144を通過し、更にAO−OCTユニット102との光分岐用のビームスプリッター104を通過し、補償光学機能の光学系(補償光学系)に導光される。 The irradiated measurement light 105 passes through an optical splitting unit 144 composed of a beam splitter, and further passes through a beam splitter 104 for optical branching with the AO-OCT unit 102, and an optical system having an adaptive optics function (adaptive optics system). Guided to.

補償光学系は、光分割部106、反射ミラー107−1〜107−4、波面補正デバイス108、リレー光学系113−1〜113−2、アパーチャー114、及び、波面センサー115を有して構成されている。ここで、反射ミラー107−1〜107−4は、少なくとも、被検眼Eの瞳と波面センサー115及び波面補正デバイス108とが光学的に共役関係になるように設置されている。また、本実施形態では、光分割部106としてビームスプリッターを用いる。 The adaptive optics system includes an optical dividing unit 106, reflection mirrors 107-1 to 107-4, a wave surface correction device 108, a relay optical system 113-1 to 113-2, an aperture 114, and a wave surface sensor 115. ing. Here, the reflection mirrors 107-1 to 107-4 are installed so that at least the pupil of the eye E to be inspected, the wavefront sensor 115, and the wavefront correction device 108 are optically conjugated. Further, in the present embodiment, a beam splitter is used as the optical splitting unit 106.

光分割部106を透過した測定光105は、反射ミラー107−1と反射ミラー107−2で反射されて波面補正デバイス108に入射する。そして、波面補正デバイス108で反射された測定光105は、更に反射ミラー107−3と反射ミラー107−4で反射され、走査光学系109−1に導光される。 The measurement light 105 transmitted through the light dividing unit 106 is reflected by the reflection mirror 107-1 and the reflection mirror 107-2 and is incident on the wave surface correction device 108. Then, the measurement light 105 reflected by the wave surface correction device 108 is further reflected by the reflection mirror 107-3 and the reflection mirror 107-4, and is guided to the scanning optical system 109-1.

本実施形態では、波面補正デバイス108として可変形状ミラーを用いる。この際、可変形状ミラーは、反射面が複数の領域に分割されており、各領域の角度を変えることにより、反射光の波面を変化させることができるミラーである。また、波面補正デバイス108としては、可変形状ミラーの代わりに液晶素子を用いた空間位相変調器を用いることも可能である。その場合、被検眼Eからの光の両偏光の波面を補正するために、2つの空間位相変調器を用いる場合もある。 In this embodiment, a variable shape mirror is used as the wave surface correction device 108. At this time, the variable shape mirror is a mirror in which the reflecting surface is divided into a plurality of regions, and the wavefront of the reflected light can be changed by changing the angle of each region. Further, as the wave surface correction device 108, it is also possible to use a spatial phase modulator using a liquid crystal element instead of the variable shape mirror. In that case, two spatial phase modulators may be used to correct the wavefront of the bipolarized light from the eye E to be inspected.

反射ミラー107−3及び反射ミラー107−4で反射された光は、走査光学系109−1によって、1次元もしくは2次元に走査される。本実施形態では、走査光学系109−1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として1つの共振スキャナーと1つのガルバノスキャナーを用いる。別の構成では、走査光学系109−1に2つのガルバノスキャナーを用いることもある。走査光学系109−1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる構成を採用する場合もある。 The light reflected by the reflection mirror 107-3 and the reflection mirror 107-4 is scanned one-dimensionally or two-dimensionally by the scanning optical system 109-1. In the present embodiment, one resonance scanner and one galvano scanner are used in the scanning optical system 109-1 for the main scanning (horizontal direction of the fundus) and for the sub-scanning (vertical direction of the fundus). In another configuration, two galvano scanners may be used for the scanning optical system 109-1. In order to bring each scanner in the scanning optical system 109-1 into an optically conjugated state, a configuration in which an optical element such as a mirror or a lens is used between the scanners may be adopted.

本実施形態では、走査光学系109−1に加えて更にトラッキングミラー109−2を備える。このトラッキングミラー109−2は、2つのガルバノスキャナーから構成され、撮像領域をさらに2方向に移動させることが可能である。別の構成では、走査光学系109−1がトラッキングミラー109−2の機能を兼ねる構成や、トラッキングミラー109−2が走査光学系109−1の共振スキャナー方向のみの構成、トラッキングミラー109−2が2次元ミラーである構成もありうる。また、走査光学系109−1とトラッキングミラー109−2を光学的に共役関係とするために、不図示のリレー光学系が用いられることが多い。 In the present embodiment, in addition to the scanning optical system 109-1, a tracking mirror 109-2 is further provided. The tracking mirror 109-2 is composed of two galvano scanners, and can further move the imaging region in two directions. In another configuration, the scanning optical system 109-1 also functions as the tracking mirror 109-2, the tracking mirror 109-2 is configured only in the resonance scanner direction of the scanning optical system 109-1, and the tracking mirror 109-2 is There may be a configuration that is a two-dimensional mirror. Further, in order to optically couple the scanning optical system 109-1 and the tracking mirror 109-2, a relay optical system (not shown) is often used.

走査光学系109−1及びトラッキングミラー109−2で走査された測定光105は、接眼レンズ110−1及び接眼レンズ110−2を通して被検眼Eに照射される。被検眼Eに照射された測定光105は、眼底Efで反射もしくは散乱される。接眼レンズ110−1及び接眼レンズ110−2の位置を調整することによって、被検眼Eの視度に合わせて最適な測定光105の照射を行うことが可能となる。ここでは、眼科撮影装置100の接眼部に接眼レンズ110を配置したが、球面ミラー等で構成しても良い。 The measurement light 105 scanned by the scanning optical system 109-1 and the tracking mirror 109-2 is applied to the eye E to be inspected through the eyepiece 110-1 and the eyepiece 110-2. The measurement light 105 applied to the eye E to be inspected is reflected or scattered by the fundus Ef. By adjusting the positions of the eyepiece lens 110-1 and the eyepiece lens 110-2, it is possible to irradiate the optimum measurement light 105 according to the diopter of the eye E to be inspected. Here, the eyepiece lens 110 is arranged in the eyepiece portion of the ophthalmologic imaging apparatus 100, but it may be configured by a spherical mirror or the like.

被検眼Eの網膜(眼底Ef)から反射もしくは散乱された測定光105の戻り光は、測定光105の入射時の経路を逆向きに進行し、光分割部106によってその一部の光が波面センサー115の側に反射され、戻り光の波面を測定するために用いられる。光分割部106において波面センサー115に向けて反射された戻り光は、リレー光学系113−1、アパーチャー114及びリレー光学系113−2を通り、波面センサー115に入射する。リレー光学系113−1とリレー光学系113−2との間に配置されたアパーチャー114は、レンズ等からの不要な反射散乱光が波面センサー115に入射しないようにするための光学部材である。本実施形態では、波面センサー115としてシャックハルトマンセンサーを用いる。 The return light of the measurement light 105 reflected or scattered from the retina (fundus Ef) of the eye E to be inspected travels in the opposite direction at the time of incidence of the measurement light 105, and a part of the light is wave-planed by the light dividing portion 106. It is reflected to the side of the sensor 115 and is used to measure the wave front of the return light. The return light reflected by the light dividing unit 106 toward the wave surface sensor 115 passes through the relay optical system 113-1, the aperture 114, and the relay optical system 113-2, and is incident on the wave surface sensor 115. The aperture 114 arranged between the relay optical system 113-1 and the relay optical system 113-2 is an optical member for preventing unnecessary reflected scattered light from a lens or the like from incident on the wave surface sensor 115. In this embodiment, a Shack-Hartmann sensor is used as the wavefront sensor 115.

波面センサー115は、補償光学制御部116に接続され、受光した戻り光の波面を補償光学制御部116に伝える。波面補正デバイス108も補償光学制御部116に接続されており、補償光学制御部116から指示された変調(合焦位置への変調)を行う。例えば、補償光学制御部116は、波面センサー115の測定結果により導出される撮影に十分なスポット数から合焦位置を計算し、波面補正デバイス108にそのフォーカス値となるような合焦位置へ変調するように指令する。その後、補償光学制御部116は、波面センサー115の測定結果による取得された戻り光の波面に基づいて、収差のない波面へと補正するような波面補正デバイス108の画素ごとの変調量(収差補正量)を計算し、波面補正デバイス108にそのように変調するように指令する。波面センサー115による戻り光の波面の測定と補償光学制御部116による波面補正デバイス108への指示は、繰り返し処理され、常に最適な合焦位置と波面となるようにフィードバック制御が行われる。 The wavefront sensor 115 is connected to the adaptive optics control unit 116 and transmits the wavefront of the received return light to the adaptive optics control unit 116. The wave surface correction device 108 is also connected to the adaptive optics control unit 116, and performs modulation (modulation to the in-focus position) instructed by the adaptive optics control unit 116. For example, the adaptive optics control unit 116 calculates the in-focus position from the number of spots sufficient for imaging derived from the measurement result of the wavefront sensor 115, and modulates the focus position to the focus value of the wavefront correction device 108. Command to do. After that, the adaptive optics control unit 116 corrects the modulation amount (aberration correction) for each pixel of the wavefront correction device 108 so as to correct the wavefront without aberration based on the wavefront of the return light acquired by the measurement result of the wavefront sensor 115. The quantity) is calculated and the wavefront correction device 108 is instructed to do so. Measurement of the wavefront of the return light by the wavefront sensor 115 and the instruction to the wavefront correction device 108 by the adaptive optics control unit 116 are repeatedly processed, and feedback control is performed so that the optimum focusing position and the wavefront are always obtained.

光分割部106を透過した戻り光は、光分割部144によって一部の光が反射され、集光レンズ145によってピンホールを有する光センサー146に集光される。そして、光センサー146は、受光した光の強度に応じた電気信号に変換する。光センサー146は、制御部117に接続され、制御部117は、光センサー146で得られた電気信号と光走査の位置に基づいて被検眼Eの眼底Efの平面画像(眼底画像)を構成する。その後、被検眼Eの眼底Efの平面画像は、画像処理部118で画像処理が施された後、AO−SLO画像としてディスプレイ119に表示される。 A part of the return light transmitted through the light dividing unit 106 is reflected by the light dividing unit 144, and is collected by the condensing lens 145 on the optical sensor 146 having a pinhole. Then, the optical sensor 146 converts it into an electric signal according to the intensity of the received light. The optical sensor 146 is connected to the control unit 117, and the control unit 117 constitutes a planar image (fundus image) of the fundus Ef of the eye E to be inspected based on the electric signal obtained by the optical sensor 146 and the position of the optical scan. .. After that, the plane image of the fundus Ef of the eye E to be inspected is subjected to image processing by the image processing unit 118 and then displayed on the display 119 as an AO-SLO image.

次に、AO−OCTユニット102について説明する。
AO−OCTユニット102は、図4に示すように、光源151、ファイバーカプラー152、参照光学系153、及び、分光器154を有して構成されている。
Next, the AO-OCT unit 102 will be described.
As shown in FIG. 4, the AO-OCT unit 102 includes a light source 151, a fiber coupler 152, a reference optical system 153, and a spectroscope 154.

光源151は、例えば、波長840nmのSLD光源を用いる。光源151は、低干渉性の光を出射できるものであればよく、波長幅が30nm以上のSLDが好適に用いられる。また、光源151に、チタンサファイアレーザなどの超短パルスレーザ等を用いることもできる。本実施形態では、AO−OCTユニット102を含むAO−OCT光学系は、AO−SLOユニット101を含むAO−SLO光学系と一部の光学系を共用するため、光源151は、AO−SLOユニット101の光源141と異なる波長の光を出射するものとし、ダイクロイックミラー等で分岐する構成が望ましい。 As the light source 151, for example, an SLD light source having a wavelength of 840 nm is used. The light source 151 may be any as long as it can emit light having low coherence, and an SLD having a wavelength width of 30 nm or more is preferably used. Further, an ultrashort pulse laser such as a titanium sapphire laser can be used as the light source 151. In the present embodiment, the AO-OCT optical system including the AO-OCT unit 102 shares a part of the optical system with the AO-SLO optical system including the AO-SLO unit 101, so that the light source 151 is the AO-SLO unit. It is desirable that light having a wavelength different from that of the light source 141 of 101 is emitted, and that the light is branched by a dichroic mirror or the like.

光源151から照射された光は、単一モード光ファイバーを通って、ファイバーカプラー152まで導光される。ファイバーカプラー152は、光源151から出射された光を測定光経路L1と参照光経路L2とに分岐する。本実施形態では、ファイバーカプラー152は、10:90の分岐比のものを使用し、投入光量の10%が測定光経路L1に行く構成とする。 The light emitted from the light source 151 is guided to the fiber coupler 152 through the single mode optical fiber. The fiber coupler 152 branches the light emitted from the light source 151 into the measurement optical path L1 and the reference optical path L2. In the present embodiment, the fiber coupler 152 has a branching ratio of 10:90, and 10% of the input light amount goes to the measurement light path L1.

測定光経路L1を通った光は、測定光としてコリメータ103によって平行光線として照射される。照射される測定光の偏光は、測定光経路L1としての単一モード光ファイバーに具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ103から出射された後の光路に偏光を調整する光学部品を配置する構成もある。また、測定光経路L1中に測定光の分散特性を調整する光学素子や色収差特性を調整する光学素子を具備する場合もある。 The light that has passed through the measurement light path L1 is irradiated as parallel light rays by the collimator 103 as measurement light. The polarization of the emitted measurement light is adjusted by a polarization regulator (not shown) provided in the single-mode optical fiber as the measurement light path L1. As another configuration, there is also a configuration in which an optical component for adjusting polarization is arranged in the optical path after being emitted from the collimator 103. Further, the measurement optical path L1 may include an optical element for adjusting the dispersion characteristic of the measurement light and an optical element for adjusting the chromatic aberration characteristic.

AO−OCTユニット102から出射された測定光は、光分岐用のビームスプリッター104でAO−SLOユニット101から出射された測定光と合波され、測定光105として、AO−SLO光学系と同様の光路をたどり、被検眼E(具体的には、被検眼Eの眼底Ef)を照射する。被検眼Eから散乱・反射された戻り光は、AO−SLO光学系と同様に往路と同じ経路を逆向きに進み、光分岐用のビームスプリッター104で反射されて測定光経路L1としての光ファイバーを通じてファイバーカプラー152に戻る。 The measurement light emitted from the AO-OCT unit 102 is combined with the measurement light emitted from the AO-SLO unit 101 by the beam splitter 104 for optical branching, and the measurement light 105 is the same as that of the AO-SLO optical system. Following the optical path, the eye to be inspected E (specifically, the fundus Ef of the eye to be inspected E) is irradiated. The return light scattered / reflected from the eye E to be examined travels in the same path as the outward path in the opposite direction as in the AO-SLO optical system, is reflected by the beam splitter 104 for optical branching, and passes through the optical fiber as the measurement optical path L1. Return to fiber coupler 152.

AO−OCTユニット102から出射された測定光の戻り光も、波面センサー115で波面が測定され、波面補正デバイス108で補正される。なお、波面補正の方法は、このような方式に限定されるわけではなく、AO−OCT光学系に係る戻り光の波面のみを測定する場合や、AO−SLO光学系に係る戻り光の波面のみを測定する場合には、例えば、波面センサー115の前に光学フィルターを追加する構成を採る。また、光学フィルターを動的に抜差ししたり変更したりすることで、波面を測定する戻り光を切り替える制御も可能である。 The wavefront of the return light of the measurement light emitted from the AO-OCT unit 102 is also measured by the wavefront sensor 115 and corrected by the wavefront correction device 108. The wavefront correction method is not limited to such a method, and only when measuring only the wavefront of the return light related to the AO-OCT optical system or only the wavefront of the return light related to the AO-SLO optical system. In the case of measuring, for example, an optical filter is added in front of the wavefront sensor 115. It is also possible to control the return light for measuring the wavefront by dynamically inserting and removing the optical filter and changing it.

一方、AO−OCTユニット102において、参照光経路L2を通った参照光は、参照光学系153のコリメータ1531から出射され、ミラー1532−1及びミラー1532−2で反射して光路長可変部1533に到達する。そして、光路長可変部1533に到達した参照光は、光路長可変部1533で反射され、ミラー1532及びコリメータ1531を通じて、再度、ファイバーカプラー152に戻る。 On the other hand, in the AO-OCT unit 102, the reference light passing through the reference optical path L2 is emitted from the collimator 1531 of the reference optical system 153 and reflected by the mirror 1532-1 and the mirror 1532-2 to the optical path length variable portion 1533. To reach. Then, the reference light that has reached the optical path length variable unit 1533 is reflected by the optical path length variable unit 1533, and returns to the fiber coupler 152 again through the mirror 1532 and the collimator 1531.

ファイバーカプラー152に到達した測定光の戻り光と参照光とは、合波され干渉光として、光ファイバーを通して分光器154に導光される。分光器154に入った干渉光は、コリメータ1541で出射され、グレーティング1542により波長ごとに分光される。グレーティング1542で分光された干渉光は、レンズ系1543−1及びレンズ系1543−2を通じてラインセンサー1544に照射される。ラインセンサー1544は、CCDセンサーで構成される場合もあるし、CMOSセンサーで構成される場合もある。 The return light and the reference light of the measurement light that has reached the fiber coupler 152 are combined and guided to the spectroscope 154 as interference light through an optical fiber. The interfering light entering the spectroscope 154 is emitted by the collimator 1541 and separated for each wavelength by the grating 1542. The interference light separated by the grating 1542 is irradiated to the line sensor 1544 through the lens system 1543-1 and the lens system 1543-2. The line sensor 1544 may be composed of a CCD sensor or a CMOS sensor.

分光器154のラインセンサー1544は、制御部117に接続され、制御部117は、ラインセンサー1544で得られた干渉光に基づく電気信号(干渉信号)に基づいて被検眼Eの眼底Efの断層画像を構成する。この際、制御部117は、光路長可変部1533を駆動制御し、被検眼Eの眼底Eにおける所望の深さ位置(深さ領域)の断層画像を取得する。また、制御部117は、走査光学系109−1及びトラッキングミラー109−2も同時に駆動制御しており、任意の位置(領域)の干渉信号が取得可能である。制御部117は、得られた干渉信号から断層画像を生成することにより、3次元ボリュームデータが取得できる。その後、被検眼Eの眼底Efの断層画像は、画像処理部118で画像処理が施された後、AO−OCT画像としてディスプレイ119に表示される。 The line sensor 1544 of the spectroscope 154 is connected to the control unit 117, and the control unit 117 is a tomographic image of the fundus Ef of the eye E to be inspected based on an electric signal (interference signal) based on the interference light obtained by the line sensor 1544. To configure. At this time, the control unit 117 drives and controls the optical path length variable unit 1533 to acquire a tomographic image of a desired depth position (depth region) in the fundus E of the eye E to be inspected. Further, the control unit 117 also drives and controls the scanning optical system 109-1 and the tracking mirror 109-2 at the same time, and can acquire an interference signal at an arbitrary position (region). The control unit 117 can acquire three-dimensional volume data by generating a tomographic image from the obtained interference signal. After that, the tomographic image of the fundus Ef of the eye E to be inspected is subjected to image processing by the image processing unit 118 and then displayed on the display 119 as an AO-OCT image.

AO−OCTでは、非常に高解像度で高精細な断層画像が得られるので、被検眼Eの神経節細胞などの細胞構造が明瞭に描出されるため、細胞レベルの解析に非常に有用である。 Since AO-OCT can obtain a very high-resolution and high-definition tomographic image, the cell structure such as the ganglion cell of the eye E to be inspected can be clearly visualized, which is very useful for cell-level analysis.

次に、波面センサー115について詳しく説明する。
図5は、図4に示す波面センサー115の概略構成の一例を示す図である。具体的に、図5は、波面センサー115としてシャックハルトマンセンサーを用いた例を示している。具体的に、波面センサー115は、図5(a)に示すように、マイクロレンズアレイ132及びCCDセンサー133を有して構成されている。
Next, the wave surface sensor 115 will be described in detail.
FIG. 5 is a diagram showing an example of a schematic configuration of the wave surface sensor 115 shown in FIG. Specifically, FIG. 5 shows an example in which a Shack-Hartmann sensor is used as the wavefront sensor 115. Specifically, as shown in FIG. 5A, the wave surface sensor 115 includes a microlens array 132 and a CCD sensor 133.

マイクロレンズアレイ132は、測定光105の戻り光131をCCDセンサー133上の焦点面134に集光させるものである。 The microlens array 132 concentrates the return light 131 of the measurement light 105 on the focal plane 134 on the CCD sensor 133.

図5(b)は、図5(a)に示す波面センサー115を、図5(a)のA−A'で示す位置から見た様子を示す図である。図5(a)に示すマイクロレンズアレイ132は、図5(b)に示すように、複数のマイクロレンズ135から構成されている。測定光105の戻り光131は、図5(b)に示す各マイクロレンズ135を通してCCDセンサー133上に集光される。このため、測定光105の戻り光131は、図5(c)に示すように、マイクロレンズ135の個数分のスポット136に分割されて、CCDセンサー133上に集光される。 FIG. 5B is a diagram showing a state in which the wave surface sensor 115 shown in FIG. 5A is viewed from the position indicated by AA'in FIG. 5A. As shown in FIG. 5B, the microlens array 132 shown in FIG. 5A is composed of a plurality of microlenses 135. The return light 131 of the measurement light 105 is focused on the CCD sensor 133 through each of the microlenses 135 shown in FIG. 5 (b). Therefore, as shown in FIG. 5C, the return light 131 of the measurement light 105 is divided into spots 136 as many as the number of microlenses 135, and is focused on the CCD sensor 133.

図4に示す補償光学制御部116は、制御部117の制御に基づいて、図5(c)に示す各スポット136の位置から、入射した戻り光131の波面を計算する。例えば、補償光学制御部116は、各スポット136の波面に収差がない場合の基準位置と波面センサー115で測定された位置との差から各収差測定点における戻り光131の波面の傾きを算出する。また、例えば、補償光学制御部116は、各スポット136の基準位置と波面センサー115で測定された位置との差からZernike係数を算出することも可能である。 The adaptive optics control unit 116 shown in FIG. 4 calculates the wave surface of the incident return light 131 from the position of each spot 136 shown in FIG. 5C based on the control of the control unit 117. For example, the adaptive optics control unit 116 calculates the inclination of the wavefront of the return light 131 at each aberration measurement point from the difference between the reference position when there is no aberration in the wavefront of each spot 136 and the position measured by the wavefront sensor 115. .. Further, for example, the adaptive optics control unit 116 can calculate the Zernike coefficient from the difference between the reference position of each spot 136 and the position measured by the wavefront sensor 115.

図6は、図4に示す波面センサー115で測定する波面を説明するための図である。この図6において、図5に示す構成と同様の構成については同じ符号を付しており、その詳細な説明は省略する。 FIG. 6 is a diagram for explaining the wavefront measured by the wavefront sensor 115 shown in FIG. In FIG. 6, the same reference numerals are given to the configurations similar to those shown in FIG. 5, and detailed description thereof will be omitted.

図6(a)には、球面収差を持つ戻り光131の波面137が示されている。図6(a)に示す例の場合、測定光105の戻り光131は、図6(a)に示す波面137で形成されている。測定光105の戻り光131は、マイクロレンズアレイ132によって、CCDセンサー133において波面137の局所的な垂線方向の位置に集光される。図6(b)は、この場合の戻り光131のCCDセンサー133における集光状態の一例を示す図である。戻り光131が球面収差を持つため、スポット136は、図6(b)に示すように、CCDセンサー133の中央部に偏った状態で集光される。この位置を計算することによって、戻り光131の波面が検出される。ここでは、波面センサー115として、30個×40個のマイクロレンズアレイ132を有するシャックハルトマンセンサーを用いた。 FIG. 6A shows the wavefront 137 of the return light 131 having spherical aberration. In the case of the example shown in FIG. 6A, the return light 131 of the measurement light 105 is formed by the wave surface 137 shown in FIG. 6A. The return light 131 of the measurement light 105 is focused by the microlens array 132 at a position in the local perpendicular direction of the wavefront 137 on the CCD sensor 133. FIG. 6B is a diagram showing an example of a light condensing state in the CCD sensor 133 of the return light 131 in this case. Since the return light 131 has spherical aberration, the spot 136 is focused in a biased state toward the central portion of the CCD sensor 133 as shown in FIG. 6 (b). By calculating this position, the wave front of the return light 131 is detected. Here, as the wavefront sensor 115, a Shack-Hartmann sensor having 30 × 40 microlens arrays 132 was used.

図4に示す接眼レンズ110−1及び接眼レンズ110−2で被検眼Eの視度に対応するような光学系がある場合には、接眼レンズ110−1及び接眼レンズ110−2が良好に調整されていることが重要である。そうすることで、収差補正処理の実行時に、被検眼Eの収差の大部分を占めるデフォーカス成分を波面補正デバイス108で補正する必要がなくなる。また、波面センサー115の直前に配置されたアパーチャー114によって不要光をカットすることで正しい収差を測定することが可能となる。しかしながら、被検眼Eの収差のデフォーカスが補正されていないと、本来は通過させるべき被検眼Eの網膜からの戻り光もアパーチャー114の部分で広がった状態となり、大部分がアパーチャー114でカットされてしまうことになる。さらに、収差補正処理を最大限有効に動作させるためには、正しい位置に被検眼Eを配置することが重要であり、不図示の前眼部モニターや波面センサー115の測定結果を見ながら、被検眼Eの位置を調整する必要がある。なお、表示される波面センサー115の測定結果は、例えば、図6(b)に示すハルトマン像と呼ばれる画像である。 When the eyepiece 110-1 and the eyepiece 110-2 shown in FIG. 4 have an optical system corresponding to the diopter of the eye E to be inspected, the eyepiece 110-1 and the eyepiece 110-2 are satisfactorily adjusted. It is important that it is done. By doing so, it is not necessary to correct the defocus component which occupies most of the aberration of the eye E to be inspected by the wave surface correction device 108 when the aberration correction process is executed. Further, the correct aberration can be measured by cutting unnecessary light by the aperture 114 arranged immediately before the wavefront sensor 115. However, if the defocus of the aberration of the eye E to be inspected is not corrected, the return light from the retina of the eye E to be inspected, which should be passed through, is also spread in the aperture 114, and most of the light is cut by the aperture 114. Will end up. Further, in order to operate the aberration correction processing as effectively as possible, it is important to place the eye E to be inspected at the correct position, and the subject is covered while observing the measurement results of the anterior eye monitor and the wave surface sensor 115 (not shown). It is necessary to adjust the position of optometry E. The measurement result of the wavefront sensor 115 displayed is, for example, an image called a Hartmann image shown in FIG. 6 (b).

図7は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法における処理手順の一例を示すフローチャートである。具体的に、図7は、本実施形態の学習用の教師データとなる収差補正された画像を取得するための処理手順の一例を示すフローチャートである。 FIG. 7 is a flowchart showing an example of a processing procedure in the image processing method by the ophthalmologic imaging apparatus 100 applied as the image processing apparatus according to the first embodiment of the present invention. Specifically, FIG. 7 is a flowchart showing an example of a processing procedure for acquiring an aberration-corrected image which is the teacher data for learning of the present embodiment.

まず、ステップS110において、検査者の指示を受けた制御部117は、光源151等を駆動し光照射を開始する。なお、公知の手法により被検眼Eを眼科撮影装置100に対して大まかに位置合わせをした状態から説明する。本実施形態では、画像撮影用の光と波面測定用の光が同一であるため、ステップS110では、被検眼Eの眼底Efの撮影と測定光105の戻り光の波面測定が可能な状態となる。 First, in step S110, the control unit 117, which receives an instruction from the inspector, drives the light source 151 and the like to start light irradiation. It should be noted that the eye E to be inspected will be described from a state in which the eye E to be inspected is roughly aligned with the ophthalmologic imaging apparatus 100 by a known method. In the present embodiment, since the light for image capture and the light for wave surface measurement are the same, in step S110, the wave surface of the fundus Ef of the eye E to be inspected and the return light of the measurement light 105 can be measured. ..

続いて、ステップS120において、制御部117は、検査者からの入力デバイスを用いた指示に基づいて、被検眼Eの顔位置の微調整やフォーカス調整等を行う。この際、フォーカス調整に係るフォーカス値は、予め別の装置で測定した値を入力する構成でもよい。 Subsequently, in step S120, the control unit 117 finely adjusts the face position of the eye E to be inspected, adjusts the focus, and the like based on the instruction from the inspector using the input device. At this time, the focus value related to the focus adjustment may be configured to input a value measured in advance by another device.

続いて、ステップS130において、波面センサー115は、上述した図6(b)に示すハルトマン像を取得し、これを補償光学制御部116へ出力する。 Subsequently, in step S130, the wavefront sensor 115 acquires the Hartmann image shown in FIG. 6B described above, and outputs the Hartmann image to the adaptive optics control unit 116.

続いて、ステップS140において、補償光学制御部116は、ステップS130で得られたハルトマン像に基づいて、合焦位置補正処理を行う。ここで得られる補正された合焦位置での被検眼Eの断層画像は、全断層画像までは合焦されていない(焦点深度の浅い)、例えば図2に示す画像[3]−1のような断層画像である。 Subsequently, in step S140, the adaptive optics control unit 116 performs the focusing position correction process based on the Hartmann image obtained in step S130. The tomographic image of the eye E to be inspected at the corrected in-focus position obtained here is not in focus up to all tomographic images (shallow depth of focus), for example, as shown in image [3] -1 shown in FIG. It is a tomographic image.

続いて、ステップS150において、補償光学制御部116は、収差補正処理を行う。具体的に、補償光学制御部116は、波面センサー115により戻り光の収差を測定して収差情報を取得することで、測定した結果に基づく収差補正量を計算し、これに基づいて波面補正デバイス108を駆動させることで収差補正処理を行う。 Subsequently, in step S150, the adaptive optics control unit 116 performs aberration correction processing. Specifically, the adaptive optics control unit 116 measures the aberration of the return light with the wave surface sensor 115 and acquires the aberration information to calculate the aberration correction amount based on the measurement result, and the wave surface correction device based on this. Aberration correction processing is performed by driving 108.

ここで、収差の測定は、波面センサー115として用いるシャックハルトマンセンサーのスポット136を計測し、各測定点のスポット位置の基準位置からの移動量(ずれ量)を算出することで行う。一般的に、移動量は、X方向とY方向の変位量で表される。本実施形態では、30個×40個のマイクロレンズアレイ132のシャックハルトマンセンサーを使用しているので、全てのマイクロレンズアレイ132に測定光が入射している場合には、30×40で1200の測定点におけるスポット136の移動量が算出される。補償光学制御部116は、このスポット136の移動量データから収差補正量を計算する。なお、この方法以外にも、測定したスポット136の移動量から戻り光の波面を表現するためのZernike係数を算出することも可能であり、それを基に波面補正デバイス108を制御することが可能であることは言うまでもない。 Here, the aberration is measured by measuring the spot 136 of the Shack-Hartmann sensor used as the wave surface sensor 115 and calculating the amount of movement (deviation amount) of the spot position of each measurement point from the reference position. Generally, the amount of movement is represented by the amount of displacement in the X and Y directions. In this embodiment, since the Shack-Hartmann sensor of 30 × 40 microlens arrays 132 is used, when the measurement light is incident on all the microlens arrays 132, the measurement light is 1200 at 30 × 40. The amount of movement of the spot 136 at the measurement point is calculated. The adaptive optics control unit 116 calculates the aberration correction amount from the movement amount data of the spot 136. In addition to this method, it is also possible to calculate the Zernike coefficient for expressing the wavefront of the return light from the measured movement amount of the spot 136, and it is possible to control the wavefront correction device 108 based on this. Needless to say,

続いて、ステップS160において、制御部117は、合焦位置と収差が補正された状態で被検眼Eの撮影を行う。ここでは、例えば、その撮影で取得された断層画像を図2に示す画像[3]−1とする。 Subsequently, in step S160, the control unit 117 takes an image of the eye E to be inspected in a state where the in-focus position and the aberration are corrected. Here, for example, the tomographic image acquired by the photographing is referred to as the image [3] -1 shown in FIG.

焦点深度の深い(合焦された縦幅の広い)断層画像を取得するためには、ステップS160で撮影を実行した後、ステップS140に戻る。上述したステップS160で取得される断層画像は、焦点深度の浅い(合焦された縦幅が狭い)画像であるためである。そして、上述したステップS140で補正された合焦位置(例えば図2に示す画像[3]−1)から"ずらした"例えば図2に示す画像[4]−1のような合焦位置に補正する。その後、改めて収差補正を実行し撮影する。例えば、その撮影で取得された断層画像を図2に示す画像[4]−1とする。 In order to acquire a tomographic image with a deep depth of focus (wide in focus), the image is taken in step S160, and then the process returns to step S140. This is because the tomographic image acquired in step S160 described above is an image having a shallow depth of focus (the focused vertical width is narrow). Then, the focus position is corrected from the focus position corrected in step S140 (for example, the image [3] -1 shown in FIG. 2) to the focus position such as the image [4] -1 shown in FIG. do. After that, the aberration is corrected again and the photograph is taken. For example, the tomographic image acquired by the photographing is referred to as the image [4] -1 shown in FIG.

このように、撮影終了の要求があるまで、ステップS140〜ステップS160を繰り返し実行する。これは、例えば図2に示す画像[1]−1〜[6]−1までの単層画像を取得し、それらを結合して、焦点深度の深い(合焦された縦幅の広い)断層画像を生成する。 In this way, steps S140 to S160 are repeatedly executed until there is a request to end shooting. For example, a single-layer image of images [1] -1 to [6] -1 shown in FIG. 2 is acquired, and they are combined to form a fault with a deep depth of focus (wide in focus). Generate an image.

次に、ステップS140の合焦位置補正処理の詳細について説明する。 Next, the details of the in-focus position correction process in step S140 will be described.

ステップS140の合焦位置補正処理では、まず、ステップS141において、補償光学制御部116は、ハルトマン像から出力されてきたスポット像を認識し、認識できたスポット数nを算出(検出)する。この際、撮影に十分なスポット数となった場合には、次ステップであるステップS142に移行する。一方、スポット数が十分でない場合には、一定時間経過後にステップS130へ戻る。 In the focusing position correction process of step S140, first, in step S141, the adaptive optics control unit 116 recognizes the spot image output from the Hartmann image and calculates (detects) the number of recognized spots n. At this time, when the number of spots is sufficient for shooting, the process proceeds to step S142, which is the next step. On the other hand, if the number of spots is not sufficient, the process returns to step S130 after a certain period of time has elapsed.

ステップS142に進むと、補償光学制御部116は、測定されたスポット136から公知の手法でフォーカス値Fを算出する。フォーカス値が十分小さく補正されると、次ステップであるステップS150に移行する。フォーカス値が十分小さく補正されていない場合には、一定時間経過後にステップS130へ戻る。 Proceeding to step S142, the adaptive optics control unit 116 calculates the focus value F from the measured spot 136 by a known method. When the focus value is corrected to be sufficiently small, the process proceeds to step S150, which is the next step. If the focus value is not corrected to be sufficiently small, the process returns to step S130 after a certain period of time has elapsed.

ここで、ステップSS160で得られる単層画像(例えば図2に示す画像[3]−1)と、その単層画像を結合し組み合わせて得られる全断層画像(例えば図2に示す「結果として得たい全断層画像1」)は、それぞれ不図示のメモリ上に蓄積される。そして、本実施形態では、被検眼Eに対する測定光の焦点深度の幅を超える縦幅の画像であって且つ当該縦幅において合焦位置が異なる複数の画像を結合し組み合わせた全断層画像1を教師データとして用いる。 Here, the single-layer image obtained in step SS160 (for example, the image [3] -1 shown in FIG. 2) and the total tomographic image obtained by combining the single-layer image (for example, obtained as a result) shown in FIG. 2 are combined. The total tomographic image 1 ”) is stored in a memory (not shown). Then, in the present embodiment, the entire tomographic image 1 is obtained by combining and combining a plurality of images having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye E to be inspected and having different focusing positions in the vertical width. Used as teacher data.

<学習>
次に、眼科撮影装置100の撮影により得られた単層画像から、全断層画像を学習させる例について説明する。なお、ここでいう単層画像とは、例えば図2に示す画像[3]−1であり、また、ここでいう全断層画像とは、例えば図2に示す「結果として得たい全断層画像1」のことである。
<Learning>
Next, an example in which an all-tomographic image is learned from a single-layer image obtained by imaging with the ophthalmologic imaging apparatus 100 will be described. The single-layer image referred to here is, for example, the image [3] -1 shown in FIG. 2, and the total tomographic image referred to here is, for example, the “total tomographic image 1 desired to be obtained as a result” shown in FIG. ".

図8は、図4に示す画像処理部118の概略構成の一例を示す図である。ここで、図8では、画像処理部118と接続される、制御部117及びディスプレイ119も、図示している。 FIG. 8 is a diagram showing an example of a schematic configuration of the image processing unit 118 shown in FIG. Here, in FIG. 8, the control unit 117 and the display 119, which are connected to the image processing unit 118, are also shown.

画像処理部118は、図8に示すように、画像取得部810、CNN処理部820、及び、学習部830を有して構成されている。 As shown in FIG. 8, the image processing unit 118 includes an image acquisition unit 810, a CNN processing unit 820, and a learning unit 830.

画像取得部810は、制御部117を介して、被検眼Eの眼底Efにおける単層画像を取得する。 The image acquisition unit 810 acquires a single-layer image of the fundus Ef of the eye E to be inspected via the control unit 117.

CNN処理部820は、畳み込みニューラルネットワークを用いて画像処理を行って、画像取得部810で取得した単層画像から、全断層画像を生成する。本実施形態では、ディープラーニングの一種であるCNN(Convolutional Neural Network)によってモデルを学習する。 The CNN processing unit 820 performs image processing using a convolutional neural network, and generates an all-tomographic image from the single-layer image acquired by the image acquisition unit 810. In this embodiment, the model is trained by CNN (Convolutional Neural Network), which is a kind of deep learning.

学習部830は、CNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。 The learning unit 830 performs learning processing of the convolutional neural network referred to by the CNN processing unit 820.

図9は、図8に示すCNN処理部820の概略構成の一例を示す図である。CNN処理部820は、図8に示すように、画像エンコーダネットワーク821、及び、デコーダネットワーク822を含み構成されている。このCNN処理部820には、畳み込み(Convolution)層、活性化(Activation)層、ダウンサンプリング(Pooling)層、アップサンプリング(Up Sampling)層、合成(Merger)層がある。畳み込み(Convolution)層は、設定されたフィルタのカーネルサイズ、フィルタ数、ストライド値、ダイレーション値などのパラメータに従って、入力値群に対して畳み込み処理を行う層である。なお、前記フィルタのカーネルサイズを、入力画像の次元数に応じて変更する構成にしてもよい。活性化(Activation)層は、入力信号の総和の活性化について決定し、ステップ関数、シグモイド関数やReLU(Rectified Linear Unit)で構成される。ダウンサンプリング(Pooling)層は、Max Pooling処理など、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。アップサンプリング(Up Sampling)層は、線形補間処理など、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。合成(Merger)層は、或る層の出力値群や画像を構成する画素値群などの値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 FIG. 9 is a diagram showing an example of a schematic configuration of the CNN processing unit 820 shown in FIG. As shown in FIG. 8, the CNN processing unit 820 includes an image encoder network 821 and a decoder network 822. The CNN processing unit 820 includes a convolution layer, an activation layer, a downsampling layer, an upsampling layer, and a merger layer. The convolution layer is a layer that performs a convolution process on an input value group according to parameters such as a kernel size, a number of filters, a stride value, and a dilation value of a set filter. The kernel size of the filter may be changed according to the number of dimensions of the input image. The activation layer determines the activation of the sum of the input signals and is composed of a step function, a sigmoid function and a ReLU (Rectifier Liner Unit). The downsampling (Pooling) layer is a process such as Max Pooling processing in which the number of output value groups is reduced from the number of input value groups by thinning out or synthesizing the input value groups. The UpSampling layer makes the number of output value groups larger than the number of input value groups by duplicating the input value group or adding the interpolated value from the input value group, such as linear interpolation processing. It is a process to be done a lot. The merger layer is a process in which a group of values such as an output value group of a certain layer and a group of pixel values constituting an image are input from a plurality of sources, and they are concatenated or added to be combined. It is a layer to do.

画像エンコーダネットワーク821は、入力画像である上述した単層画像に対して複数のエンコード層による畳み込み演算を行う。各エンコード層は、1以上の畳み込み処理部とプーリング処理部を有し、各層の結果が内部的に保持できるように構成される。学習データとしては、単層画像を入力とし、出力として全断層画像を学習データとする。この学習データを用いて、モデルを機械学習し、学習したモデルを学習済モデル300として用いて単層画像から全断層画像へ変換するネットワークパラメータを得る。 The image encoder network 821 performs a convolution operation by a plurality of encoding layers on the above-mentioned single-layer image which is an input image. Each encode layer has one or more convolution processing units and a pooling processing unit, and is configured so that the results of each layer can be internally retained. As the training data, a single-layer image is input, and as an output, all tomographic images are used as training data. Using this training data, a model is machine-learned, and the trained model is used as a trained model 300 to obtain network parameters for converting a single-layer image to an all-tomographic image.

<CNNによる単層画像の組合せを用いた撮影>
次に、上述した学習済モデル300を用いて、断層画像を撮影する方法について説明する。装置構成については、図4〜図6,図8〜図9で示したものとなる。
<Shooting using a combination of single-layer images by CNN>
Next, a method of taking a tomographic image using the trained model 300 described above will be described. The apparatus configuration is as shown in FIGS. 4 to 6 and 8 to 9.

具体的に、図4に示すように、波面補正デバイス108は、補償光学制御部116に接続されており、補償光学制御部116から指示された合焦位置と収差となるように変調を行う。画像処理部118は、得られた単層画像データと、上述した学習(学習済モデル300)によって得られた全断層画像データを基にして、全断層の全縦幅に合焦された焦点深度の深い(合焦位置縦幅が広い)断層画像を生成し、これをディスプレイ119に表示する。 Specifically, as shown in FIG. 4, the wave surface correction device 108 is connected to the adaptive optics control unit 116, and modulates the focus position and aberration so as to be in-focus position and aberration instructed by the adaptive optics control unit 116. The image processing unit 118 is based on the obtained single-layer image data and all tomographic image data obtained by the above-mentioned learning (learned model 300), and the focal depth focused on the entire vertical width of all tomography. A tomographic image with a deep (wide vertical focus position) is generated and displayed on the display 119.

図10は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法における処理手順の一例を示すフローチャートである。具体的に、図10は、学習済モデル300を用いて、出力データ230を生成する際の処理手順の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of a processing procedure in the image processing method by the ophthalmologic imaging apparatus 100 applied as the image processing apparatus according to the first embodiment of the present invention. Specifically, FIG. 10 is a flowchart showing an example of a processing procedure when generating output data 230 using the trained model 300.

図10のステップS210〜ステップS260は、それぞれ、図7のステップS110〜ステップS160の処理と同様である。この際、ステップS260で得られる単層画像の合焦位置(集光位置)は、単層画像の特徴的な部位に合わせられる。ここでは、輝度値の高い、全断層の全縦幅の中の任意の位置(患者ごとに異なる)にフォーカスが合うものとする。 Steps S210 to S260 of FIG. 10 are the same as the processes of steps S110 to S160 of FIG. 7, respectively. At this time, the focusing position (condensing position) of the single-layer image obtained in step S260 is adjusted to the characteristic portion of the single-layer image. Here, it is assumed that the focus is on an arbitrary position (different for each patient) in the total vertical width of all faults having a high brightness value.

ステップS260で得られる単層画像と合焦位置(集光位置)を上述した学習によって得られた学習済モデル300のネットワークへ入力することで、全断層画像の生成が可能となる。具体的には、図1を用いて説明すると、例えばステップS260で得られる単層画像は、入力データ220で表されるような合焦位置(集光位置)と焦点深度の浅い(集光位置の縦幅が狭い)断層画像である。本実施形態では、この(1枚の)断層画像を入力データ220とし、学習済モデル300を用いて、CNNによる単層画像の組合せによって、図1に示す全断層の全縦幅に係る出力データ230を生成する。 By inputting the single-layer image obtained in step S260 and the focusing position (focusing position) into the network of the trained model 300 obtained by the above-mentioned learning, it is possible to generate an all-tomographic image. Specifically, to explain with reference to FIG. 1, for example, the single-layer image obtained in step S260 has a focusing position (condensing position) and a shallow depth of focus (condensing position) as represented by the input data 220. It is a tomographic image (with a narrow vertical width). In the present embodiment, this (one) tomographic image is used as the input data 220, and the trained model 300 is used to combine the single-layer images by CNN to output data relating to the total vertical width of all the tomographic images shown in FIG. Generate 230.

ここで、一例として図3と図8を用いて説明を行う。
仮に、ここでは、ステップS260で得られる単層画像は、画像[2]−1であるものとする。学習済モデル300に対するインプット情報としては、「焦点深度の浅い(合焦位置(集光位置)の縦幅が狭い)画像情報」と、「輝度値の高い、全断層の全縦幅の中の任意の合焦位置(集光位置)(患者ごとに異なる)」である。そのインプット情報は、画像処理部118の画像取得部810にセットされ、CNN処理部820において畳み込みニューラルネットワークを用いて画像処理を行い、学習部830においてCNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。それは、例えば、図3に示す導出エンジン[2]において、インプット情報の画像情報内の輝度分布に基づく特徴量(輝度変化の傾きなど)をたよりに、縦幅広範囲断層画像を導き出すものである。
上述のように導き出された出力データ(教師データ)230としての縦幅広範囲断層画像をディスプレイ119に表示し、使用者に明示する。以上より、ステップS260での1回の撮影で任意の合焦位置と単層画像を得ることができ、学習済モデル300を用いることにより、縦幅広範囲断層画像である出力データ(教師データ)230を導き出して表示を行うことができる。
Here, a description will be given with reference to FIGS. 3 and 8 as an example.
Here, it is assumed that the single-layer image obtained in step S260 is the image [2] -1. The input information for the trained model 300 is "image information with a shallow depth of focus (the vertical width of the focusing position (condensing position) is narrow)" and "high brightness value in the total vertical width of all faults". Arbitrary focusing position (focusing position) (varies for each patient) ". The input information is set in the image acquisition unit 810 of the image processing unit 118, the CNN processing unit 820 performs image processing using the convolutional neural network, and the learning unit 830 learns the convolutional neural network referred to by the CNN processing unit 820. Perform processing. For example, in the derivation engine [2] shown in FIG. 3, a wide-range vertical tomographic image is derived based on a feature amount (slope of brightness change, etc.) based on the luminance distribution in the image information of the input information.
The vertical wide-range tomographic image as the output data (teacher data) 230 derived as described above is displayed on the display 119 and clearly shown to the user. From the above, an arbitrary in-focus position and a single-layer image can be obtained by one shooting in step S260, and by using the trained model 300, the output data (teacher data) 230 which is a vertical wide-range tomographic image can be obtained. Can be derived and displayed.

本実施形態においては、図1に示すように、学習済モデル300を用いて生成された出力データ(教師データ)230は、入力データ220よりも、第1領域222の解像度と同等の解像度を有する範囲が大きい画像となっている。また、学習済モデル300を用いて生成された出力データ(教師データ)230は、例えば被検眼Eにおけるスクリーニング用の画像であることが好適である。 In the present embodiment, as shown in FIG. 1, the output data (teacher data) 230 generated by using the trained model 300 has a resolution equivalent to that of the first region 222 than the input data 220. The image has a large range. Further, it is preferable that the output data (teacher data) 230 generated by using the trained model 300 is, for example, an image for screening in the eye E to be inspected.

以上説明したように、第1の実施形態に係る眼科撮影装置100では、被検眼Eに対する測定光の焦点深度の幅を超える縦幅を有する入力データ220を取得するようにしている。そして、第1の実施形態に係る眼科撮影装置100では、学習済モデル300を用いて、入力データ220における焦点深度の幅に係る第1領域222を除く第2領域221及び223の解像度よりも高い解像度を有する画像であって入力データ220の縦幅を有する出力データ(教師データ)230を生成するようにしている。
かかる構成によれば、被検眼Eに係る広範囲な縦幅の画像を短時間に高い解像度で取得することができる。より具体的には、各集光位置(各合焦位置)での複数枚の断層画像を撮影することなく、広範囲で高分解能な断層画像を短時間で取得することが可能となる。
As described above, the ophthalmologic imaging apparatus 100 according to the first embodiment acquires the input data 220 having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye E to be inspected. Then, in the ophthalmologic imaging apparatus 100 according to the first embodiment, the resolution is higher than the resolutions of the second regions 221 and 223 excluding the first region 222 related to the width of the depth of focus in the input data 220 by using the trained model 300. Output data (teacher data) 230, which is an image having a resolution and has a vertical width of the input data 220, is generated.
According to such a configuration, an image having a wide vertical width related to the eye E to be inspected can be acquired in a short time with high resolution. More specifically, it is possible to acquire a wide range of high-resolution tomographic images in a short time without taking a plurality of tomographic images at each condensing position (each focusing position).

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。なお、以下に記載する第2の実施形態の説明においては、上述した第1の実施形態と共通する事項については説明を省略し、上述した第1の実施形態と異なる事項について説明を行う。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the description of the second embodiment described below, the matters common to the above-mentioned first embodiment will be omitted, and the matters different from the above-mentioned first embodiment will be described.

上述した第1の実施形態では、例えば図1の入力データ220に示されるように、集光位置の領域(第1領域222)が単層であるものについて説明を行ったが、複数層あるものであってもよい。また、集光位置の領域(第1領域222)が複数層である画像の生成方法としては、合焦位置をずらすことで人為的に得るものである。具体的に、意図的に複数枚の単層画像を取得し、例えば2枚の単層画像が得られたところでCNNによる単層画像の組合せを用い、「結果として得たい全断層画像」を生成する。 In the first embodiment described above, for example, as shown in the input data 220 of FIG. 1, the region of the condensing position (first region 222) is a single layer, but there are a plurality of layers. It may be. Further, as a method of generating an image in which the region of the condensing position (first region 222) is a plurality of layers, it is artificially obtained by shifting the focusing position. Specifically, a plurality of single-layer images are intentionally acquired, and for example, when two single-layer images are obtained, a combination of single-layer images by CNN is used to generate a "total tomographic image to be obtained as a result". do.

第2の実施形態に係る画像処理装置として適用する眼科撮影装置の概略構成は、図4に示す第1の実施形態に係る画像処理装置として適用する眼科撮影装置100の概略構成と同様である。 The schematic configuration of the ophthalmologic imaging apparatus applied as the image processing apparatus according to the second embodiment is the same as the schematic configuration of the ophthalmologic imaging apparatus 100 applied as the image processing apparatus according to the first embodiment shown in FIG.

図11は、本発明の第2の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法を説明するための図である。例えば、予め狙いたい被検眼Eの眼底Efにおける合焦位置がある場合には、その位置を選択できるようにする。ここで、選択できるようにする理由は、事前情報としてその位置に所見が認められる場合、或いはその位置の経時的変化を観察したい場合など、予め位置を狙いたい目的があるシーンが様々あるからである。つまり、医師は、部位によっては学習機能によって導出された画像ではなく、処理の無い真実の画像を要求する。 FIG. 11 is a diagram for explaining an image processing method by an ophthalmologic imaging apparatus 100 applied as an image processing apparatus according to a second embodiment of the present invention. For example, if there is an in-focus position in the fundus Ef of the eye E to be inspected in advance, that position can be selected. Here, the reason for making it possible to select is that there are various scenes for which there is a purpose to aim at the position in advance, such as when a finding is recognized at the position as prior information or when it is desired to observe a change over time of the position. be. That is, the doctor demands an unprocessed true image rather than an image derived by the learning function depending on the part.

本実施形態では、図10のステップS260の撮影において得られる情報は、「選択された単層画像1111及び1121」を含む画像1110及び1120と「任意の合焦位置と単層画像」である。インプット情報としては、「選択された単層画像情報」と、「焦点深度の浅い(合焦位置(集光位置)の縦幅が狭い)画像情報」と、「輝度値の高い、全断層画像全縦幅の中の任意の合焦位置(集光位置)(患者ごとに異なる)」である。そのインプット情報は、画像処理部118の中の画像取得部810にセットされ、CNN処理部820において畳み込みニューラルネットワークを用いて「選択された単層画像1111及び1121」を除く範囲で画像処理を行い、学習部830においてCNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。それは、例えば、図3に示す導出エンジン[2]において、インプット情報の画像情報内の輝度分布に基づく特徴量(輝度変化の傾きなど)をたよりに、学習済モデル300によって縦幅広範囲断層画像を導き出すものである。 In the present embodiment, the information obtained in the photographing in step S260 of FIG. 10 is images 1110 and 1120 including "selected single-layer images 1111 and 1121" and "arbitrary focusing position and single-layer image". The input information includes "selected single-layer image information", "image information with a shallow focal depth (the vertical width of the focusing position (condensing position) is narrow)", and "all tomographic images with high brightness value". Arbitrary focusing position (condensing position) in the entire vertical width (varies for each patient) ". The input information is set in the image acquisition unit 810 in the image processing unit 118, and the CNN processing unit 820 performs image processing in a range excluding "selected single-layer images 1111 and 1121" using a convolutional neural network. , The learning unit 830 performs the learning process of the convolutional neural network referred to by the CNN processing unit 820. For example, in the derivation engine [2] shown in FIG. 3, a vertical wide-range tomographic image is generated by the trained model 300 based on the feature amount (slope of brightness change, etc.) based on the brightness distribution in the image information of the input information. It is something to derive.

その後、学習済モデル300によって生成された縦幅広範囲断層画像と「選択された単層画像1111及び1121」とを組み合わせ、出力データ(教師データ)1130としての縦幅広範囲断層画像をディスプレイ119に表示し、使用者に明示する。ここで、図11において、出力データ(教師データ)1130のうちの単層画像1131の部分画像及び単層画像1132の部分画像が、それぞれ、選択された単層画像1111の部分画像及び選択された単層画像1121の部分画像に相当するものである。即ち、出力データ(教師データ)1130は、学習済モデル300を用いて得られた画像に、画像1110及び1120における単層画像1111の部分画像及び単層画像1121の部分画像を合成した画像となっている。 After that, the vertical wide-range tomographic image generated by the trained model 300 is combined with the "selected single-layer images 1111 and 1121", and the vertical wide-range tomographic image as output data (teacher data) 1130 is displayed on the display 119. And clearly indicate to the user. Here, in FIG. 11, the partial image of the single-layer image 1131 and the partial image of the single-layer image 1132 of the output data (teacher data) 1130 are the partial image of the selected single-layer image 1111 and the selected partial image, respectively. It corresponds to a partial image of the single-layer image 1121. That is, the output data (teacher data) 1130 is an image obtained by synthesizing the partial image of the single-layer image 1111 and the partial image of the single-layer image 1121 in the images 1110 and 1120 with the image obtained by using the trained model 300. ing.

上述した第1の実施形態と本実施形態との相違点は、本実施形態では、「選択された単層画像1111及び1121」を除く範囲で導出処理を行うことと、導出された縦幅広範囲断層画像と選択された単層画像(真実の画像)をその後に組み合わせるという点である。図11の概念図で示すように、例えば病変部のある単層画像1111の部分画像ともう1つの単層画像1121の部分画像をもとに全断層画像に係る出力データ(教師データ)1130を生成することは、病変部も網羅した断層画像を生成することとなり且つ処理時間も短縮できる。 The difference between the first embodiment and the present embodiment described above is that, in the present embodiment, the derivation process is performed in a range excluding "selected single-layer images 1111 and 1121", and the derived vertical width is wide. The point is that the tomographic image and the selected single-layer image (true image) are then combined. As shown in the conceptual diagram of FIG. 11, output data (teacher data) 1130 related to all tomographic images is obtained based on, for example, a partial image of a single-layer image 1111 with a lesion and a partial image of another single-layer image 1121. The generation will generate a tomographic image that also covers the lesion, and the processing time can be shortened.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。なお、以下に記載する第3の実施形態の説明においては、上述した第1及び第2の実施形態と共通する事項については説明を省略し、上述した第1及び第2の実施形態と異なる事項について説明を行う。
(Third Embodiment)
Next, a third embodiment of the present invention will be described. In the description of the third embodiment described below, the matters common to the above-mentioned first and second embodiments are omitted, and the matters different from the above-mentioned first and second embodiments are omitted. Will be explained.

上述した第1及び第2の実施形態では、単層画像の縦幅を例えば図2に示す画像[1]−1〜[6]−1といったように6層で分けられる例を説明したが、本発明においては、6層に限定されるものではない。 In the first and second embodiments described above, an example in which the vertical width of the single-layer image is divided into six layers, for example, images [1] -1 to [6] -1 shown in FIG. 2 has been described. In the present invention, the number of layers is not limited to six.

(その他の実施形態)
上述した本発明の実施形態では、画像処理部118を眼科撮影装置100の内部に構成し、眼科撮影装置100を本発明に係る画像処理装置として適用する形態を説明したが、本発明においてはこの形態に限定されるものではない。例えば、画像処理部118を眼科撮影装置100の外部の外部装置に構成し、当該外部装置を本発明に係る画像処理装置として適用する形態も、本発明に含まれるものである。
(Other embodiments)
In the above-described embodiment of the present invention, the embodiment in which the image processing unit 118 is configured inside the ophthalmologic imaging apparatus 100 and the ophthalmologic imaging apparatus 100 is applied as the image processing apparatus according to the present invention has been described. It is not limited to the form. For example, the present invention also includes a mode in which the image processing unit 118 is configured as an external device external to the ophthalmic imaging device 100, and the external device is applied as the image processing device according to the present invention.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
This program and a computer-readable storage medium that stores the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments of the present invention merely show examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. Is. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

100:眼科撮影装置、101:AO−SLOユニット、102:AO−OCTユニット、103:コリメータ。104:光分岐用のビームスプリッター、105:測定光、106:光分割部、107:反射ミラー、108:波面補正デバイス、109−1:走査光学系、109−2:トラッキングミラー、113:リレー光学系、114:アパーチャー、115:波面センサー、116:補償光学制御部、117:制御部、118:画像処理部、119:ディスプレイ、E:被検眼、Ef:眼底、200:OCT画像、210:AO−OCT画像、220:入力データ、230:出力データ(教師データ)、300:学習済モデル 100: Ophthalmologic imaging device, 101: AO-SLO unit, 102: AO-OCT unit, 103: Collimator. 104: Beam splitter for optical branching, 105: Measurement light, 106: Optical divider, 107: Reflective mirror, 108: Wave surface correction device, 109-1: Scanning optical system, 109-2: Tracking mirror, 113: Relay optics System, 114: aperture, 115: wave surface sensor, 116: adaptive optics control unit, 117: control unit, 118: image processing unit, 119: display, E: eye to be examined, Ef: fundus, 200: OCT image, 210: AO -OCT image, 220: input data, 230: output data (teacher data), 300: trained model

Claims (7)

被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像を取得する取得手段と、
学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成手段と、
を有することを特徴とする画像処理装置。
An acquisition means for acquiring a first image having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be inspected.
Using the trained model, an image having a resolution higher than the resolution of the second region excluding the first region related to the width of the depth of focus in the first image and having the vertical width is obtained. The generation means to generate and
An image processing device characterized by having.
前記学習済モデルは、前記縦幅において前記第1領域の位置が異なる複数の画像を入力データとし、前記複数の画像のそれぞれの前記第1領域の部分画像を用いて生成された画像を出力データとする教師データを学習することにより得られるものであることを特徴とする請求項1に記載の画像処理装置。 The trained model uses a plurality of images having different positions of the first region in the vertical width as input data, and outputs images generated by using the partial images of the first region of each of the plurality of images as output data. The image processing apparatus according to claim 1, wherein the image processing apparatus is obtained by learning the teacher data. 前記第2の画像は、前記第1の画像よりも、前記第1領域の解像度と同等の解像度を有する範囲が大きいことを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the second image has a larger range having a resolution equivalent to that of the first region than the first image. 前記第2の画像は、前記被検眼におけるスクリーニング用の画像であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the second image is an image for screening in the eye to be inspected. 前記第2の画像は、前記学習済モデルを用いて得られた画像に、前記第1の画像における前記第1領域の部分画像を合成した画像であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The second image is an image obtained by synthesizing a partial image of the first region in the first image with an image obtained by using the trained model, according to claims 1 to 4. The image processing apparatus according to any one item. 被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像を取得する取得ステップと、
学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成ステップと、
を有することを特徴とする画像処理方法。
The acquisition step of acquiring a first image having a vertical width exceeding the width of the depth of focus of the measurement light with respect to the eye to be inspected, and
Using the trained model, an image having a resolution higher than the resolution of the second region excluding the first region related to the width of the depth of focus in the first image and having the vertical width is obtained. Generation steps to generate and
An image processing method characterized by having.
コンピュータを、請求項1乃至5のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 5.
JP2020056297A 2020-03-26 2020-03-26 Image processing device, image processing method and program Pending JP2021153786A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020056297A JP2021153786A (en) 2020-03-26 2020-03-26 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020056297A JP2021153786A (en) 2020-03-26 2020-03-26 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2021153786A true JP2021153786A (en) 2021-10-07

Family

ID=77916056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020056297A Pending JP2021153786A (en) 2020-03-26 2020-03-26 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2021153786A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047692A1 (en) 2021-09-22 2023-03-30 三菱造船株式会社 Floating body

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047692A1 (en) 2021-09-22 2023-03-30 三菱造船株式会社 Floating body

Similar Documents

Publication Publication Date Title
US9339183B2 (en) Aberration correction method, photographing method and photographing apparatus
US8770752B2 (en) Ophthalmic apparatus, ophthalmic system, processing apparatus, and blood flow velocity calculation method
JP5511324B2 (en) Compensating optical device, compensating optical method, imaging device, and imaging method
US9875541B2 (en) Enhanced algorithm for the detection of eye motion from fundus images
KR101453327B1 (en) Fundus imaging method, fundus imaging apparatus, and storage medium
JP5517571B2 (en) Imaging apparatus and imaging method
US9107619B2 (en) Optical-image pickup apparatus and method for controlling the same
JP2013248260A (en) Imaging apparatus, control method, and program
JP2011156080A (en) Method for controlling optical image pick-up device equipped with compensation optical system, program thereof, storage medium, and optical image pick-up device
US11134841B2 (en) Image acquisition apparatus and method for controlling the same
JP7091018B2 (en) Tomographic image acquisition device and method
JP2021153786A (en) Image processing device, image processing method and program
JP6021394B2 (en) Imaging method and imaging apparatus
JP2014079464A (en) Ophthalmologic apparatus and wave front aberration correcting method for the same
US10357155B2 (en) Wavefront correction method for adaptive optics system
JP2019097944A (en) Ophthalmologic imaging apparatus
WO2021106824A1 (en) Photographing device and method for controlling same
WO2020166465A1 (en) Image processing device, image processing method, and program
JP2016036588A (en) Imaging apparatus and imaging method
KR101422731B1 (en) Imaging device for laminography of muridae retina
JP2020131017A (en) Image processing system, image processing method, and program
JP7309404B2 (en) Imaging device and its control method
JP2021137256A (en) Ophthalmologic apparatus, ophthalmologic apparatus operation method, and program
WO2020209012A1 (en) Image analysis method and image analysis device
JP5943953B2 (en) Imaging apparatus and control method thereof