JP7318272B2 - OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM - Google Patents

OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM Download PDF

Info

Publication number
JP7318272B2
JP7318272B2 JP2019067251A JP2019067251A JP7318272B2 JP 7318272 B2 JP7318272 B2 JP 7318272B2 JP 2019067251 A JP2019067251 A JP 2019067251A JP 2019067251 A JP2019067251 A JP 2019067251A JP 7318272 B2 JP7318272 B2 JP 7318272B2
Authority
JP
Japan
Prior art keywords
image
template
eye
distortion
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067251A
Other languages
Japanese (ja)
Other versions
JP2020162926A5 (en
JP2020162926A (en
Inventor
涼介 柴
佳紀 熊谷
祐二 村瀬
賢士朗 藤生
昌平 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2019067251A priority Critical patent/JP7318272B2/en
Priority to EP20165938.0A priority patent/EP3714770B1/en
Priority to US16/830,936 priority patent/US11508062B2/en
Publication of JP2020162926A publication Critical patent/JP2020162926A/en
Publication of JP2020162926A5 publication Critical patent/JP2020162926A5/ja
Application granted granted Critical
Publication of JP7318272B2 publication Critical patent/JP7318272B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本開示は、被検眼の画像を処理する眼科撮影装置、および、眼科用画像処理プログラムに関する。 The present disclosure relates to an ophthalmic imaging apparatus that processes an image of an eye to be examined, and an ophthalmic image processing program.

従来、眼科分野において、同一箇所を撮影した複数枚の眼科画像を画像処理によって合成して、S/N等の画質の向上を図る種々の手法が知られている。このような手法は、例えば、SLO画像のような正面画像の他、OCT画像のような断層画像において、広く利用されている(例えば、特許文献1,2参照)。 Conventionally, in the field of ophthalmology, there have been known various techniques for improving image quality such as S/N ratio by synthesizing a plurality of ophthalmologic images photographed at the same location by image processing. Such a method is widely used, for example, in front images such as SLO images and tomographic images such as OCT images (see Patent Documents 1 and 2, for example).

また、より広い画角で被検眼を撮影する、走査型の眼科撮影装置の利活用が、近年、急速に広がっている(例えば、特許文献3参照)。 In recent years, the use and application of scanning ophthalmologic imaging apparatuses that take images of an eye to be inspected with a wider angle of view have been rapidly expanding (see, for example, Patent Document 3).

更に、走査型の眼底撮影装置において、高解像度化が求められている。 Further, there is a demand for higher resolution in scanning-type fundus imaging devices.

特開2010-110392号公報JP 2010-110392 A 特開2013-179972号公報JP 2013-179972 A 特開2016-123467号公報JP 2016-123467 A

しかし、走査型の撮影装置では、より大きな画角、または、より高い解像度、で撮影する場合ほど、画像1枚当たりの撮影に要する時間が増大する傾向にある。撮影時間の増大に伴って、各々の画像の撮影中(走査中)に眼の動きが生じることは、避け難くなってしまう。つまり、各々の画像において歪みが避け難くなってしまう。このような場合、特許文献1に開示された手法では対応が難しい。 However, in the scanning type photographing apparatus, the larger the angle of view or the higher the resolution, the longer the time required for photographing one image. As the imaging time increases, it becomes unavoidable that eye movements occur during the imaging (during scanning) of each image. That is, it becomes difficult to avoid distortion in each image. In such a case, it is difficult to deal with the method disclosed in Patent Document 1.

本開示は、従来技術の問題点の少なくとも1つに鑑みてなされたものであり、歪みの少ない被検眼の画像が得られる、眼科撮影装置、および、眼科用画像処理プログラム、を提供することを技術課題とする。 The present disclosure has been made in view of at least one of the problems of the prior art, and aims to provide an ophthalmic photographing apparatus and an ophthalmic image processing program capable of obtaining an image of an eye to be examined with little distortion. This is a technical issue.

本開示の第1態様に係る眼科撮影装置は、光源からの光を被検眼の組織上で走査する走査手段と、前記組織からの戻り光を受光する受光素子と、を含む撮影光学系と、前記受光素子からの信号に基づいて複数枚の被検眼の画像を撮影する撮影制御手段と、画像処理手段と、を備え、前記画像処理手段は、複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチング、前記テンプレートに対する前記被検眼の画像の2次元的な歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理、を実行し、歪み補正後の前記被検眼の画像と前記テンプレートとを比較すると共に、比較結果に応じて、前記対応点または前記対応領域をより密に設定して、前記ローカルマッチング、および、前記歪み補正処理をやり直す
本開示の第2態様に係る眼科撮影装置は、光源からの光を被検眼の組織上で走査する走査手段と、前記組織からの戻り光を受光する受光素子と、を含む撮影光学系と、前記受光素子からの信号に基づいて複数枚の被検眼の画像を撮影する撮影制御手段と、画像処理手段と、を備え、前記画像処理手段は、複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチング、前記テンプレートに対する前記被検眼の画像の2次元的な歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理、歪み補正後のそれぞれの前記被検眼の画像について、前記テンプレートに対して残存する歪みが大きなほど小さな重み付係数を領域毎に設定し、各々の画像における領域毎の重み付係数に基づいて、歪み補正後の複数の前記被検眼の画像を領域毎に合成することによって合成画像を得る合成処理、を実行する。
An ophthalmologic imaging apparatus according to a first aspect of the present disclosure includes an imaging optical system including scanning means for scanning a tissue of an eye to be inspected with light from a light source, and a light receiving element for receiving return light from the tissue; a photographing control means for photographing a plurality of images of the eye to be inspected based on a signal from the light receiving element; as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template, and for each corresponding point or each corresponding region Local matching for calculating a movement amount, and distortion correction processing for correcting two-dimensional distortion of the image of the eye to be examined with respect to the template based on the movement amount for each corresponding point or each corresponding region ; The image of the subject's eye after distortion correction is compared with the template, and the corresponding points or the corresponding regions are set more densely according to the comparison result, and the local matching and the distortion correction processing are performed. Start over .
An ophthalmologic imaging apparatus according to a second aspect of the present disclosure includes an imaging optical system including: scanning means for scanning a tissue of an eye to be inspected with light from a light source; and a light receiving element for receiving light returned from the tissue; a photographing control means for photographing a plurality of images of the eye to be inspected based on a signal from the light receiving element; as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template, and for each corresponding point or each corresponding region local matching for calculating a movement amount, distortion correction processing for correcting the two-dimensional distortion of the image of the eye to be examined with respect to the template based on the movement amount for each corresponding point or each corresponding region, after distortion correction For each image of the eye to be inspected, a smaller weighting factor is set for each area as the distortion remaining with respect to the template is larger, and based on the weighting factor for each area in each image, a plurality of distortion-corrected a synthesizing process for obtaining a synthesized image by synthesizing the images of the eye to be inspected for each region.

本開示の第態様に係る眼科用画像処理プログラムは、コンピュータのプロセッサによって実行されることにより、走査型の撮影光学系において撮影された被検眼の画像を複数枚取得する取得ステップと、複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチングと、前記テンプレートに対する前記被検眼の画像の歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理と、を前記コンピュータに実行させ、さらに、前記コンピュータによって、歪み補正後の前記被検眼の画像と前記テンプレートとを比較すると共に、比較結果に応じて、前記対応点または前記対応領域をより密に設定して、前記ローカルマッチング、および、前記歪み補正処理をやり直す
本開示の第4態様に係る眼科用画像処理プログラムは、コンピュータのプロセッサによって実行されることにより、走査型の撮影光学系において撮影された被検眼の画像を複数枚取得する取得ステップと、複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチングと、前記テンプレートに対する前記被検眼の画像の歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理と、歪み補正後のそれぞれの前記被検眼の画像について、前記テンプレートに対して残存する歪みが大きなほど小さな重み付係数を領域毎に設定し、各々の画像における領域毎の重み付係数に基づいて、歪み補正後の複数の前記被検眼の画像を領域毎に合成することによって合成画像を得る合成処理と、を前記コンピュータに実行させる。
An ophthalmic image processing program according to a third aspect of the present disclosure is executed by a processor of a computer to acquire a plurality of images of an eye to be inspected captured by a scanning optical system; Using any one of the images of the eye to be examined as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template, local matching for calculating a movement amount for each corresponding point or each corresponding area; and distortion for correcting distortion of an image of the subject's eye with respect to the template based on the movement amount for each corresponding point or each corresponding area. and performing a correction process on the computer, the computer comparing the image of the subject's eye after distortion correction with the template, and further determining the corresponding points or the corresponding regions according to the comparison result. The local matching and the distortion correction processing are redone by setting a high density .
An ophthalmic image processing program according to a fourth aspect of the present disclosure is executed by a processor of a computer to acquire a plurality of images of an eye to be inspected captured by a scanning optical system; Using any one of the images of the eye to be examined as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template, local matching for calculating a movement amount for each corresponding point or each corresponding area; and distortion for correcting distortion of an image of the subject's eye with respect to the template based on the movement amount for each corresponding point or each corresponding area. For each image of the eye to be inspected after correction processing and distortion correction, a smaller weighting factor is set for each region as the distortion remaining with respect to the template is larger, and the weighting coefficient for each region in each image is set to a synthesizing process for obtaining a synthesized image by synthesizing the plurality of images of the subject's eye after distortion correction for each region based on the computer.

本開示によれば、歪みの少ない被検眼の画像が得られる。 According to the present disclosure, an image of the eye to be examined can be obtained with less distortion.

実施形態に係る装置の概略構成を示す図である。It is a figure which shows schematic structure of the apparatus which concerns on embodiment. 撮影光学系の概略構成を示す図である。It is a figure which shows schematic structure of an imaging optical system. 実施形態に係る動作の流れを示したフローチャートである。4 is a flowchart showing the flow of operations according to the embodiment; テンプレート取得処理を説明するためのフローチャートである。9 is a flowchart for explaining template acquisition processing; 比較画像の基準領域(基準点)を説明する図である。FIG. 10 is a diagram illustrating a reference area (reference point) of a comparison image; 比較画像の基準点と、基準領域のマッチングによってテンプレート上で特定された対応点と、を示す図である。FIG. 10 is a diagram showing reference points of a comparative image and corresponding points specified on a template by matching of reference areas; テンプレート上の各対応点と比較画像の各基準点とのアフィン変換を説明するための図である。FIG. 4 is a diagram for explaining affine transformation between each corresponding point on a template and each reference point on a comparison image; 対応点とアフィン写像とに基づく歪みの有無についてを説明するための図である。FIG. 4 is a diagram for explaining the presence or absence of distortion based on corresponding points and affine mapping; 撮影処理を説明するためのフローチャートである。4 is a flowchart for explaining imaging processing; 第1の歪み補正・合成処理を説明するためのフローチャートである。9 is a flowchart for explaining first distortion correction/synthesis processing; テンプレートを分割する場合の一例を示している。An example of dividing a template is shown. テンプレートを分割する場合の一例であって、図8Aよりも詳細に分割した場合を示している。This is an example of dividing a template, showing a more detailed division than in FIG. 8A. テンプレートを分割する場合の一例であって、図8Bよりもさらに詳細に分割した場合を示している。This is an example of dividing a template, showing a more detailed division than in FIG. 8B. 歪み補正後の被検眼の画像において、再変形が必要か否かの判定処理を説明するための図である。FIG. 10 is a diagram for explaining the process of determining whether re-deformation is necessary in the image of the subject's eye after distortion correction; 類似度による加算の重み付係数の計算手法を説明するための図である。FIG. 10 is a diagram for explaining a method of calculating a weighting coefficient for addition based on similarity; 第2の歪み補正・合成処理を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining a second distortion correction/synthesis process; FIG. 第2の歪み補正・合成処理において、制御点(対応点)の配置態様の一例を示した図である。FIG. 10 is a diagram showing an example of how control points (corresponding points) are arranged in the second distortion correction/synthesis processing; 移動量のフィッティング曲線の概要を示した図である。FIG. 10 is a diagram showing an outline of a fitting curve of a movement amount; 画角の広い撮影画像において、歪み補正・合成処理を適用する場合の分割の態様の一例を示す図である。FIG. 10 is a diagram showing an example of a division mode when distortion correction/combination processing is applied to a photographed image with a wide angle of view. 図14Aよりも詳細に分割した場合を示している。14A shows a more detailed division than FIG. 14A. 図14Bよりもさらに詳細に分割した場合を示している。14B shows a more detailed division than FIG. 14B.

以下、図面を参照しつつ、本開示にかかる実施形態を説明する。便宜上、以下では、特に断りが無い限り、実施形態に係る「眼科用画像処理プログラム」の処理内容は、「眼科撮影装置」によって実行されるものとして説明する。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings. For the sake of convenience, hereinafter, unless otherwise specified, the processing content of the "ophthalmic image processing program" according to the embodiment will be described as being executed by the "ophthalmic photographing apparatus".

眼科撮影装置は、被検眼の画像(眼科画像)として、眼底の正面画像(以下、眼底画像と称する)を撮影する。但し、「眼科撮影装置」は、必ずしも眼底を撮影するものに限定されるものではなく、被検眼の前眼部等、他の部位を撮影してもよい。 An ophthalmologic imaging apparatus captures a front image of the fundus (hereinafter referred to as a fundus image) as an image of an eye to be examined (ophthalmologic image). However, the "ophthalmic photographing apparatus" is not necessarily limited to photographing the fundus, and may photograph other parts such as the anterior segment of the subject's eye.

<装置構成>
実施形態に係る眼科撮影装置1(図1参照)は、撮影光学系10,20(図2参照)と、画像処理器(画像処理プロセッサ)80と、を少なくとも備える。以下、眼科撮影装置1を、本装置1と省略する。画像処理器80を有することによって、本装置1は、各種画像処理を実行するコンピュータとなる。画像処理器80は、装置全体の動作を司るプロセッサによって兼用されてもよい。画像処理器80は、装置全体の動作を司るプロセッサとは別体であってもよい。画像処理器80のプロセッサからアクセス可能なメモリには、実施形態に係る眼科用画像処理プログラムが格納されていてもよい。
<Device configuration>
An ophthalmologic imaging apparatus 1 (see FIG. 1) according to the embodiment includes at least imaging optical systems 10 and 20 (see FIG. 2) and an image processor (image processor) 80 . Hereinafter, the ophthalmologic imaging apparatus 1 will be abbreviated as the present apparatus 1 . By having the image processor 80, the apparatus 1 becomes a computer that executes various image processing. The image processor 80 may be shared by a processor that controls the operation of the entire device. The image processor 80 may be separate from the processor that controls the operation of the entire device. A memory accessible from the processor of the image processor 80 may store an ophthalmic image processing program according to the embodiment.

本装置1は、例えば、図1に示すように、光学ユニット1aと、制御ユニット1bと、に大別されており、撮影光学系10,20は光学ユニット1aに、画像処理器80は制御ユニット1bに、それぞれ格納されていてもよい。制御ユニット1bには、プロセッサ(CPU)70の他、各種メモリ75を有している。眼科用画像処理プログラムは、メモリ75に格納されていてもよい。また、制御ユニット1bには、操作部85(ユーザインターフェース)が接続されていてもよい。操作部85は、マウスおよびタッチパネル等のポインティングデバイスであってもよいし、その他のユーザインターフェースであってもよい。制御ユニット1bとして、例えば、PCが利用されてもよい。 For example, as shown in FIG. 1, this apparatus 1 is roughly divided into an optical unit 1a and a control unit 1b. 1b, respectively. The control unit 1b has various memories 75 in addition to a processor (CPU) 70 . The ophthalmic image processing program may be stored in the memory 75 . Further, an operation section 85 (user interface) may be connected to the control unit 1b. The operation unit 85 may be a pointing device such as a mouse and a touch panel, or may be another user interface. For example, a PC may be used as the control unit 1b.

また、本装置1は、モニタ90を有していてもよい。モニタ90には、例えば、撮影された眼底画像が表示される。その他に、モニタ90には、各種GUIが表示されてもよい。 The device 1 may also have a monitor 90 . For example, a captured fundus image is displayed on the monitor 90 . In addition, various GUIs may be displayed on the monitor 90 .

<撮影光学系の概要>
撮影光学系10,20は、眼底画像を撮影する。本実施形態においては、眼底の正面画像が、眼底画像として撮影される。但し、必ずしもこれに限られるものではない。撮影光学系10,20は、照射光学系10と、受光光学系20と、に大別される(図2参照)。
<Outline of the imaging optical system>
The imaging optical systems 10 and 20 capture fundus images. In this embodiment, the front image of the fundus is captured as the fundus image. However, it is not necessarily limited to this. The imaging optical systems 10 and 20 are roughly divided into an irradiation optical system 10 and a light receiving optical system 20 (see FIG. 2).

撮影光学系10,20は、走査型の光学系である。図2に例示する撮影光学系10,20は、走査手段の一例として、走査部16を有する。また、撮影光学系10,20は、受光素子として、3つの受光素子25,27,29を有する。図2において、撮影光学系10,20は、共焦点光学系である。 The imaging optical systems 10 and 20 are scanning optical systems. The imaging optical systems 10 and 20 illustrated in FIG. 2 have a scanning unit 16 as an example of scanning means. The imaging optical systems 10 and 20 also have three light receiving elements 25, 27 and 29 as light receiving elements. In FIG. 2, the imaging optical systems 10 and 20 are confocal optical systems.

特に断りが無い限り、以下の説明において、撮影光学系10,20は、2次元スキャンタイプの光学系であるものとして説明する。2次元スキャンタイプにおいては、照明光が眼底上でスポット状に形成されると共に、眼底上で2次元的に走査される。但し、必ずしもこれに限られるものでは無く、ラインスキャンタイプ(あるいは、スリットスキャンタイプ)の光学系が、適用されてもよい。この場合は、照明光が眼底上でライン状またはスリット状に形成されると共に、照明光の光束の断面長手方向と交差する方向に、照明光が走査される。 Unless otherwise specified, the imaging optical systems 10 and 20 are assumed to be two-dimensional scan type optical systems in the following description. In the two-dimensional scan type, illumination light is formed in a spot shape on the fundus and is scanned two-dimensionally on the fundus. However, it is not necessarily limited to this, and a line scan type (or slit scan type) optical system may be applied. In this case, the illumination light is formed in a line shape or a slit shape on the fundus, and the illumination light is scanned in a direction intersecting the cross-sectional longitudinal direction of the luminous flux of the illumination light.

<照射光学系>
まず、照射光学系10について説明する。照射光学系10は、走査部16を有し、眼底上でポイント状に照明光を集光させると共に、走査部16によって、照明光を眼底上で走査させる。
<Irradiation optical system>
First, the irradiation optical system 10 will be described. The irradiation optical system 10 has a scanning unit 16 that condenses the illumination light into a point on the fundus and causes the scanning unit 16 to scan the illumination light on the fundus.

走査部16(走査手段の一例)は、互いに異なる2方向に、照明光を走査する。説明の便宜上、以下の説明においては、ラスタースキャンによって、照明光が走査されるものとする。この場合、図2に示すように、走査部16は、主走査用の第1の光スキャナ16aと副走査用の第2の光スキャナ16bとを含んでいてもよい。但し、必ずしもこれに限られるものではなく、走査部16は、2自由度のデバイス(例えば、MEMS等)であってもよい。光スキャナは、ガルバノミラー、ポリゴンミラー、レゾナントスキャナ、MEMS、および、音響光学素子(AOM)等のうちいずれかが適宜選択されてもよい。 The scanning unit 16 (an example of scanning means) scans the illumination light in two different directions. For convenience of explanation, it is assumed that the illumination light is scanned by raster scanning in the following explanation. In this case, as shown in FIG. 2, the scanning section 16 may include a first optical scanner 16a for main scanning and a second optical scanner 16b for sub-scanning. However, it is not necessarily limited to this, and the scanning unit 16 may be a two-degree-of-freedom device (for example, MEMS or the like). Any one of a galvanomirror, a polygon mirror, a resonant scanner, a MEMS, an acoustooptic device (AOM), and the like may be appropriately selected as the optical scanner.

照射光学系10は、光源11からの照明光を眼底へ照射する。照射光学系10は、複数の波長域の光を、同時に照射可能であってもよいし、選択的に切り替えて照射可能であってもよい。 The irradiation optical system 10 irradiates the fundus with illumination light from the light source 11 . The irradiation optical system 10 may be capable of simultaneously irradiating light in a plurality of wavelength ranges, or selectively switching and irradiating light.

特に断りが無い限り、以下の説明において、照射光学系10は、可視光と、赤外光とを、照射するものとして説明する。 Unless otherwise specified, the irradiation optical system 10 is assumed to irradiate visible light and infrared light in the following description.

照射光学系10は、その他に、ビームスプリッター13、レンズ14、および、対物レンズ17を有する。 The irradiation optical system 10 also has a beam splitter 13 , a lens 14 and an objective lens 17 .

ビームスプリッター13は、照射光学系10と受光光学系20との光路を結合および分離する。ビームスプリッター13は、穴あきミラーであってもよいし、他の部材であってもよい。 The beam splitter 13 couples and separates the optical paths of the irradiation optical system 10 and the light receiving optical system 20 . The beam splitter 13 may be a perforated mirror or other member.

レンズ14はフォーカシングレンズであって、駆動部(図示せず)によって変位される。レンズ14と駆動部とは、本実施形態におけるフォーカス調整部40(視度補正部)として利用される。本実施形態において、レンズ14の位置は、プロセッサ70によって制御される。 Lens 14 is a focusing lens and is displaced by a drive (not shown). The lens 14 and the drive section are used as a focus adjustment section 40 (visibility correction section) in this embodiment. In this embodiment, the position of lens 14 is controlled by processor 70 .

対物レンズ17は、本装置1の対物光学系である。対物レンズ17は、走査部16によって走査されるレーザー光を、眼底Erに導くために利用される。対物レンズ17は、射出瞳の位置に、旋回点Pを形成する。旋回点Pでは、走査部16を経た照明光が旋回される。対物光学系は、対物レンズ17のような屈折系ではなく、ミラーによる反射系であってもよい。 The objective lens 17 is an objective optical system of the device 1 . The objective lens 17 is used to guide the laser light scanned by the scanning unit 16 to the fundus Er. The objective lens 17 forms a pivot point P at the position of the exit pupil. At the turning point P, the illumination light that has passed through the scanning unit 16 is turned. The objective optical system may be a reflecting system using a mirror instead of a refractive system like the objective lens 17 .

走査部16を経た照明光は、対物レンズ17を通過することによって、旋回点Pを経て、眼底Erに照射される。照明光が旋回点Pを中心に旋回されることで、眼底Er上で照明光が走査される。眼底Erに照射された照明光は、集光位置(例えば、網膜表面)にて反射される。照明光の眼底反射光は、平行光として瞳孔から出射する。 The illumination light that has passed through the scanning unit 16 passes through the objective lens 17, passes through the turning point P, and is irradiated to the fundus Er. By turning the illumination light around the turning point P, the illumination light is scanned on the fundus Er. The illumination light applied to the fundus Er is reflected at a condensing position (for example, the surface of the retina). The fundus reflected light of the illumination light is emitted from the pupil as parallel light.

<受光光学系>
次に、受光光学系20について説明する。受光光学系20は、1つ又は複数の受光素子を有してもよい。受光光学系20は、眼底Erからの戻り光を、受光素子25,27,29の少なくともいずれかに導き、受光させる。
<Light receiving optical system>
Next, the light receiving optical system 20 will be described. The light receiving optical system 20 may have one or more light receiving elements. The light-receiving optical system 20 guides the return light from the fundus Er to at least one of the light-receiving elements 25, 27, and 29 to receive the light.

図2に示すように、本実施形態における受光光学系20は、対物光学系17からビームスプリッター13までに配置された各部材を、照射光学系10と共用してもよい。この場合、眼底Erからの光は、照射光学系10の光路を遡って、ビームスプリッター13まで導かれる。ビームスプリッター13は、眼底Erからの光を、受光光学系20の独立光路へ導く。 As shown in FIG. 2 , the light receiving optical system 20 in this embodiment may share the members arranged from the objective optical system 17 to the beam splitter 13 with the irradiation optical system 10 . In this case, the light from the fundus Er traces the optical path of the irradiation optical system 10 and is guided to the beam splitter 13 . The beam splitter 13 guides the light from the fundus Er to the independent optical path of the light receiving optical system 20 .

更に、図1に示した受光光学系20は、ビームスプリッター13の反射光路に、レンズ21、ピンホール板23、および、光分離部(光分離ユニット)30を有する。 Further, the light receiving optical system 20 shown in FIG. 1 has a lens 21, a pinhole plate 23, and a light separation section (light separation unit) 30 on the reflected light path of the beam splitter 13. FIG.

ピンホール板23は、有害光除去部の一例である。ピンホール板23は、眼底共役面に配置されていることで、眼底Erの集光点(あるいは、焦点面)以外の位置からの光を取り除くと共に、(集光点からの光)を受光素子25,27,29の少なくともいずれかへ導く。 The pinhole plate 23 is an example of a harmful light removing section. Since the pinhole plate 23 is arranged on the conjugate plane of the fundus, it removes light from positions other than the condensing point (or focal plane) of the fundus Er and receives (light from the condensing point) as a light receiving element. Leads to at least one of 25, 27, 29.

光分離部30は、眼底Erからの光を分離させる。本実施形態では、光分離部30によって、眼底Erからの光が波長選択的に光分離される。また、光分離部30は、受光光学系20の光路を分岐させる光分岐部を兼用していてもよい。例えば、図2に示すように、光分離部30は、光分離特性(波長分離特性)が互いに異なる2つのダイクロイックミラー(ダイクロイックフィルター)31,32を含んでいてもよい。受光光学系20の光路は、2つのダイクロイックミラー31,32によって、3つに分岐される。また、それぞれの分岐光路の先には、受光素子25,27,29の1つがそれぞれ配置される。 The light separation unit 30 separates light from the fundus Er. In this embodiment, the light separation unit 30 wavelength-selectively separates the light from the fundus Er. Further, the light separating section 30 may also serve as a light branching section that branches the optical path of the light receiving optical system 20 . For example, as shown in FIG. 2, the light separation section 30 may include two dichroic mirrors (dichroic filters) 31 and 32 having different light separation characteristics (wavelength separation characteristics). The optical path of the light receiving optical system 20 is branched into three by two dichroic mirrors 31 and 32 . Also, one of the light receiving elements 25, 27 and 29 is arranged at the end of each branched optical path.

例えば、光分離部30は、眼底Erからの光の波長を分離させ、3つの受光素子25,27,29に、互いに異なる波長域の光を受光させる。例えば、青,緑,赤の3色の光を、受光素子25,27,29に1色ずつ受光させてもよい。この場合、各受光素子25,27,29の受光結果に基づいて、カラー画像が生成されてもよい。 For example, the light separation unit 30 separates the wavelengths of light from the fundus Er, and causes the three light receiving elements 25, 27, and 29 to receive light in different wavelength ranges. For example, light of three colors of blue, green, and red may be received by the light receiving elements 25, 27, and 29 one by one. In this case, a color image may be generated based on the light receiving results of the light receiving elements 25 , 27 and 29 .

また、光分離部30は、眼底からの蛍光と、観察光の眼底反射光である赤外光とを、互いに異なる受光素子に受光させてもよい。これにより、蛍光画像と同時に、赤外画像を撮影可能であってもよい。蛍光画像は、自発蛍光画像であってもよいし、造影蛍光画像であってもよい。 In addition, the light separation unit 30 may allow different light receiving elements to receive the fluorescence from the fundus and the infrared light that is the fundus reflected light of the observation light. Thereby, it may be possible to capture an infrared image simultaneously with a fluorescence image. The fluorescence image may be an autofluorescence image or a contrast-enhanced fluorescence image.

なお、上記説明した撮影光学系10,20は、複数の受光素子を有することで、各受光素子に応じた波長の戻り光を、各々の受光素子で同時に受光し得る。しかし、必ずしもこれに限られるものではない。例えば、本出願人による「特開2008-228781号公報」のように、異なる波長域の戻り光を、1つの受光素子へ交互に(シーケンシャルに)受光させることで、フレーム毎に(ライン毎でもよい)に、異なる波長域に基づく眼底画像を取得する装置においても、本開示は適用可能である。 The imaging optical systems 10 and 20 described above have a plurality of light receiving elements, so that each light receiving element can simultaneously receive return light having a wavelength corresponding to each light receiving element. However, it is not necessarily limited to this. For example, as in "Japanese Patent Laid-Open No. 2008-228781" by the present applicant, returning light in different wavelength ranges is alternately (sequentially) received by one light receiving element, so that each frame (or even each line) However, the present disclosure can also be applied to devices that acquire fundus images based on different wavelength ranges.

<画角の切換>
撮影光学系10,20は、画角を変更する画角切換部を有してもよい。例えば、画角切換部は、撮影光学系10,20における対物光学系の光学的な構成を切り替えることで、画角を変更してもよい。詳細には、画角切換部は、対物光学系に対して光学素子を挿脱する挿脱機構を含んでいてもよい。光学素子は、レンズ、ミラー、および、プリズム等を用いることができる。また、画角切換部は、2つ以上のレンズの位置関係が光路に沿って変化することで、屈折状態が変更されるズーム機構であってもよい。また、液晶レンズ等の屈折力可変レンズを画角切換部として有していてもよい。更には、画角切換部には、走査部16が含まれていてもよく、光スキャナ16a,16bの振り角を変更することで、画角が切換えられてもよい。なお、本実施形態における撮影光学系10,20は、80°以上の画角(但し、射出瞳基準)で、眼底画像を撮影可能であってもよい。画角切換部は、80°未満の第1画角と、80°以上の第2画角との間で切換えるものであってもよい。
<Switching the angle of view>
The imaging optical systems 10 and 20 may have an angle-of-view switching section for changing the angle of view. For example, the angle-of-view switching unit may change the angle of view by switching the optical configuration of the objective optical system in the imaging optical systems 10 and 20 . Specifically, the angle-of-view switching section may include an insertion/removal mechanism for inserting/removing the optical element with respect to the objective optical system. Lenses, mirrors, prisms, and the like can be used as optical elements. Also, the angle-of-view switching unit may be a zoom mechanism that changes the refraction state by changing the positional relationship of two or more lenses along the optical path. Also, a refractive power variable lens such as a liquid crystal lens may be provided as the view angle switching section. Furthermore, the angle-of-view switching unit may include the scanning unit 16, and the angle of view may be switched by changing the swing angles of the optical scanners 16a and 16b. Note that the imaging optical systems 10 and 20 in the present embodiment may be capable of capturing a fundus image at an angle of view of 80° or more (with reference to the exit pupil). The angle-of-view switching unit may switch between a first angle of view less than 80° and a second angle of view greater than or equal to 80°.

<眼底画像の取得(撮影)>
プロセッサ70は、例えば、受光素子25,27,29から出力される受光信号を基に眼底画像を形成する。より詳細には、プロセッサ70は、走査部16による走査(ここでは、ラスタースキャン)と同期して眼底画像を形成する。
<Acquisition (capture) of fundus image>
The processor 70 forms a fundus image, for example, based on the received light signals output from the light receiving elements 25 , 27 and 29 . More specifically, the processor 70 forms a fundus image in synchronization with scanning (here, raster scanning) by the scanning unit 16 .

本実施形態では、受光素子25,27,29によって、3つの読み出しチャンネルが形成される。プロセッサ70は、3つの読み出しチャンネル(以下、単に「チャンネル」という)に応じた最大3種類の画像を、ラスタースキャン毎に生成する。本実施形態において、各種の眼底画像は、画像処理器80によって生成される。 In this embodiment, the light receiving elements 25, 27 and 29 form three readout channels. The processor 70 generates up to three types of images corresponding to three readout channels (hereinafter simply referred to as “channels”) for each raster scan. In this embodiment, various fundus images are generated by the image processor 80 .

画像処理器80は、上記のような装置の動作に基づいて逐次形成される複数フレームの眼底画像を、観察画像として取得してもよい。各フレームの観察画像は、時系列にモニタ90へ表示されてもよい。観察画像は、略リアルタイムに取得された眼底画像からなる動画像である。 The image processor 80 may acquire, as observation images, a plurality of frames of fundus images sequentially formed based on the operation of the apparatus as described above. The observation images of each frame may be displayed on the monitor 90 in chronological order. The observation image is a moving image made up of fundus images acquired substantially in real time.

本実施形態でいう「取得」は、眼底画像が、画像処理器80によって処理可能な状態に置かれることを指す。例えば、画像処理器80によってアクセス可能な所定のメモリ領域へ、眼底画像が記憶されることによって、眼底画像が取得される。 “Acquisition” in this embodiment means that the fundus image is placed in a state that can be processed by the image processor 80 . For example, the fundus image is acquired by storing the fundus image in a predetermined memory area accessible by the image processor 80 .

また、逐次形成される複数の眼底画像のうち一部が、撮影画像(キャプチャ画像)として取り込まれる(キャプチャーされる)。その際、撮影画像は記憶媒体(例えば、メモリ75)に記憶される。撮影画像が記憶される記憶媒体は、不揮発性の記憶媒体(例えば、ハードディスク,フラッシュメモリ等)であってもよい。本実施形態では、例えば、トリガ信号(例えば、レリーズ操作信号等)の出力後、所定のタイミング(又は,期間)に形成される眼底画像がキャプチャーされる。 In addition, part of the plurality of fundus images that are sequentially formed is taken in (captured) as a photographed image (capture image). At that time, the captured image is stored in a storage medium (for example, memory 75). A storage medium in which captured images are stored may be a non-volatile storage medium (eg, hard disk, flash memory, etc.). In this embodiment, for example, a fundus image formed at a predetermined timing (or period) after a trigger signal (for example, a release operation signal, etc.) is output is captured.

<撮影モードの設定>
プロセッサ70は、撮影モード(撮影方法)を変更してもよい。プロセッサ70は、照明光の波長、および、受光信号を読み出すチャンネル、のうち少なくともいずれかを、撮影モードに応じて変更してもよい。撮影モードに応じて、撮影画像として取得される眼底画像の種別が変更される。例えば、第1撮影モードでは、撮影画像としてカラー画像が取得されてもよいし、第2撮影モードでは、撮影画像として蛍光画像が取得されてもよい。
<Setting the shooting mode>
The processor 70 may change the shooting mode (shooting method). The processor 70 may change at least one of the wavelength of the illumination light and the channel for reading the received light signal according to the shooting mode. The type of fundus image acquired as a captured image is changed according to the capturing mode. For example, a color image may be obtained as the photographed image in the first photographing mode, and a fluorescence image may be obtained as the photographed image in the second photographing mode.

また、図示なきフィルタの挿脱が、撮影モードに応じて変更してもよい。 Also, the insertion/removal of a filter (not shown) may be changed according to the shooting mode.

<眼底画像1枚あたりの取得に要する所要時間の変更>
眼底画像1枚を取得する所要時間が、変更可能であってもよい。この場合、プロセッサ70が走査部16における走査速度を制御することで、所要時間が変更される。所要時間の変更に伴って、眼底画像1枚あたりの画素数(換言すれば、解像度)が、変更される。このとき、主走査方向と副走査方向とのうち、両方の走査速度が制御されてもよいし、いずれか一方の走査速度が制御されてもよい。
<Change in the time required to acquire one fundus image>
The time required to acquire one fundus image may be changeable. In this case, the processor 70 controls the scanning speed in the scanning section 16 to change the required time. As the required time is changed, the number of pixels per fundus image (in other words, resolution) is changed. At this time, the scanning speed of both the main scanning direction and the sub-scanning direction may be controlled, or only one of the scanning speeds may be controlled.

一例として、4096×4096(約0.6sec),1024×1024(約0.14sec),512×512(約0.07sec)の3種類の画素数で、眼底画像が形成されてもよい。なお、()カッコ内の数値は、所要時間の一例である。 As an example, the fundus image may be formed with three different numbers of pixels: 4096×4096 (approximately 0.6 sec), 1024×1024 (approximately 0.14 sec), and 512×512 (approximately 0.07 sec). In addition, the numerical value in parenthesis () is an example of required time.

<動作説明>
次に、本装置1において眼底画像を撮影するときの動作を、図3~図12を参照して説明する。
<Description of operation>
Next, the operation of taking a fundus image with the present apparatus 1 will be described with reference to FIGS. 3 to 12. FIG.

図3に示すように、プロセッサ70は、まず、固視灯の点灯と、観察画像の取得および表示と、を開始させる(S1,S2)。固視灯の点灯制御として、所定の呈示位置へ光が走査されるタイミングで可視光を一時的に点灯させるように、撮影光学系10,20が制御されてもよい。このようにして、内部固視灯が形成されると共に、被検眼に対して呈示されてもよい。観察画像は、より高いフレームレートで表示されることが好ましい。そこで、観察画像における画素数は、比較的小さな値(ここでは、512×512)に設定される。 As shown in FIG. 3, the processor 70 first starts turning on the fixation lamp and acquiring and displaying an observation image (S1, S2). As the lighting control of the fixation lamp, the imaging optical systems 10 and 20 may be controlled so as to temporarily turn on the visible light at the timing when the light is scanned to a predetermined presentation position. In this manner, an internal fixation lamp is formed and may be presented to the subject's eye. The observation image is preferably displayed at a higher frame rate. Therefore, the number of pixels in the observed image is set to a relatively small value (here, 512×512).

また、各種調整と設定とが行われる(S3)。例えば、被検眼と装置との位置関係が調整されてもよいし、フォーカス状態が調整されてもよいし、その他の調整が行われてもよい。調整は手動であってもよいし、自動であってもよい。手動で調整される場合、検者は観察画像を参照し得る。また、プロセッサ70は、撮影モード、および、撮影画像における画素数のうち少なくとも1つの条件を、検者の操作入力に基づいて設定してもよい。撮影画像の画素数は、観察画像に比べて大きな値が設定されてもよい。 Also, various adjustments and settings are performed (S3). For example, the positional relationship between the subject's eye and the device may be adjusted, the focus state may be adjusted, or other adjustments may be made. Adjustment may be manual or automatic. If manually adjusted, the examiner may refer to the observed image. Moreover, the processor 70 may set at least one condition of the imaging mode and the number of pixels in the captured image based on the operation input of the examiner. The number of pixels of the captured image may be set to a value larger than that of the observed image.

その後、テンプレート取得処理が行われる(S4)。テンプレート取得処理によって、撮影画像の位置合わせの基準画像となるテンプレートが取得される。テンプレートは、S3の処理において事前に設定された条件でキャプチャーされてもよい。テンプレートは、撮影画像と同条件で撮影された画像であってもよいし、撮影画像とは異なる条件で撮影された画像であってもよい。テンプレート取得処理の詳細については、図4を参照して後述する。 Thereafter, template acquisition processing is performed (S4). A template that serves as a reference image for alignment of captured images is obtained by the template obtaining process. The template may be captured under preset conditions in the process of S3. The template may be an image captured under the same conditions as the captured image, or may be an image captured under conditions different from the captured image. Details of the template acquisition process will be described later with reference to FIG.

テンプレートが取得された状態で、撮影処理(S5)が実行される。撮影処理は、例えば、トリガ信号(例えば、レリーズ操作信号等)に基づいて実行される。撮影処理については、図6を参照して、詳細を後述する。撮影処理(S5)の完了後、撮影結果が保存されると共に、モニタ90へ表示されてもよい(S6)。適正に眼底画像が撮影された場合、撮影結果として、撮影画像が表示されてもよい。また、撮影時にエラーが生じた場合、その旨がモニタ90を介して報知されてもよい。 The shooting process (S5) is executed with the template acquired. The shooting process is executed, for example, based on a trigger signal (eg, release operation signal, etc.). Details of the shooting process will be described later with reference to FIG. After the photographing process (S5) is completed, the photographing result may be saved and displayed on the monitor 90 (S6). When the fundus image is captured properly, the captured image may be displayed as the captured image. Further, if an error occurs during photographing, the fact may be notified via the monitor 90 .

<テンプレート取得処理>
次に、図4を参照して、実施形態に係るテンプレート取得処理(S5)を、詳細に説明する。テンプレート取得処理では、まず、少なくとも1枚の眼底画像がテンプレートとしてキャプチャーされる(S11)。テンプレートは、撮影処理によって取得される撮影画像と同種の眼底画像であることが好ましい。このため、撮影を開始するトリガ信号に基づいて、テンプレートとしてキャプチャーが実行されてもよい。
<Template acquisition processing>
Next, the template acquisition process (S5) according to the embodiment will be described in detail with reference to FIG. In the template acquisition process, first, at least one fundus image is captured as a template (S11). The template is preferably a fundus image of the same type as the photographed image obtained by the photographing process. Therefore, capture may be performed as a template based on a trigger signal that initiates imaging.

本実施形態では、比較画像(第2のテンプレート)が、テンプレートとは異なるタイミングで取得される(S12)。比較画像は、テンプレートと比べて歪みが少なくなるように設定された条件で撮影された眼底画像である。比較画像は、画像処理器80によって、テンプレートと比較され、テンプレートにおける歪みが検出される。更に、本実施形態では、画像処理器80によって、テンプレートにおける歪みが補正される。 In this embodiment, the comparison image (second template) is obtained at a timing different from that of the template (S12). The comparison image is a fundus image captured under conditions set to reduce distortion compared to the template. The comparison image is compared with the template by image processor 80 to detect distortions in the template. Furthermore, in this embodiment, the image processor 80 corrects distortions in the template.

上記条件の1例としては、テンプレートとなる画像を取得する所要時間と比べて、比較画像を取得する所要時間が短いこと、が挙げられる。この場合、比較画像の画素数は、テンプレート(および撮影画像)と比べて少なくてもよい。例えば、比較画像は512x512の画素数で撮影されてもよく、これに対し、テンプレートは1024x1024若しくは4096x4096の画素数で撮影されてもよい。 An example of the above condition is that the time required to acquire the comparison image is shorter than the time required to acquire the image that serves as the template. In this case, the number of pixels of the comparative image may be smaller than that of the template (and captured image). For example, the comparison image may be captured with 512×512 pixels, whereas the template may be captured with 1024×1024 or 4096×4096 pixels.

また、上記条件の別の1例として、テンプレートの取得に利用される照明光に比べて、比較画像の取得に利用される照明光の方が、被検者が眩しさを感じにくいこと、が挙げられる。つまり、テンプレートの撮影時と比較して眩しさによる反射的な眼の動きが生じ難くなるように設定された条件下で、比較画像は撮影されてもよい。具体例として、比較画像は、赤外光による眼底画像であって、テンプレートは、可視光による眼底画像でもよい。なお、赤外光による眼底画像の1種である観察画像が、比較画像として利用されてもよい。比較画像の撮影自体は、トリガ信号の入力前に行われていてもよい。例えば、トリガ信号の入力前から事前にメモリに撮りためておいた観察画像(あるいは、複数枚の観察画像による加算画像)を、比較画像として用いてもよい。 In addition, as another example of the above conditions, the illumination light used to acquire the comparison image is less likely to be dazzling to the subject than the illumination light used to acquire the template. mentioned. In other words, the comparison image may be captured under conditions set so that reflexive eye movements due to glare are less likely to occur than when the template is captured. As a specific example, the comparison image may be an infrared fundus image, and the template may be a visible fundus image. Note that an observation image, which is one type of fundus image using infrared light, may be used as the comparison image. The shooting of the comparison image itself may be performed before the input of the trigger signal. For example, an observation image (or an added image of a plurality of observation images) stored in memory before the trigger signal is input may be used as the comparison image.

また、S12の処理には、比較画像の撮影処理が含まれていてもよい。この場合、プロセッサ70は、テンプレートとは上記いずれかの条件を変えて、比較画像となる眼底画像を撮影する。比較画像と、テンプレートとの間で、取得するための所要時間、照明光の波長域、および、チャンネルの一部又は全部が異なっていてもよい。また、比較画像の撮影範囲は、テンプレートおよび撮影画像と同一であるか、テンプレートおよび撮影画像の撮影範囲を包含していることが好ましい。 Further, the process of S12 may include the process of taking a comparative image. In this case, the processor 70 changes any of the above conditions from the template and takes a fundus image as a comparison image. Some or all of the time required for acquisition, the wavelength range of the illumination light, and the channels may differ between the comparison image and the template. Moreover, it is preferable that the shooting range of the comparative image is the same as that of the template and the shot image, or includes the shooting range of the template and the shot image.

<歪み検出処理、および、判定処理の具体例>
図5A~図5Dを参照して、歪み検出処理(S13)、および、判定処理(S14)についての、一具体例を説明する。具体例において、画像処理器80は、テンプレートと比較画像との間における対応点を複数求め、それぞれの対応点間の変位の違いを、歪みとして検出する。
<Specific Examples of Distortion Detection Processing and Determination Processing>
A specific example of the distortion detection process (S13) and the determination process (S14) will be described with reference to FIGS. 5A to 5D. In a specific example, the image processor 80 obtains a plurality of corresponding points between the template and the comparison image, and detects the difference in displacement between the respective corresponding points as distortion.

まず、図5Aに示すように、比較画像において、複数の基準領域が設定される。図5Aでは、位置が互いに異なる領域h1~h5が、基準領域として利用される。基準領域は、4つ以上設定されることが好ましい。 First, as shown in FIG. 5A, a plurality of reference areas are set in the comparison image. In FIG. 5A, regions h1 to h5 with different positions are used as reference regions. Preferably, four or more reference areas are set.

図5Bにおいて、比較画像上に示した基準点i1~i5(比較画像側の対応点)は、それぞれ、領域h1~h5の中心点である。画像処理器80は、テンプレート上において、基準点i1~i5と対応する対応点j1~j5を求める。基準点と、その基準点と対応する対応点とは、眼底上において略同一位置を示すものと考えられる。例えば、画像処理器80は、それぞれの領域h1~h5についてテンプレートに対するマッチングを行う。マッチングでは、テンプレートの各領域と、それぞれの領域h1~h5との類似度が求められる。テンプレート上で、それぞれの領域h1~h5との類似度が最も大きくなる領域が、領域h1~h5に対する対応領域である。対応点j1~j5は、それぞれの対応領域の中心として特定される。マッチングは、位相限定相関法等の種々の処理を適用できる。 In FIG. 5B, reference points i1 to i5 (corresponding points on the comparison image side) shown on the comparison image are center points of regions h1 to h5, respectively. The image processor 80 obtains corresponding points j1 to j5 corresponding to the reference points i1 to i5 on the template. The reference point and the corresponding point corresponding to the reference point are considered to indicate substantially the same position on the fundus. For example, the image processor 80 performs template matching for each of the regions h1-h5. In matching, the degree of similarity between each area of the template and each of the areas h1 to h5 is obtained. On the template, the region with the highest degree of similarity with each of the regions h1 to h5 is the region corresponding to the regions h1 to h5. Corresponding points j1-j5 are identified as the center of each corresponding region. For matching, various processes such as the phase-only correlation method can be applied.

なお、「マッチング」は、2画像間の(類似度マップを求めて)類似度が最大(閾値以上)となる位置を求める画像処理である。本実施形態における各種のマッチングでは、位相限定相関(POC:Phase Only Correlation)に限らず、種々の類似度が利用されてもよい。例えば、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、および、正規化相互相関(NCC:Normalized Cross-Correlation,ZNCC:Zero-mean Normalized Cross-Correlation)等のいずれかであってもよい。 Note that "matching" is image processing for obtaining a position where the degree of similarity between two images is maximized (equal to or greater than a threshold value) (by obtaining a degree of similarity map). In the various types of matching in this embodiment, not only Phase Only Correlation (POC) but also various degrees of similarity may be used. For example, SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), and normalized cross-correlation (NCC: Normalized Cross-Correlation, ZNCC: Zero-mean Normalized Cross-Correlation), etc. good.

次に、画像処理器80は、基準点i1~i5と対応点j1~j5との間における、アフィン変換の変換行列Mを求めてから、各々の基準点i1~i5を変換行列Mでテンプレート上に写像する(図5C参照)。基準点i1~i5と対応点j1~j5とが各画像に4点以上あることで、変換行列Mを得ることができる。撮影中に眼が動いた場合(詳細には、動きが変化した場合)、テンプレート内に2次元的な歪みが生じる。変換行列Mによる基準点i1~i5の写像と、対応点j1~j5とのズレは、歪みが生じた領域において大きくなるものと考えられる。 Next, the image processor 80 obtains a transformation matrix M for affine transformation between the reference points i1 to i5 and the corresponding points j1 to j5, and converts each of the reference points i1 to i5 on the template with the transformation matrix M. (see FIG. 5C). The transformation matrix M can be obtained by having four or more reference points i1 to i5 and corresponding points j1 to j5 in each image. If the eye moves (specifically, if the movement changes) during imaging, two-dimensional distortion will occur in the template. It is considered that the deviation between the mapping of the reference points i1 to i5 by the transformation matrix M and the corresponding points j1 to j5 becomes large in the distorted region.

図5Cにおいて、5つの円k1~k5は、写像した点を中心としており、円の大きさが、歪みの許容範囲を示している。画像処理器80は、全ての対応点j1~j5が、円k1~k5の内側に含まれている場合に、歪みが許容範囲内であると判定する(S14:YES)。一方、円k1~k5の内側に含まれていない対応点j1~j5が存在することで、歪みが許容範囲外であると判定する(S14:NO)。例えば、図5Dには、対応点j3およびj4の周囲において、許容範囲を超えた歪みを有するテンプレートを示している。 In FIG. 5C, five circles k1-k5 are centered on the mapped points, and the size of the circles indicates the allowable range of distortion. The image processor 80 determines that the distortion is within the allowable range when all the corresponding points j1 to j5 are included inside the circles k1 to k5 (S14: YES). On the other hand, since there are corresponding points j1 to j5 that are not included inside the circles k1 to k5, it is determined that the distortion is outside the allowable range (S14: NO). For example, FIG. 5D shows a template with unacceptable distortion around corresponding points j3 and j4.

歪みが許容範囲を超えたと判定される場合に(S14:NO)、図4の例においては、テンプレートが再取得される(S11)。再取得されたテンプレートは、上記の流れで改めて歪みが評価される。これにより、比較画像に対する歪みが許容範囲となるテンプレートを得ることができる。つまり、テンプレートと比べて歪みが少なくなるように設定された条件下で撮影された比較画像に対し、より近しい画像をテンプレートとして選定できる。その結果、テンプレートを基準とする撮影画像の各種処理が、良好に行われやすい。 When it is determined that the distortion exceeds the allowable range (S14: NO), in the example of FIG. 4, the template is reacquired (S11). The reacquired template is subjected to distortion evaluation again according to the flow described above. As a result, it is possible to obtain a template in which the distortion with respect to the comparison image is within an allowable range. In other words, it is possible to select an image that is closer to a comparative image taken under conditions set to reduce distortion compared to the template as a template. As a result, various kinds of processing of the photographed image based on the template are likely to be performed satisfactorily.

但し、歪みが許容範囲を超える場合、そもそも、固視が困難な被検眼である等、被検眼に対して条件が適していない場合が考えられる。つまり、固視が安定しにくい被検眼が撮影されている場合が考えられる。このような眼に対し、前回と同じ条件でテンプレート等の眼底画像を新たに撮影したところで、依然として新たな画像についても歪みが許容範囲を超えてしまうおそれがある。 However, if the distortion exceeds the allowable range, the condition may not be suitable for the eye to be inspected, such as the eye being difficult to fix. In other words, it is conceivable that an image of an eye to be examined whose fixation is difficult to stabilize is captured. Even if a new fundus image such as a template is taken for such an eye under the same conditions as the previous time, there is a possibility that the distortion of the new image will still exceed the allowable range.

そこで、歪みが許容範囲を超えたと判定される場合に(S14:NO)、プロセッサ70は、より歪みが少なくなるように設定された条件(本実施形態における、第3の条件)で、眼底画像(本実施形態における第3画像)を撮影してもよい。つまり、第3画像は、事前に撮影されたテンプレート(本実施形態における第1画像の1つ)と比べて歪みが生じ難い第3の条件で撮影されている。第3画像は、再撮影によって取得されるテンプレート(第3のテンプレート)であってもよい。また、テンプレートだけでなく、そのテンプレートを基準に合成される眼底画像であってもよい。また、第3画像をテンプレートとして用いる場合、第2の歪み検出処理が、画像処理器80によって行われてもよい。第2の歪み検出処理で用いられる比較画像は、第3画像よりも歪みが少なくなるように設定された条件で撮影された眼底画像であってもよい。 Therefore, when it is determined that the distortion exceeds the allowable range (S14: NO), the processor 70 performs the fundus image under the condition (the third condition in this embodiment) set to reduce the distortion. (Third image in this embodiment) may be captured. In other words, the third image is captured under the third condition in which distortion is less likely to occur than the pre-captured template (one of the first images in this embodiment). The third image may be a template (third template) obtained by recapturing. Moreover, not only a template but also a fundus image synthesized based on the template may be used. Also, when using the third image as a template, a second distortion detection process may be performed by the image processor 80 . The comparative image used in the second distortion detection process may be a fundus image captured under conditions set so that the distortion is less than that of the third image.

また、歪みが許容範囲を超えたと判定される場合(S14:NO)、再撮影に変えて、あるいは、再撮影と共に、以下のような処理が行われてもよい。例えば、撮影が中断されてもよい。例えば、可視光で撮影する場合において、直ちに撮影が中断されることで、被検者の負担を抑制できる。また、この場合、S6の処理にいて、撮影結果として、その旨がモニタ90へ表示されてもよい。 Further, when it is determined that the distortion has exceeded the allowable range (S14: NO), the following processing may be performed instead of re-imaging or along with re-imaging. For example, shooting may be interrupted. For example, when imaging with visible light, the burden on the subject can be reduced by immediately interrupting imaging. Further, in this case, in the process of S6, a message to that effect may be displayed on the monitor 90 as the photographing result.

但し、歪みが許容範囲を超えたと判定された場合(S14:No)であっても、撮影処理が中断される必要は必ずしも無い。この場合、例えば、プロセッサ70は、歪みが許容範囲を超えたと判定されたテンプレートを採用するか否かを検者に確認するための確認画面を、モニタ90へ表示させてもよい。確認画面が表示された状態で、テンプレートとすることを拒否するための入力操作を受け付けることによって、画像処理器80は、テンプレートを削除してもよい。削除後、手動で、又は、自動的に、テンプレートが再撮影されてもよい。 However, even if it is determined that the distortion exceeds the allowable range (S14: No), it is not always necessary to interrupt the photographing process. In this case, for example, the processor 70 may cause the monitor 90 to display a confirmation screen for asking the examiner whether or not to adopt the template whose distortion has been determined to exceed the allowable range. With the confirmation screen displayed, the image processor 80 may delete the template by accepting an input operation for rejecting the use of the template. After deletion, the template may be recaptured manually or automatically.

確認画面には、例えば、テンプレートと比較画像との合成画像が、モニタ90へ表示されてもよい。合成画像は、比較画像とテンプレートとを重畳した画像であってもよい。具体例として、比較画像とテンプレートとを、互いに異なるカラーチャンネルで表現した画像であってもよい。また、比較画像と、テンプレートとが、交互に繰り返し配置される、チェック柄パターンの表示形式による画像であってもよい(例えば、本出願人による「特開2013-15421」号公報参照)。 For example, a synthesized image of the template and the comparison image may be displayed on the monitor 90 as the confirmation screen. The composite image may be an image obtained by superimposing the comparison image and the template. As a specific example, the comparison image and the template may be images expressed in different color channels. Alternatively, the image may be an image in a checkered pattern display format in which the comparison image and the template are alternately and repeatedly arranged (see, for example, Japanese Unexamined Patent Application Publication No. 2013-15421 filed by the present applicant).

本実施形態において、比較画像に基づいて、テンプレートの歪み補正処理(S15)が行われてもよい。歪み補正処理は、例えば、非剛体レジストレーションであってもよいし、剛体レジストレーションであってもよい。非剛体レジストレーションについては、例えば、後述の手法を援用できる。歪み補正処理が行われることで、比較画像に対する歪みが一層軽減された画像を、撮影画像に対するテンプレートとして得ることができる。 In this embodiment, the template distortion correction process (S15) may be performed based on the comparison image. The distortion correction process may be, for example, non-rigid registration or rigid registration. For non-rigid body registration, for example, the technique described later can be used. By performing the distortion correction process, it is possible to obtain an image in which distortion with respect to the comparison image is further reduced as a template for the captured image.

また、テンプレートは、複数枚の眼底画像による加算画像であってもよい。テンプレートと比較画像との間でチャンネルが異なっている場合に(或いは、照明光の波長域が異なっている場合に)、テンプレートと比較画像との間で互いに異なる特徴が描写される場合が考えられる。この場合、複数枚のテンプレートの歪み補正が、比較画像を基準として行われると、複数枚のテンプレートのうち一部において歪みが適正に補正されない場合が生じやすくなる。この場合、結果として、チャンネルの違いが、歪み補正後のテンプレートによる合成画像において、ノイズを生じさせる原因となり得る。そこで、例えば、比較画像に対して歪み補正が完了したテンプレートの1枚を、第4のテンプレートとして、残りの撮影画像の歪み補正を、第4のテンプレートを基準に行うようにしてもよい。第4のテンプレートと他の撮影画像とは、チャンネルが同一であるため、上記ノイズが抑制されやすくなる。 Also, the template may be an added image of a plurality of fundus images. If the template and the comparison image have different channels (or different wavelength ranges of illumination light), different features may be drawn between the template and the comparison image. . In this case, if the distortion correction of a plurality of templates is performed based on the comparison image, the distortion of some of the plurality of templates may not be properly corrected. In this case, as a result, the difference in channels can cause noise in the composite image based on the template after distortion correction. Therefore, for example, one of the templates for which distortion correction has been completed for the comparison image may be used as a fourth template, and distortion correction for the remaining photographed images may be performed based on the fourth template. Since the fourth template and other captured images have the same channel, the above noise is easily suppressed.

<撮影処理の詳細説明>
図3の例では、以上のようにしてテンプレートが取得された後、撮影処理(S5)が実行される。
<Detailed description of shooting process>
In the example of FIG. 3, after the template is obtained as described above, the photographing process (S5) is executed.

ここで、図6を参照して、実施形態に係る撮影処理(S5)を、詳細に説明する。撮影処理では、前述の通り、撮影画像がキャプチャーされる(S21)。キャプチャーされた撮影画像は、歪み補正・合成処理(S22)において、少なくとも撮影中の眼の動きによって生じた2次元的な歪みが、テンプレートを基準として補正される。 Here, the photographing process (S5) according to the embodiment will be described in detail with reference to FIG. In the photographing process, as described above, a photographed image is captured (S21). In the distortion correction/synthesis processing (S22) of the captured image, at least the two-dimensional distortion caused by eye movement during photographing is corrected with reference to the template.

このとき、本実施形態では、ローカルマッチングによって、被検眼の画像とテンプレートとの対応点または対応領域が、被検眼の画像とテンプレートとの複数の位置に設定されると共に、対応点毎または対応領域毎の移動量(位置ずれ量ともいう)が算出される。そして、ローカルマッチングによって取得された対応点毎または対応領域毎の移動量に基づいて、撮影画像全体が変形される。このとき、撮影画像は非剛体に変形されてもよい(非剛体レジストレーション)。これにより、撮影画像における歪み(2次元的な歪み)が補正される。本実施形態において、歪みが補正された撮影画像は、テンプレートへ合成される。このとき、例えば、予め定められた枚数の撮影画像が合成されるまで、S21,S22の処理が繰り返されてもよい。これに代えて、新たな撮影画像が合成される毎に合成画像の画質を評価して、画質の評価値が閾値を超えた段階で、撮影処理(S5)を終了してもよい。このような撮影処理によって、複数枚の撮影画像による合成画像が、撮影結果として得られる。合成画像は、例えば、複数枚の撮影画像による加算画像であってもよい。合成画像は、撮影結果として、メモリ75へ保存されてもよいし、モニタ90へ表示されてもよい。 At this time, in the present embodiment, by local matching, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template, and each corresponding point or corresponding region The amount of movement (also referred to as the amount of positional deviation) for each position is calculated. Then, based on the amount of movement for each corresponding point or each corresponding region acquired by local matching, the entire captured image is transformed. At this time, the captured image may be transformed into a non-rigid body (non-rigid registration). This corrects distortion (two-dimensional distortion) in the captured image. In this embodiment, the distortion-corrected photographed image is combined with the template. At this time, for example, the processes of S21 and S22 may be repeated until a predetermined number of shot images are synthesized. Alternatively, the image quality of the synthesized image may be evaluated each time a new shot image is synthesized, and the shooting process (S5) may be terminated when the image quality evaluation value exceeds the threshold. Through such photographing processing, a composite image of a plurality of photographed images is obtained as a photographing result. The composite image may be, for example, an added image of a plurality of photographed images. The composite image may be stored in the memory 75 or displayed on the monitor 90 as a photographing result.

<第1の歪み補正・合成処理>
まず、本実施形態において適用可能な、第1の歪み補正・合成処理の流れを、図7に基づいて説明する。第1の歪み補正・合成処理においては、テンプレート画像および撮影画像が、複数のブロック(分割領域ともいう)に分割されると共に、2枚の画像の間で対応するブロック同士の移動量が算出される(ローカルマッチング)。そして、各ブロックの移動量に基づいて、撮影画像全体が、非剛体的に変形される。なお、ここでいうブロックは、テンプレート画像および撮影画像の複数の位置に設定される、対応領域の一例である。
<First Distortion Correction/Synthesis Processing>
First, the flow of the first distortion correction/synthesis processing applicable in this embodiment will be described based on FIG. In the first distortion correction/synthesis processing, the template image and the captured image are divided into a plurality of blocks (also referred to as divided regions), and the amount of movement between corresponding blocks between the two images is calculated. (local matching). Then, the entire captured image is non-rigidly deformed based on the amount of movement of each block. Note that the blocks referred to here are examples of corresponding regions set at a plurality of positions in the template image and the captured image.

図7においては、直前に(S21の処理によって)キャプチャーされた撮影画像が、歪み補正に適した画像であるか否かが、グローバルマッチングに基づいて判定される(S31)。本実施形態におけるグローバルマッチングは、テンプレート画像と撮影画像とを、大まかに位置合わせするための処理である。例えば、画像全体同士のマッチングであってもよいし、画像の一部の領域(例えば、中心領域)のみを用いたマッチングであってもよい。グローバルマッチングにおける類似度(例えば、相関)の最大値が、所定の閾値以上である場合に、撮影画像は補正に適した画像であると判定されてもよい(S41:GOOD)。類似度が閾値以下である場合に、撮影画像は、補正に適さないものと判定されてもよい(S41:BAD)。後者の場合、直前にキャプチャーされた撮影画像については、テンプレートへ加算することなく、歪み補正・合成処理が終了されてもよい。 In FIG. 7, it is determined based on global matching whether or not the photographed image captured immediately before (by the processing of S21) is an image suitable for distortion correction (S31). Global matching in this embodiment is processing for roughly aligning a template image and a photographed image. For example, matching between the entire images may be performed, or matching using only a partial area (for example, central area) of the image may be performed. If the maximum value of similarity (for example, correlation) in global matching is equal to or greater than a predetermined threshold, the captured image may be determined to be suitable for correction (S41: GOOD). If the degree of similarity is equal to or less than the threshold, the captured image may be determined as unsuitable for correction (S41: BAD). In the latter case, the distortion correction/synthesis processing may be terminated without adding the photographed image captured immediately before to the template.

次に、画像処理器80によって、ローカルマッチングが行われる(S32)。テンプレート画像と撮影画像とが、それぞれ、複数のブロック(分割領域および対応領域ともいう)に分割され、対応するブロック間でマッチングが行われる。一例として、図8Aに示したすように、横に3等分、縦に4等分、の12のブロックに分割されてもよい。例えば、ブロック毎にマッチングが行われ、類似度(例えば、POCによる相関)の最大値と、類似度が最大となるときの移動量と、をブロック毎に求めてもよい。 Next, local matching is performed by the image processor 80 (S32). The template image and the captured image are each divided into a plurality of blocks (also called divided regions and corresponding regions), and matching is performed between corresponding blocks. As an example, as shown in FIG. 8A, it may be divided into 12 blocks, which are divided horizontally into 3 equal parts and vertically into 4 equal parts. For example, matching may be performed for each block, and the maximum value of similarity (for example, correlation by POC) and the amount of movement when the similarity is maximized may be obtained for each block.

各ブロックの移動量には、画像の歪みが反映されている。このため、ブロックが細かく分割されるほど、歪みを精度よく検出できる。一方、ブロックが細かくなるほど、処理負担が増大する。そこで、本実施形態では、分割後にマッチングの結果を評価し、マッチングの結果に応じて段階的(再帰的)に分割数が増大される。これにより、精度と処理負担の低減とを両立させ得る。一例として、ブロック毎の類似度に基づいて、分割数が適正であるか否かが判定される(S33)。例えば、類似度の最大値が閾値を上回るブロックの数が、所定個以上存在する場合に、分割数が適正(十分)と判定されてもよい(S33:YES)。一方、類似度の最大値が閾値未満である場合に、分割数が不適正(不十分)と判定されてもよい(S33:NO)。この場合、本実施形態では、更に細かなブロックに画像が分割され(S32)、マッチングが再度行われる(S33)。例えば、図8A(第1段階:縦4分割、横3分割)⇒図8B(第2段階:縦8分割、横3分割)⇒図8C(第3段階:縦12分割、横3分割)⇒・・・の流れで、段階的に分割数が増大されてもよい。 The amount of movement of each block reflects the distortion of the image. Therefore, the finer the block is divided, the more accurately the distortion can be detected. On the other hand, the finer the block, the greater the processing load. Therefore, in this embodiment, the result of matching is evaluated after division, and the number of divisions is increased stepwise (recursively) according to the result of matching. This makes it possible to achieve both accuracy and reduction in processing load. As an example, based on the degree of similarity for each block, it is determined whether or not the number of divisions is appropriate (S33). For example, when there are a predetermined number or more of blocks whose maximum value of similarity exceeds the threshold, it may be determined that the number of divisions is appropriate (sufficient) (S33: YES). On the other hand, when the maximum similarity value is less than the threshold, the number of divisions may be determined to be inappropriate (insufficient) (S33: NO). In this case, in this embodiment, the image is divided into smaller blocks (S32), and matching is performed again (S33). For example, FIG. 8A (first stage: vertical 4 divisions, horizontal 3 divisions) ⇒ FIG. 8B (second stage: vertical 8 divisions, horizontal 3 divisions) ⇒ FIG. 8C (third stage: vertical 12 divisions, horizontal 3 divisions) ⇒ FIG. . . , the number of divisions may be increased step by step.

なお、本装置1においては、横方向(主走査方向)へのスキャンスピードは、縦方向(副走査方向)と比べて格段に速いことから、各々の主走査線内での歪みは生じ難い。このため、横方向(主走査方向)の分割数に比べて、副走査方向の分割数が多いことが好ましい。また、各々のブロックは、横方向に長く(換言すれば、横方向を長手方向として)形成されてもよい。図8A~図8Cでは、横方向を長手方向とする長方形として、各ブロックが形成されている。回旋成分による歪みを検出するうえで、横方向に2つ以上のブロックに分割されていることが好ましい。また、図8A~図8Cでは、横方向の分割数については、縦方向の分割数のように段階的に増加されない。但し、必ずしもこれに限られるものではなく、横方向の分割数についても段階的に増加されてもよい。 In the present apparatus 1, the scanning speed in the horizontal direction (main scanning direction) is much faster than that in the vertical direction (sub-scanning direction), so distortion is less likely to occur in each main scanning line. Therefore, it is preferable that the number of divisions in the sub-scanning direction is larger than the number of divisions in the horizontal direction (main scanning direction). Also, each block may be elongated in the horizontal direction (in other words, the horizontal direction is the longitudinal direction). 8A to 8C, each block is formed as a rectangle whose longitudinal direction is the horizontal direction. It is preferable to divide into two or more blocks in the horizontal direction in order to detect the distortion due to the rotation component. In addition, in FIGS. 8A to 8C, the number of divisions in the horizontal direction is not increased stepwise like the number of divisions in the vertical direction. However, the number of divisions in the horizontal direction is not necessarily limited to this, and the number of divisions in the horizontal direction may be increased stepwise.

次に、最終的な分割状態での各ブロックの移動量に基づいて、撮影画像が非剛体的(非線型的)に変形される(S34)。非剛体的な変形のアルゴリズムとしては、薄板スプライン法、B-スプライン法等の種々の手法が知られている。本実施形態では、種々の手法のうちいずれかを適宜適用し得る。例えば、薄板スプライン法を適用する場合では、各ブロックの中心を、移動量に基づいて移動させるともに、その他の点の移動については、薄板スプライン補間によって移動される。その結果として、撮影画像全体が変形されてもよい。 Next, the captured image is non-rigidly (non-linearly) deformed based on the amount of movement of each block in the final divided state (S34). Various techniques such as the thin plate spline method and the B-spline method are known as non-rigid deformation algorithms. In this embodiment, any one of various methods can be applied as appropriate. For example, when the thin plate spline method is applied, the center of each block is moved based on the amount of movement, and other points are moved by thin plate spline interpolation. As a result, the entire captured image may be deformed.

次に、再変形が必要であるか否かが判定される(S35)。例えば、画像処理器80は、テンプレートと、歪み補正後の撮影画像と、の間の類似度を求め、類似度に基づいて、再変形が必要であるか否かを判定してもよい。類似度は、例えば、2つの画像の間の相互情報量によって評価できる。 Next, it is determined whether re-deformation is necessary (S35). For example, the image processor 80 may obtain the degree of similarity between the template and the captured image after distortion correction, and determine whether or not re-deformation is necessary based on the degree of similarity. Similarity can be evaluated, for example, by mutual information between two images.

ここで、再変形が必要であると判定されると(S35:YES)、撮影画像の分割数を増加させたうえで、S32~S35の処理が繰り返される。便宜上、繰り返し回数を、1ループ目、2ループ目、3ループ目・・・と数えるものとする。処理を繰り返す回数には上限が設定されていてもよい。図9に示した例では、最大で3ループ目まで処理が繰り替えされ得る。 Here, if it is determined that re-deformation is necessary (S35: YES), the number of divisions of the photographed image is increased, and then the processes of S32 to S35 are repeated. For convenience, the number of repetitions is counted as the first loop, the second loop, the third loop, and so on. An upper limit may be set for the number of times the process is repeated. In the example shown in FIG. 9, the processing can be repeated up to the third loop.

例えば、類似度を示す値と予め定められた閾値との比較に基づいて上記判定が行われてもよい。類似度を示す値が閾値以上である場合は、再変形が不要であると判定されてもよい。 For example, the determination may be made based on a comparison between a value indicating similarity and a predetermined threshold. If the value indicating the degree of similarity is greater than or equal to the threshold, it may be determined that re-transformation is unnecessary.

一方、類似度を示す値が閾値を下まわる場合は、再変形が必要であると判定されてもよい。この場合、例えば、最大で3ループ目まで処理を繰り返して、類似度を示す値が最大値を取る画像を、他の撮影画像との合成処理の対象として採用してもよい。但し、類似度が最大値を取る画像において、歪み補正が正しく行われているとは限らないので、類似度の下限を定める第2の閾値と比較し、類似度が第2の閾値を超えている場合に、類似度が最大値を取る画像を採用するようにしてもよい。図9の例において、第2の閾値には、変形前の撮影画像と、1ループ目の歪み補正後の画像との間の類似度が用いられる。図9においては、類似度1.18が、第2の閾値として用いられる。最大で3ループ目まで処理を繰り返したときの類似度の最大値が、第2閾値を超えない場合は、歪み補正が失敗しているものと考えられる。この場合、いずれの画像も、他の撮影画像との合成処理の対象として採用されない。 On the other hand, if the value indicating the degree of similarity is below the threshold, it may be determined that retransformation is necessary. In this case, for example, the processing may be repeated up to the third loop, and the image having the maximum value indicating the degree of similarity may be adopted as the object of the synthesis processing with other captured images. However, since it is not always the case that distortion correction has been performed correctly in an image with the maximum similarity, it is compared with a second threshold that defines the lower limit of the similarity, and if the similarity exceeds the second threshold, image with the maximum similarity may be adopted. In the example of FIG. 9, the degree of similarity between the captured image before deformation and the image after distortion correction in the first loop is used for the second threshold. In FIG. 9, a similarity of 1.18 is used as the second threshold. If the maximum value of the degree of similarity when the processing is repeated up to the third loop does not exceed the second threshold, it is considered that the distortion correction has failed. In this case, none of the images is adopted as a target of synthesis processing with other captured images.

合成処理の対象として採用された歪み補正後の撮影画像については、加算の重み付計算が行われる(S36)。重み付計算は、画像の各領域について行われる。例えば、テンプレートと、歪み補正後の撮影画像とを、縦横それぞれに複数のブロックに分割して(図10では、縦横それぞれに16分割して)、画像間で対応するブロックの類似度を求めてもよい。このとき、各ブロックの位置は、各画像で一致される。対応するブロックの類似度は、例えば、正規化相互相関(ZNCC)によって評価されてもよいし、他の類似度で評価されてもよい。各ブロックの重み付係数は、各ブロックの類似度に応じて算出されてもよい。 Weighted addition calculation is performed on the photographed image after distortion correction adopted as the target of the synthesis process (S36). A weighting calculation is performed for each region of the image. For example, the template and the captured image after distortion correction are divided vertically and horizontally into a plurality of blocks (in FIG. 10, 16 blocks are divided vertically and horizontally), and the similarity of the corresponding blocks between the images is obtained. good too. The position of each block is then matched in each image. The similarity of corresponding blocks may be evaluated, for example, by normalized cross-correlation (ZNCC) or other similarity. A weighting factor for each block may be calculated according to the similarity of each block.

歪み補正後の撮影画像は、算出された重み付係数が各領域へ適用されたうえで、他の画像へ加算される(S37)。テンプレートに対する歪みが多く残存する領域ほど、より小さな重み付係数にて加算される。結果、合成画像において、歪みが多く残存する領域の影響を抑制できる。 The captured image after distortion correction is added to another image after applying the calculated weighting factor to each region (S37). A smaller weighting factor is added to an area where more distortion remains with respect to the template. As a result, it is possible to suppress the influence of a region in which a large amount of distortion remains in the synthesized image.

以上のようにして、第1の歪み補正・合成処理が行われてもよい。 The first distortion correction/synthesis processing may be performed as described above.

<第2の歪み補正・合成処理>
次に、本実施形態において適用可能な、第2の歪み補正・合成処理の流れを、図11に基づいて説明する。
<Second Distortion Correction/Synthesis Processing>
Next, the flow of the second distortion correction/synthesis processing applicable in this embodiment will be described with reference to FIG.

第2の歪み補正・合成処理では、テンプレートにおける複数の走査線上に、複数の制御点(基準点)が設定される。一部詳細については異なるものの、各制御点を含む小領域のローカルマッチングによって、テンプレートと撮影画像との間における制御点(つまり、対応点)の移動量(ずれ量)が求められる。第2の歪み補正・合成処理では、重み付加算の手法が、第2の歪み補正・合成処理とは大きく異なる。第2の歪み補正・合成処理では、各ラインにおいて、制御点の移動量を、所定の関数でフィッティングし、各制御点のフィッティング誤差と、隣り合うラインに対する移動量の変化と、をそれぞれ考慮して、重み付係数が導出される。以下、詳細について説明する。 In the second distortion correction/synthesis processing, a plurality of control points (reference points) are set on a plurality of scanning lines in the template. Although some details are different, local matching of a small region containing each control point can be used to determine the amount of movement (shift) of the control points (that is, the corresponding points) between the template and the captured image. In the second distortion correction/synthesis processing, the method of weighted addition is significantly different from that in the second distortion correction/synthesis processing. In the second distortion correction/synthesis processing, in each line, the amount of movement of the control point is fitted with a predetermined function, and the fitting error of each control point and the change in the amount of movement for adjacent lines are taken into consideration. weighting coefficients are derived. Details will be described below.

図11においては、まず、撮影画像が歪み補正に適した画像であるか否かが判定される(S41)。当該処理は、第1の歪み補正・合成処理におけるS31の処理と同様であってもよいため、詳細な説明を省略する。 In FIG. 11, first, it is determined whether or not the captured image is suitable for distortion correction (S41). Since this process may be the same as the process of S31 in the first distortion correction/synthesis process, detailed description thereof will be omitted.

次に、画像処理器80によって、テンプレート上に、複数の制御点が設定される(S42)。制御点は、複数のライン(主走査線)のそれぞれに対して複数設定される。 Next, the image processor 80 sets a plurality of control points on the template (S42). A plurality of control points are set for each of a plurality of lines (main scanning lines).

制御点が設定されるラインは、予め定められていてもよい。一例として、図12においては、等間隔に配置された8本の走査線上に、制御点(図12では、〇印で示す)が設定されている。 The line on which the control points are set may be predetermined. As an example, in FIG. 12, control points (indicated by circles in FIG. 12) are set on eight scanning lines arranged at regular intervals.

制御点の設定後、ローカルマッチングが行われる。詳細には、テンプレートと撮影画像との間における各制御点の移動量が算出される(S43)。例えば、制御点を含む小領域によるローカルマッチングに基づいて、テンプレートにおける制御点との対応する点(つまり、撮影画像側の制御点、図12では、△印で示す)の位置が探索され、両者の移動量が算出されてもよい。小領域は、制御点を中心とする所定サイズの領域であってもよい。 After setting the control points, local matching is performed. Specifically, the amount of movement of each control point between the template and the captured image is calculated (S43). For example, based on local matching by a small area containing the control point, the position of the point corresponding to the control point in the template (that is, the control point on the captured image side, indicated by Δ in FIG. 12) is searched, and both may be calculated. A small region may be a region of a predetermined size centered on a control point.

S43の処理では、ライン単位で移動量が算出されてもよい。図13に示すように、例えば、1つのラインにおける複数の制御点の移動量を、関数でフィッティングしてもよい。フィッティングの手法は、最小二乗近似等の種々の手法の中からいずれかが選択されてもよい。この場合、図13に示すように、フィッティング曲線上に、各制御点を含むライン上の各点との対応点があるものとみなしてもよい。関数は、例えば、主走査方向の位置xと、副走査方向の位置yとを変数として持つ。 In the processing of S43, the movement amount may be calculated for each line. As shown in FIG. 13, for example, the movement amounts of a plurality of control points in one line may be fitted with a function. Any one of various methods such as least-squares approximation may be selected as the fitting method. In this case, as shown in FIG. 13, it may be considered that there are corresponding points on the fitting curve with each point on the line containing each control point. The function has, for example, a position x in the main scanning direction and a position y in the sub-scanning direction as variables.

次に、制御点毎、あるいは、制御点が設定されるライン毎に算出された移動量に基づいて、撮影画像が非線形的(非剛体的)に変形される(S44)。例えば、薄板スプライン法によって、撮影画像を変形させてもよいし、他の手法によって、撮影画像を変形させてもよい。 Next, the captured image is non-linearly (non-rigidly) deformed based on the amount of movement calculated for each control point or for each line on which control points are set (S44). For example, the thin plate spline method may be used to transform the captured image, or another technique may be used to transform the captured image.

次に、再変形が必要であるか否かが判定される(S45)。この処理は、第1の歪み補正・合成処理におけるS35の処理と同様であってもよいため、詳細な説明を省略する。なお、再変形が必要であると判定された場合は、制御点を増やしたうえで、S42~S45の処理が繰り返される(ループされる)。この場合、制御点が設定されるラインを増やすことによって、より多くの制御点を設定することが好ましい。大きな歪みがある場合ほど、多くの制御点に基づいて撮影画像が変形されやすいため、歪みが良好に補正されやすくなる。 Next, it is determined whether re-deformation is necessary (S45). Since this process may be the same as the process of S35 in the first distortion correction/synthesis process, detailed description thereof will be omitted. If it is determined that re-deformation is necessary, the number of control points is increased and the processing of S42 to S45 is repeated (looped). In this case, it is preferable to set more control points by increasing the number of lines on which control points are set. The greater the distortion, the easier it is for the captured image to be deformed based on a greater number of control points, and thus the distortion is more likely to be favorably corrected.

次に、加算の重み付計算が行われ(S46)、計算された係数で加算処理が行われる(S47)。重み付係数は、第1の歪み補正・合成処理と同様、テンプレートと歪み補正後の撮影画像との間における、領域毎の類似度に基づいて計算されてもよい。 Next, weighted calculation of addition is performed (S46), and addition processing is performed with the calculated coefficient (S47). The weighting factor may be calculated based on the degree of similarity for each region between the template and the captured image after distortion correction, as in the first distortion correction/synthesis processing.

また、第2の歪み補正・合成処理では、撮影画像上における各ラインの制御点に対する上述のフィッティング曲線と各制御点との誤差(以下、「フィッティング誤差」という)の大きさに基づいて、重み付係数が計算されてもよい。大きな誤差があるラインについては、テンプレートに対する大きな歪みが含まれていたり、ケラレなどによるアーチファクトが存在していたりするものと考えられる。そこで、例えば、あるラインにおいて各制御点の誤差の総和が閾値以上である場合、そのライン、および、その周辺については、他の撮影画像との加算に使用されないような重み付係数が与えられてもよい。フィッティング曲線と各制御点との誤差に基づく重み付係数を、便宜上、異常度と称する。 Further, in the second distortion correction/synthesis processing, a weight A weighting factor may be calculated. A line with a large error is considered to contain a large distortion with respect to the template, or to contain an artifact due to vignetting or the like. Therefore, for example, when the sum of the errors of each control point on a certain line is equal to or greater than a threshold, the line and its surroundings are given weighting coefficients that are not used for addition with other captured images. good too. For convenience, the weighting coefficient based on the error between the fitting curve and each control point is called the degree of abnormality.

また、それぞれに制御点が設定された複数のラインであって、隣接するラインの間での移動量の変化(差)の大きさに基づいて、重み付係数が計算されてもよい。移動量の変化が大きい場合、隣接するラインが走査される途中で、眼の動きに変化が生じており、歪みが生じているものと考えられる。そこで、例えば、移動量の変化(差)が大きい場合ほど、小さな係数が与えられてもよい。隣接するラインの間での移動量の変化(差)の大きさに基づく重み付係数を、便宜上、信頼度と称する。 Further, a weighting coefficient may be calculated based on the magnitude of change (difference) in the amount of movement between adjacent lines of a plurality of lines each having a control point set thereon. If the change in the amount of movement is large, it is considered that the movement of the eye has changed while the adjacent lines are being scanned, resulting in distortion. Therefore, for example, the larger the change (difference) in the movement amount, the smaller the coefficient may be given. A weighting factor based on the magnitude of change (difference) in the amount of movement between adjacent lines is referred to as reliability for convenience.

類似度に基づく係数、異常度、および、信頼度は、掛け合わせることができる。つまり、これらのうち2つ以上の係数を、歪み補正後の撮影画像の各領域に対して同時に適用可能である。2つ以上の係数を用いて加算処理が行われることによって、歪みの影響がより抑制された良好な加算画像が得られやすくなる。 Coefficients based on similarity, unusualness, and confidence can be multiplied. That is, two or more of these coefficients can be applied simultaneously to each region of the captured image after distortion correction. By performing addition processing using two or more coefficients, it becomes easier to obtain a good addition image in which the influence of distortion is further suppressed.

<同時に撮影された複数のチャンネルの被検眼における歪み補正>
同時に撮影された複数のチャンネルの被検眼の画像において、各チャンネルの画像に対して歪み補正する場合、必ずしもチャンネル毎に上記処理が行われる必要は無い。例えば、いずれか1つのチャンネルに対して、上記処理を行うと共に、同時に撮影された他のチャンネルの画像については、1つのチャンネルにおいて算出された歪み補正の補正量および重み付係数を適用してもよい。
<Distortion Correction in Multiple Channels Imaged Simultaneously>
When distortion correction is performed on each channel image of a plurality of channel images of the subject's eye that are simultaneously photographed, the above process does not necessarily have to be performed for each channel. For example, the above processing may be performed for any one channel, and the distortion correction amount and weighting coefficient calculated for one channel may be applied to images of other channels captured at the same time. good.

<内部反射像を避けて対応領域または対応点を設定>
例えば、撮影光学系10,20の内部反射像が撮影範囲へ映り込んでしまう場合が考えられる。内部反射像は、照明光が撮影光学系10,20に含まれる光学部材によって反射されることで生じる。内部反射像としては、例えば、撮影光学系に含まれる光学部材での反射によるアーチファクトである。内部反射像は、眼の動きに関わらず画像上の一定位置に出現する。そこで、画像処理器80は、第1又は第2の歪み補正・合成処理において、内部反射像を避けて、複数のブロック(対応領域)または制御点(対応点)を配置してもよい。これにより、眼の動きに関わらず静止する要素を除外して、テンプレートと撮影画像との間における対応領域または対応点が設定されるので、対応領域または対応点の移動量に基づく歪み補正の精度が向上する。
<Set the corresponding area or corresponding point avoiding the internal reflection image>
For example, it is conceivable that internal reflection images of the imaging optical systems 10 and 20 may be reflected in the imaging range. An internal reflection image is generated by reflection of illumination light by optical members included in the imaging optical systems 10 and 20 . The internal reflection image is, for example, an artifact due to reflection on an optical member included in the imaging optical system. The internal reflection image appears at a fixed position on the image regardless of eye movement. Therefore, the image processor 80 may arrange a plurality of blocks (corresponding regions) or control points (corresponding points) while avoiding internal reflected images in the first or second distortion correction/synthesis processing. As a result, the corresponding areas or corresponding points between the template and the captured image are set by excluding elements that remain stationary regardless of the movement of the eye. improves.

<画角、解像度に応じた、対応点および対応点の調整>
また、例えば、第1の歪み補正・合成処理におけるブロック(対応領域)に関するパラメータ、および、第2の歪み補正・合成処理における制御点(対応点)に関するパラメータは、撮影画像の画角、画素数またはその両方に応じて、画像処理器80によって調整されてもよい。ブロック(分割領域)に関して調整可能なパラメータとしては、例えば、ブロックの数、大きさ、配置、および、形状、の少なくともいずれかであってもよい。また、制御点に関して調整可能なパラメータは、数(密度)、および、配置のうち少なくともいずれかであってもよい。
<Corresponding points and adjustment of corresponding points according to angle of view and resolution>
Further, for example, the parameters related to the blocks (corresponding regions) in the first distortion correction/synthesis processing and the parameters related to the control points (corresponding points) in the second distortion correction/synthesis processing are the angle of view and the number of pixels of the captured image. Or it may be adjusted by the image processor 80 depending on both. Parameters that can be adjusted for blocks (divided regions) may be, for example, at least one of the number, size, arrangement, and shape of blocks. Also, the adjustable parameter for the control points may be at least one of the number (density) and arrangement.

例えば、画素数が多いほど撮影時間が長くなり、撮影画像において、歪みの影響を受けやすくなると考えられる。これに対し、画素数が多いほど、ブロックまたは制御点を、増大させてもよい。つまり、ローカルマッチングにおけるテンプレートと撮影画像との間における対応点を、撮影画像の画素数が多いほど増大させてもよい。これにより、撮影画像の歪みに対して適正な処理負担で補正処理を行いやすくなる。 For example, the greater the number of pixels, the longer the imaging time, and the more likely the captured image is to be affected by distortion. On the other hand, blocks or control points may be increased as the number of pixels increases. That is, the number of corresponding points between the template and the captured image in local matching may be increased as the number of pixels of the captured image increases. This makes it easier to perform correction processing with an appropriate processing load for the distortion of the captured image.

また、例えば、図13A~13Cには、画角切換部によって撮影画像の画角が増大された結果として、対物光学系の縁部(図13A~13Cではレンズのコバ201)が内部反射像として画像上に映り込んでしまう場合が考えられる。この場合、縁部の内側の領域において、被検眼の組織が描写され、当該領域において眼の動きによる歪みが生じ得る。一方、縁部およびその外側の領域については、歪みが生じ得ない。そこで、撮影範囲に光学系の縁部が含まれる場合、画像処理器80は、該縁部の内側領域のみへ、複数のブロックまたは制御点を配置してもよい。つまり、特定の画角で生じる内部反射像を避けて、複数のブロックまたは制御点が配置されるように、画像処理器80は、複数のブロックまたは制御点を、画角に応じて変更してもよい。 Further, for example, in FIGS. 13A to 13C, as a result of the angle of view of the captured image being increased by the angle-of-view switching unit, the edge of the objective optical system (edge 201 of the lens in FIGS. 13A to 13C) appears as an internally reflected image. It is conceivable that the image may be reflected on the image. In this case, in the area inside the edge, the tissue of the eye to be examined is delineated and distortion due to eye movement can occur in this area. On the other hand, the edge and the area outside it cannot be distorted. Therefore, if the imaging range includes the edge of the optical system, the image processor 80 may arrange a plurality of blocks or control points only in the area inside the edge. In other words, the image processor 80 changes the plurality of blocks or control points according to the angle of view so that the plurality of blocks or control points are arranged to avoid internal reflection images that occur at a specific angle of view. good too.

<変容例等>
以上、実施形態に基づいて説明を行ったが、本開示を実施するうえで、実施形態の内容を適宜変更することができる。
<transformation examples, etc.>
Although the above has been described based on the embodiments, the contents of the embodiments can be changed as appropriate in carrying out the present disclosure.

<縮小画像によるマッチング>
例えば、上記実施形態における各種のマッチング、歪み補正・合成処理のうち少なくともいずれかは、画像サイズが縮小された縮小画像が用いられてもよい。この場合、テンプレートを基準とした画像処理の対象である眼底画像を縮小させて、縮小画像が生成される。追加的に、テンプレートの縮小画像が生成されてもよい。縮小サイズで画像処理が行われることによって、画像処理器80における処理負担が軽減される。縮小画像における各画素と元の画像における各画素との対応関係は、縮小時の倍率によって一義的に定められる。画像処理器80は、縮小サイズでのマッチングによって得られたパラメータ・変形行列を、上記倍率で元のサイズの眼底画像へ適用する。これにより、各種のマッチング、歪み補正・合成処理をより低い処理負担で(換言すればより高速に)実行できる。
<Matching with reduced image>
For example, at least one of the various matching and distortion correction/synthesis processes in the above embodiments may use a reduced image whose image size is reduced. In this case, a reduced image is generated by reducing the fundus image that is the target of image processing based on the template. Additionally, a reduced image of the template may be generated. By performing image processing with a reduced size, the processing load on the image processor 80 is reduced. The correspondence relationship between each pixel in the reduced image and each pixel in the original image is uniquely determined by the magnification at the time of reduction. The image processor 80 applies the parameter/deformation matrix obtained by matching at the reduced size to the original size fundus image at the above magnification. As a result, various types of matching, distortion correction, and synthesis processing can be executed with a lower processing load (in other words, at a higher speed).

<キャプチャー以外の場面における各種画像処理の適用>
上記実施形態では、画像処理器80による各種処理が、撮影画像をキャプチャーする際に実行される。しかし、必ずしもこれに限られるものではなく、事前にキャプチャーされた眼底画像に対して、各種画像処理が、画像処理器80によって、実行されてもよい。例えば、<テンプレート取得処理>、<歪み検出処理、および、判定処理>、<第1,第2の歪み補正・合成処理>等の全部または一部の実行タイミングは、撮影時では無く、閲覧時であってもよい。
<Application of various image processing in scenes other than capture>
In the above-described embodiment, various types of processing by the image processor 80 are executed when capturing a photographed image. However, it is not necessarily limited to this, and various image processing may be performed by the image processor 80 on the fundus image captured in advance. For example, the execution timing of all or part of <template acquisition processing>, <distortion detection processing and determination processing>, <first and second distortion correction/synthesis processing>, etc. is not at the time of shooting, but at the time of browsing. may be

事前にキャプチャーされた眼底画像に対して、各種画像処理が行われる場合、各種のテンプレート、および、テンプレートへ合成される眼底画像のうち少なくともいずれかは、検者からの操作入力に基づいて、予め撮影されている、複数枚の眼底画像の中から選択可能であってもよい。 When various types of image processing are performed on a fundus image that has been captured in advance, at least one of various templates and the fundus image synthesized with the template is processed in advance based on operation input from the examiner. It may be possible to select from among a plurality of photographed fundus images.

この場合、選択画面が、モニタ90に表示されてもよい。選択画面上では、複数枚の眼底画像のうち、少なくとも2枚の眼底画像が並べて表示されることが好ましい。また、表示された画像を、任意に、他の画像と入れ替え可能であってもよい。これにより、検者が複数枚の眼底画像を良好に見比べることができる。そして、良好に撮影された画像が、画像処理の対象として選択されやすくなる。 In this case, a selection screen may be displayed on the monitor 90 . At least two of the plurality of fundus images are preferably displayed side by side on the selection screen. Also, the displayed image may optionally be replaceable with another image. This allows the examiner to favorably compare a plurality of fundus images. Then, a well-captured image is likely to be selected as a target for image processing.

<手動による対応点または対応領域の設定>
上記実施形態において、テンプレートおよび撮影画像に対して、対応点または対応領域(対応点または対応領域に関するパラメータ)は、適時、自動的に設定される場合について説明した。しかし、必ずしもこれに限られるものではなく、検者による操作入力に基づいて、手動で設定されてもよい。ここでいう設定には、ゼロベースで設定する場合だけでなく、自動的に設定された対応点および対応領域(対応点または対応領域に関するパラメータ)を、操作入力に基づいて修正することを含む。
<Manual setting of corresponding points or corresponding areas>
In the above embodiment, a case has been described in which corresponding points or corresponding regions (parameters relating to corresponding points or corresponding regions) are automatically set as appropriate for the template and the captured image. However, it is not necessarily limited to this, and may be set manually based on an operation input by the examiner. The setting here includes not only zero-based setting, but also correction of automatically set corresponding points and corresponding areas (parameters related to corresponding points or corresponding areas) based on operation input.

この場合、対応点に関しては、数(密度)、および、配置のうち少なくともいずれかのパラメータが、操作入力に基づいて設定可能であってもよい。また、対応領域に関しては、数、大きさ、配置、および、形状のうち少なくともいずれかのパラメータが、操作入力に基づいて設定可能であってもよい。対応点または対応領域が手動で設定された場合も、自動で設定された場合と同様、ローカルマッチング等の各種処理が、画像処理器80によって実行される。なお、パラメータは、検者が任意に設定可能であってもよいし、予め定められた複数のパターンの中からいずれかを操作入力に応じて選択可能であってもよいし、両者が併用されてもよい。 In this case, at least one parameter of the number (density) and arrangement of the corresponding points may be settable based on the operation input. Also, with respect to the corresponding regions, at least one of parameters of the number, size, arrangement, and shape may be settable based on the operation input. When the corresponding points or corresponding regions are manually set, the image processor 80 executes various processes such as local matching, as in the case of automatic setting. The parameters may be arbitrarily set by the examiner, or may be selected from among a plurality of predetermined patterns in accordance with an operation input, or both may be used together. may

対応点または対応領域を手動で設定する際に、対応点または対応領域の設定状態を、グラフィカルな表示によって、確認可能であってもよい。例えば、対応点または対応領域を示す指標が重畳された眼底画像(例えば、テンプレート)が、確認のためにモニタ90上に表示されてもよい。 When manually setting the corresponding points or the corresponding areas, it may be possible to confirm the setting state of the corresponding points or the corresponding areas by graphical display. For example, a fundus image (for example, a template) superimposed with indices indicating corresponding points or corresponding regions may be displayed on the monitor 90 for confirmation.

<OCTへの適用について>
なお、上記実施形態において、眼科撮影装置は、走査型の撮影光学系によって、眼底の正面画像(2次元画像)を撮影する装置であるものとしたが、必ずしもこれに限られるものでは無い。例えば、被検眼の断層画像を撮影する光干渉断層計(以下、OCTと称する)においても、本開示の技術は適用可能である。OCTの場合、撮影光学系は、戻り光と参照光とのスペクトル干渉信号に基づいて眼底のOCTデータを取得するOCT光学系(図示せず)を含んでいてもよい。或いは、眼科撮影装置における撮影光学系は、正面撮影光学系(例えば、上記実施形態における撮影光学系10,20)とOCT光学系との両方を、撮影光学系は含んでいてもよい。
<About application to OCT>
In the above embodiment, the ophthalmologic imaging apparatus is an apparatus that captures a front image (two-dimensional image) of the fundus using a scanning optical system, but is not necessarily limited to this. For example, the technique of the present disclosure can also be applied to an optical coherence tomography (hereinafter referred to as OCT) that captures a tomographic image of an eye to be examined. In the case of OCT, the imaging optical system may include an OCT optical system (not shown) that acquires OCT data of the fundus based on the spectral interference signal of the return light and the reference light. Alternatively, the imaging optical system in the ophthalmologic imaging apparatus may include both the front imaging optical system (for example, the imaging optical systems 10 and 20 in the above embodiments) and the OCT optical system.

<上記実施形態の部分的な実施について>
本実施形態における<テンプレート取得処理>と<撮影処理>とは、独立可能であって、必ずしも両者が一体的に実施される必要は無い。例えば、<撮影処理>において利用するテンプレートは、必ずしも、比較画像を用いて歪み検出、又は、歪み補正が行われたものである必要は無い。また、<テンプレート取得処理>のみが、眼科撮影装置、眼科用画像処理プログラムとして、実施されてもよい。
<Regarding partial implementation of the above embodiment>
<Template Acquisition Processing> and <Photographing Processing> in the present embodiment can be independent, and they do not necessarily need to be performed integrally. For example, the template used in the <imaging process> does not necessarily have to be subjected to distortion detection or distortion correction using a comparison image. Alternatively, only the <template acquisition process> may be implemented as an ophthalmic photographing apparatus and an ophthalmic image processing program.

1 眼科撮影装置
1b 制御ユニット
10 照射光学系
20 受光光学系
70 プロセッサ
80 画像処理器



1 ophthalmic photographing apparatus 1b control unit 10 irradiation optical system 20 light receiving optical system 70 processor 80 image processor



Claims (5)

光源からの光を被検眼の組織上で走査する走査手段と、前記組織からの戻り光を受光する受光素子と、を含む撮影光学系と、
前記受光素子からの信号に基づいて複数枚の被検眼の画像を撮影する撮影制御手段と、
画像処理手段と、を備え、
前記画像処理手段は、
複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチング、
前記テンプレートに対する前記被検眼の画像の2次元的な歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理、を実行し、
歪み補正後の前記被検眼の画像と前記テンプレートとを比較すると共に、比較結果に応じて、前記対応点または前記対応領域をより密に設定して、前記ローカルマッチング、および、前記歪み補正処理をやり直す、眼科撮影装置。
an imaging optical system including scanning means for scanning a tissue of an eye to be inspected with light from a light source, and a light receiving element for receiving light returned from the tissue;
a photographing control means for photographing a plurality of images of the subject's eye based on the signal from the light receiving element;
and an image processing means,
The image processing means is
Using one of the plurality of images of the eye to be examined as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template. together with local matching for calculating the amount of movement for each corresponding point or each corresponding area;
executing a distortion correction process for correcting two-dimensional distortion of the image of the eye to be inspected with respect to the template based on the movement amount for each corresponding point or each corresponding region;
The image of the subject's eye after distortion correction is compared with the template, and the corresponding points or the corresponding regions are set more densely according to the comparison result, and the local matching and the distortion correction processing are performed. Redo, ophthalmic imaging equipment.
前記画像処理手段は、前記ローカルマッチングにおいて、前記対応点毎または前記対応領域毎に求めた、前記被検眼の画像と前記テンプレートとの類似度に基づいて、前記ローカルマッチング、および、前記歪み補正処理をやり直すか否かを判定する、請求項記載の眼科撮影装置。 The image processing means performs the local matching and the distortion correction process based on the degree of similarity between the image of the subject's eye and the template obtained for each corresponding point or each corresponding region in the local matching. 2. The ophthalmic photographing apparatus according to claim 1 , wherein it is determined whether or not to redo. 光源からの光を被検眼の組織上で走査する走査手段と、前記組織からの戻り光を受光する受光素子と、を含む撮影光学系と、
前記受光素子からの信号に基づいて複数枚の被検眼の画像を撮影する撮影制御手段と、
画像処理手段と、を備え、
前記画像処理手段は、
複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチング、
前記テンプレートに対する前記被検眼の画像の2次元的な歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理、
歪み補正後のそれぞれの前記被検眼の画像について、前記テンプレートに対して残存する歪みが大きなほど小さな重み付係数を領域毎に設定し、各々の画像における領域毎の重み付係数に基づいて、歪み補正後の複数の前記被検眼の画像を領域毎に合成することによって合成画像を得る合成処理、を実行する、眼科撮影装置。
an imaging optical system including scanning means for scanning a tissue of an eye to be inspected with light from a light source, and a light receiving element for receiving light returned from the tissue;
a photographing control means for photographing a plurality of images of the subject's eye based on the signal from the light receiving element;
and an image processing means,
The image processing means is
Using one of the plurality of images of the eye to be examined as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template. together with local matching for calculating the amount of movement for each corresponding point or each corresponding area;
Distortion correction processing for correcting two-dimensional distortion of the image of the subject's eye with respect to the template based on the movement amount for each corresponding point or each corresponding region;
For each image of the eye to be inspected after distortion correction, a weighting coefficient is set for each region as the distortion remaining with respect to the template becomes larger, and based on the weighting coefficient for each region in each image, the distortion is an ophthalmologic imaging apparatus for executing a synthesizing process of obtaining a synthesized image by synthesizing a plurality of corrected images of the subject's eye for each region.
コンピュータのプロセッサによって実行されることにより、
走査型の撮影光学系において撮影された被検眼の画像を複数枚取得する取得ステップと、
複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチングと、
前記テンプレートに対する前記被検眼の画像の歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理と、を前記コンピュータに実行させ
さらに、前記コンピュータによって、歪み補正後の前記被検眼の画像と前記テンプレートとを比較すると共に、比較結果に応じて、前記対応点または前記対応領域をより密に設定して、前記ローカルマッチング、および、前記歪み補正処理をやり直す、眼科用画像処理プログラム。
by being executed by the processor of the computer,
an acquisition step of acquiring a plurality of images of the subject's eye captured by a scanning optical system;
Using one of the plurality of images of the eye to be examined as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template. and local matching for calculating a movement amount for each corresponding point or each corresponding region;
causing the computer to perform a distortion correction process for correcting the distortion of the image of the eye to be inspected with respect to the template based on the movement amount for each corresponding point or each corresponding region ;
Further, the computer compares the image of the subject's eye after distortion correction with the template, and according to the comparison result, sets the corresponding points or the corresponding regions more densely, and performs the local matching, and , an ophthalmic image processing program for redoing the distortion correction processing .
コンピュータのプロセッサによって実行されることにより、by being executed by the processor of the computer,
走査型の撮影光学系において撮影された被検眼の画像を複数枚取得する取得ステップと、an acquisition step of acquiring a plurality of images of the subject's eye captured by a scanning optical system;
複数枚の前記被検眼の画像のうち何れかをテンプレートとして、前記被検眼の画像と前記テンプレートとの対応点または対応領域が、前記被検眼の画像と前記テンプレートとの複数の位置に設定されると共に、前記対応点毎または前記対応領域毎の移動量を算出するローカルマッチングと、Using one of the plurality of images of the eye to be examined as a template, corresponding points or corresponding regions between the image of the eye to be examined and the template are set at a plurality of positions between the image of the eye to be examined and the template. and local matching for calculating a movement amount for each corresponding point or each corresponding region;
前記テンプレートに対する前記被検眼の画像の歪みを、前記対応点毎または前記対応領域毎の前記移動量に基づいて補正する歪み補正処理と、Distortion correction processing for correcting distortion of the image of the subject's eye with respect to the template based on the movement amount for each corresponding point or each corresponding region;
歪み補正後のそれぞれの前記被検眼の画像について、前記テンプレートに対して残存する歪みが大きなほど小さな重み付係数を領域毎に設定し、各々の画像における領域毎の重み付係数に基づいて、歪み補正後の複数の前記被検眼の画像を領域毎に合成することによって合成画像を得る合成処理と、For each image of the eye to be inspected after distortion correction, a weighting coefficient is set for each region as the distortion remaining with respect to the template becomes larger, and based on the weighting coefficient for each region in each image, the distortion is A synthesizing process for obtaining a synthesized image by synthesizing the plurality of corrected images of the eye to be inspected for each region;
を前記コンピュータに実行させる眼科用画像処理プログラム。An ophthalmic image processing program that causes the computer to execute.
JP2019067251A 2019-03-29 2019-03-29 OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM Active JP7318272B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019067251A JP7318272B2 (en) 2019-03-29 2019-03-29 OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM
EP20165938.0A EP3714770B1 (en) 2019-03-29 2020-03-26 Ophthalmological image processing apparatus
US16/830,936 US11508062B2 (en) 2019-03-29 2020-03-26 Ophthalmological image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067251A JP7318272B2 (en) 2019-03-29 2019-03-29 OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM

Publications (3)

Publication Number Publication Date
JP2020162926A JP2020162926A (en) 2020-10-08
JP2020162926A5 JP2020162926A5 (en) 2022-03-07
JP7318272B2 true JP7318272B2 (en) 2023-08-01

Family

ID=72714567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067251A Active JP7318272B2 (en) 2019-03-29 2019-03-29 OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP7318272B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7439683B2 (en) 2020-07-29 2024-02-28 株式会社ニデック fundus imaging device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032735A (en) 2000-05-12 2002-01-31 Fuji Photo Film Co Ltd Method and device for aligning image
JP2012196438A (en) 2011-03-10 2012-10-18 Canon Inc Ophthalmologic apparatus and control method of the same
WO2013191061A1 (en) 2012-06-20 2013-12-27 コニカミノルタ株式会社 Image processing device
WO2014103501A1 (en) 2012-12-28 2014-07-03 興和株式会社 Image processing device, image processing method, image processing program, and recording medium storing said program
JP2015008841A (en) 2013-06-27 2015-01-19 株式会社ニデック Image processing device and image processing program
JP2017104343A (en) 2015-12-10 2017-06-15 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2016047100A5 (en) 2014-08-27 2017-09-21

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6497872B2 (en) 2014-08-27 2019-04-10 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032735A (en) 2000-05-12 2002-01-31 Fuji Photo Film Co Ltd Method and device for aligning image
JP2012196438A (en) 2011-03-10 2012-10-18 Canon Inc Ophthalmologic apparatus and control method of the same
WO2013191061A1 (en) 2012-06-20 2013-12-27 コニカミノルタ株式会社 Image processing device
WO2014103501A1 (en) 2012-12-28 2014-07-03 興和株式会社 Image processing device, image processing method, image processing program, and recording medium storing said program
JP2015008841A (en) 2013-06-27 2015-01-19 株式会社ニデック Image processing device and image processing program
JP2016047100A5 (en) 2014-08-27 2017-09-21
JP2017104343A (en) 2015-12-10 2017-06-15 キヤノン株式会社 Image processing apparatus, image processing method and program

Also Published As

Publication number Publication date
JP2020162926A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US9613419B2 (en) Image generating device and image generating method
US10165939B2 (en) Ophthalmologic apparatus and ophthalmologic apparatus control method
JP6978165B2 (en) Eyeball imaging device
JP2007330558A (en) Spectral fundus measuring apparatus and its measuring method
JP2019107569A (en) Ocular fundus imaging device
JP2019171165A (en) Imaging apparatus
EP3257433B1 (en) Ophthalmic imaging device and generation method of ophthalmic synthetic image
JP7302342B2 (en) Fundus camera
JP6531369B2 (en) Fundus imaging device
JP7318272B2 (en) OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM
EP3714770B1 (en) Ophthalmological image processing apparatus
JP7376847B2 (en) Fundus image processing device and fundus image processing program
JP7318273B2 (en) OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM
JP6319616B2 (en) Scanning laser ophthalmoscope
JP2017127578A (en) Imaging method, imaging apparatus, and program for executing the imaging method
JP2018000620A (en) Ophthalmological imaging apparatus
JP7468162B2 (en) Fundus image processing program and fundus photographing device
JP7375323B2 (en) fundus imaging device
JP7200516B2 (en) Fundus camera
JP7051042B2 (en) Ophthalmologic photography equipment
JP7421062B2 (en) fundus imaging device
JP6836212B2 (en) Ophthalmologic imaging equipment
JP6833455B2 (en) Ophthalmologic imaging equipment and its control method, ophthalmologic imaging system, and programs
JP2022157060A (en) Ocular fundus imaging device
JP2022057576A (en) Fundus image processing program and fundus imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150