JP2021069818A - Imaging apparatus, imaging apparatus control method, and program - Google Patents

Imaging apparatus, imaging apparatus control method, and program Download PDF

Info

Publication number
JP2021069818A
JP2021069818A JP2019199453A JP2019199453A JP2021069818A JP 2021069818 A JP2021069818 A JP 2021069818A JP 2019199453 A JP2019199453 A JP 2019199453A JP 2019199453 A JP2019199453 A JP 2019199453A JP 2021069818 A JP2021069818 A JP 2021069818A
Authority
JP
Japan
Prior art keywords
image
photographing
loss
output
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019199453A
Other languages
Japanese (ja)
Other versions
JP7314020B2 (en
Inventor
和義 谷島
Kazuyoshi Yajima
和義 谷島
律也 富田
Ritsuya Tomita
律也 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019199453A priority Critical patent/JP7314020B2/en
Publication of JP2021069818A publication Critical patent/JP2021069818A/en
Application granted granted Critical
Publication of JP7314020B2 publication Critical patent/JP7314020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To acquire a medical image having reduced failures by re-imaging a subject.SOLUTION: An imaging apparatus comprises: first drive means for driving an imaging optical unit for imaging a subject; second drive means for driving an optical member included in the imaging optical unit; control means for controlling the first drive means and the second drive means; and output means for outputting information about a failure in a medical image obtained by imaging the subject with the imaging optical unit, by using a learned model, from the medical image obtained by imaging.SELECTED DRAWING: Figure 5

Description

本発明は、被検体を撮影する撮影装置、撮影装置の制御方法、及びプログラムに関する。 The present invention relates to a photographing device for photographing a subject, a control method of the photographing device, and a program.

従来から、例えば眼科分野においては、被検眼の診断のための医用画像の取得を目的として、様々な撮影装置によって被検眼の撮影が行われている。例えば、被検眼の眼底を診断するための撮影装置の一つである眼科装置として、眼底カメラが使用される。また、例えば、被検眼の断層を診断するための眼科装置として低コヒーレント光による干渉を利用した光干渉診断撮影法(OCT:Optical Coherence Tomography)を用いる装置(以下、これをOCT装置と記す)が使用される。 Conventionally, for example, in the field of ophthalmology, an image of an eye to be inspected has been taken by various imaging devices for the purpose of acquiring a medical image for diagnosing the eye to be inspected. For example, a fundus camera is used as an ophthalmologic device, which is one of the imaging devices for diagnosing the fundus of the eye to be inspected. Further, for example, an apparatus using an optical coherence tomography (OCT) using interference by low coherent light as an ophthalmic apparatus for diagnosing a tomography of an eye to be inspected (hereinafter, this is referred to as an OCT apparatus). used.

一般的に、眼科装置の設計では、様々な被検眼モデルを想定し、それに対して十分なマージンを持った設計が行われている。しかし、実際の被検眼においては、疾病等の影響により、モデルとした目に対して想定以上のばらつきを有していることがある。この場合、通常の撮影方法では、診断に適当な眼画像を得られない可能性がある。 Generally, in the design of an ophthalmic apparatus, various eye models to be inspected are assumed, and the design is performed with a sufficient margin. However, in the actual eye to be inspected, there may be more variation than expected with respect to the modeled eye due to the influence of diseases and the like. In this case, there is a possibility that an eye image suitable for diagnosis cannot be obtained by a normal imaging method.

例えば、眼底カメラによる撮影では、操作者が撮影スイッチを押下してから撮影光源が撮影光としての閃光を発生するまでの間には時間的なずれがある。被検者がその間に瞬きをすると、その瞬きによって眼底への撮影光の照射が遮られ、該撮影光の前眼部からの過大な反射光が得られることがある。また、撮影の瞬間に被検眼が適切なアライメント位置から移動していわゆるアライメントがずれた状態となると、眼底画像の周辺部にフレアが発生する。このように、適切とはいえない状態で取得された眼底画像は写損を有する画像とされ、診断には適さない眼底画像となる。このように、例えばアライメント不良、フォーカス不良、露光不足等の状態が現れた眼底画像は写損を有する画像とされ、これらアライメント不良、フォーカス不良、露光不足等は写損原因となる。 For example, in shooting with a fundus camera, there is a time lag between the time when the operator presses the shooting switch and the time when the shooting light source generates a flash as shooting light. If the subject blinks in the meantime, the blinking may block the irradiation of the fundus with the photographing light, and excessive reflected light from the anterior segment of the photographing light may be obtained. Further, if the eye to be inspected moves from an appropriate alignment position at the moment of photographing and the so-called misalignment occurs, flare occurs in the peripheral portion of the fundus image. As described above, the fundus image acquired in an unsuitable state is regarded as an image having photo loss, and is not suitable for diagnosis. In this way, for example, a fundus image in which a state such as poor alignment, poor focus, or underexposure appears is regarded as an image having photo loss, and such poor alignment, poor focus, or underexposure causes photo loss.

この時、画像の良否及び写損原因を検者に判断させ、得られた眼画像が瞬きやフレア等による写損を有すると判断された場合に自動で眼画像の再撮影を行う方法が、特許文献1に開示されている。また、特許文献1に開示される方法では、写損がフレアにより生じたと判断された場合には、アライメントの再調整のために、自動で再撮影時の眼底カメラの位置が算出されている。 At this time, a method of having the examiner judge the quality of the image and the cause of the image loss, and automatically re-shooting the eye image when it is determined that the obtained eye image has image loss due to blinking or flare, is It is disclosed in Patent Document 1. Further, in the method disclosed in Patent Document 1, when it is determined that the copying loss is caused by flare, the position of the fundus camera at the time of re-imaging is automatically calculated for readjustment of the alignment.

特開2016−77337号公報Japanese Unexamined Patent Publication No. 2016-7737

特許文献1に開示されている、検者に写損原因を判断させる方法においては、検者が写損原因を間違えると、適切ではない撮影条件で再撮影してしまうため、再撮影時においても画像上に同様の写損が生じてしまう可能性がある。この写損原因には、上述したアライメント不良、フォーカス不良、或いは露光不足に加え、疾病に伴う眼底の不明瞭等の様々なものが存在する。このため、見識のある検者が判断し、写損原因に応じた適当な撮影条件で再撮影を実行することが望ましい。しかしながら、例えば集団健診によるスクリーニング等の際に、見識のある検者が眼科装置を操作できない場合もおこり得る。この場合、再撮影を実施しても、得られた画像上に同様の写損が生じてしまう可能性がある。 In the method disclosed in Patent Document 1 in which the examiner determines the cause of the copying loss, if the examiner makes a mistake in the cause of the copying loss, the image is re-photographed under inappropriate shooting conditions. Similar image loss may occur on the image. In addition to the above-mentioned misalignment, poor focus, and underexposure, there are various causes of this image loss, such as unclear fundus due to disease. For this reason, it is desirable that a discerning examiner makes a judgment and perform re-imaging under appropriate imaging conditions according to the cause of the image loss. However, there may be cases where a knowledgeable examiner cannot operate the ophthalmologic device, for example, during screening by group medical examination. In this case, even if re-imaging is performed, the same image loss may occur on the obtained image.

本発明は、上述した課題に鑑みたものであって、被検体を再撮影することにより写損が低減された医用画像を取得可能とすることをその目的の一つとする。 In view of the above-mentioned problems, one of the objects of the present invention is to make it possible to obtain a medical image in which copying loss is reduced by re-imaging a subject.

上記課題を解決するために、本発明の一実施態様に係る撮影装置は、
被検体を撮影する撮影光学部を駆動する第一の駆動手段と、
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、
前記撮影光学部により被検体を撮影して得た医用画像から、学習済モデルを用いて、前記撮影して得た医用画像における写損に関する情報を出力する出力手段と、
を備えることを特徴とする。
In order to solve the above problems, the photographing apparatus according to one embodiment of the present invention is provided.
The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A control means for controlling the first drive means and the second drive means,
An output means for outputting information on copying loss in the medical image obtained by photographing the subject using the trained model from the medical image obtained by photographing the subject by the photographing optical unit.
It is characterized by having.

本発明の一つによれば、被検体を再撮影することにより写損が低減された医用画像を取得可能とすることができる。 According to one of the present inventions, it is possible to obtain a medical image with reduced copying loss by re-imaging the subject.

本発明の実施例1に係る眼科装置の一例である眼底カメラの概略構成を示す図である。It is a figure which shows the schematic structure of the fundus camera which is an example of the ophthalmic apparatus which concerns on Example 1 of this invention. 図1に例示した眼底カメラの光学構成を示す模式図である。It is a schematic diagram which shows the optical composition of the fundus camera illustrated in FIG. 図1に示す眼底カメラに用いられる制御部の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the control part used in the fundus camera shown in FIG. 図1に例示した眼底カメラにおいて実行される前眼部に対するアライメント操作を説明する概要図である。It is a schematic diagram explaining the alignment operation with respect to the anterior eye part performed in the fundus camera illustrated in FIG. 図1に例示した眼底カメラにおいて実行される眼底に対するフォーカス操作を説明する概要図である。It is a schematic diagram explaining the focus operation with respect to the fundus performed by the fundus camera illustrated in FIG. 本発明の実施例1に係る眼底撮影の工程を説明するフローチャートである。It is a flowchart explaining the process of fundus photography which concerns on Example 1 of this invention. 機械学習モデルの一例であるCNNを説明する概略図である。It is a schematic diagram explaining CNN which is an example of a machine learning model. 実施例1における眼底カメラと代替可能な撮影系の光学構成を模式的に示す図である。It is a figure which shows typically the optical composition of the imaging system which can replace the fundus camera in Example 1. FIG. 実施例1における眼底カメラと代替可能な他の撮影系の光学構成を模式的に示す図である。It is a figure which shows typically the optical composition of the other imaging system which can replace the fundus camera in Example 1. FIG. 本発明の実施例2に係る眼科装置の一例であるOCT装置の概略構成を示す図である。It is a figure which shows the schematic structure of the OCT apparatus which is an example of the ophthalmic apparatus which concerns on Example 2 of this invention. 図9に示した眼科装置の制御部の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the control part of the ophthalmic apparatus shown in FIG. 本発明の実施例2に係る断層画像撮影の工程を説明するフローチャートである。It is a flowchart explaining the process of the tomographic image taking which concerns on Example 2 of this invention. 実施例2において表示モニタに表示されるプレビューの一態様を説明する概略図である。It is the schematic explaining one aspect of the preview displayed on the display monitor in Example 2. FIG.

本発明の例示的な実施例として、撮影装置の一態様として眼科装置を例示し、図面を参照して以下に詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成または様々な条件に応じて変更可能である。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 As an exemplary embodiment of the present invention, an ophthalmic apparatus is illustrated as an aspect of the imaging apparatus, and will be described in detail below with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.

本実施例では、機械学習モデルに関する学習済モデルを用いる。機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。ディープラーニング(深層学習)では、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する。また、ディープラーニング以外の機械学習アルゴリズムとしては、サポートベクターマシン、最近傍法、線形回帰、平均法、ニューラルネットワーク等が例示される。これらのアルゴリズムのうち、適宜、利用できるものを用いて本発明に適用することができる。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングすることで得られた(学習を行った)モデルである。ただし、学習済モデルは、事前に適切な学習データを用いて得られているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできる。追加学習は、眼科装置が使用先に設置された後も行うことができる。なお、以下において、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、学習データ(教師データ)の出力データは、正解データとも称される。 In this embodiment, a trained model related to a machine learning model is used. A machine learning model is a learning model based on a machine learning algorithm such as deep learning. In deep learning, a neural network is used to generate features and coupling weighting coefficients for learning. Examples of machine learning algorithms other than deep learning include support vector machines, nearest neighbor methods, linear regression, averaging methods, neural networks, and the like. Of these algorithms, any available algorithm can be applied to the present invention as appropriate. The trained model is a model obtained (trained) by training a machine learning model by an arbitrary machine learning algorithm using appropriate learning data in advance. However, although the trained model is obtained by using appropriate training data in advance, it does not mean that no further training is performed, and additional training can be performed. Additional learning can be performed even after the ophthalmic device has been installed at the site of use. In the following, the teacher data refers to learning data and is composed of a pair of input data and output data. The output data of the learning data (teacher data) is also referred to as correct answer data.

なお、以下の実施例において、アライメント不良、フォーカス不良、露光不足、疾病に伴う眼底の不明瞭性、被検眼の瞬き、等の撮影に対して不適切な現象や状態が反映されてしまった画像を、写損を有する画像とする。例えばアライメント不良は画像中に所謂フレアを生じさせ、フォーカス不良は所謂ピンボケを生じさせる。即ち、写損を有する画像とは、例えばフレアがある或いはピンボケといった診断に不適切な状態の画像のことを指す。また、写損原因には、例えば上述したアライメント不良、フォーカス不良、露光不足、疾病に伴う眼底の不明瞭性、被検眼の瞬き、等が考えられる。以下では、写損を有する画像を得たために再撮影を行う場合に、再撮影時において写損が低減された画像が取得可能となるように眼科装置を制御する実施例について説明する。 In the following examples, images that reflect inappropriate phenomena and conditions for imaging such as poor alignment, poor focus, underexposure, indistinct fundus due to illness, blinking of the eye to be inspected, etc. Is an image having photo loss. For example, poor alignment causes so-called flare in the image, and poor focus causes so-called out-of-focus. That is, an image having photo loss refers to an image in a state inappropriate for diagnosis, such as flare or out-of-focus. In addition, the causes of image loss may be, for example, the above-mentioned misalignment, poor focus, underexposure, indistinctness of the fundus due to disease, blinking of the eye to be inspected, and the like. In the following, an example will be described in which the ophthalmic apparatus is controlled so that an image with reduced photo loss can be acquired at the time of re-imaging when re-imaging is performed because an image having photo loss is obtained.

[実施例1]
本実施例では、眼科装置として眼底カメラを例示し、本発明を眼底カメラに適用した実施例について、図1乃至6を用いて説明する。本実施例では、撮影した眼底画像と後述する学習済モデルとを用いて、写損を低減する撮影条件で再撮影を実行するための撮影条件における補正値を出力する。そして出力された補正値を用いて、眼科装置による再撮影を実行する。これにより、検者が写損に関する十分な見識を有していない場合であっても、再撮影時において写損が生じる可能性を低減できる。以下、本実施例について詳述する。
[Example 1]
In this embodiment, a fundus camera is illustrated as an ophthalmic apparatus, and examples in which the present invention is applied to a fundus camera will be described with reference to FIGS. 1 to 6. In this embodiment, the photographed fundus image and the learned model described later are used to output the correction value under the imaging conditions for executing reimaging under the imaging conditions that reduce the imaging loss. Then, the output correction value is used to perform reimaging with an ophthalmic apparatus. As a result, even if the examiner does not have sufficient insight into the copying loss, it is possible to reduce the possibility of the copying loss occurring at the time of re-shooting. Hereinafter, this embodiment will be described in detail.

<装置の概略構成>
本実施例において用いる眼底カメラの一例の概略構成について図1を用いて説明する。眼底カメラCは、基台C1、撮影光学部C2、及びジョイスティックC3を備える。撮影光学部C2には、基台C1に対して左右方向(X方向)、上下方向(Y方向)、前後方向(Z方向)に移動可能な光学系が収納されている。撮影光学部C2は、基台C1に設けられたパルスモータ等からなる駆動部C4(図2(b)参照)によって、被検眼に対して三次元(XYZ)方向に移動可能とされている。また、駆動部C4は、ジョイスティックC3の操作によっても、撮影光学部C2を三次元(XYZ)方向に移動可能とされている。
<Outline configuration of the device>
The schematic configuration of an example of the fundus camera used in this embodiment will be described with reference to FIG. The fundus camera C includes a base C1, a photographing optical unit C2, and a joystick C3. The photographing optical unit C2 houses an optical system that can move in the left-right direction (X direction), the up-down direction (Y direction), and the front-back direction (Z direction) with respect to the base C1. The photographing optical unit C2 is movable in the three-dimensional (XYZ) direction with respect to the eye to be inspected by a driving unit C4 (see FIG. 2B) composed of a pulse motor or the like provided on the base C1. Further, the drive unit C4 can move the photographing optical unit C2 in the three-dimensional (XYZ) direction by operating the joystick C3.

<装置の光学構成>
本実施例に係る眼底カメラCの光学構成について図2(a)を用いて説明する。当該光学系は、被検眼を観察、撮像、或いは撮影する撮影光学系に対応する。なお、当該光学系の構成について、光学要素が各種配置される複数の光路L1からL5に分け、その各々について順に説明する。
<Optical configuration of the device>
The optical configuration of the fundus camera C according to this embodiment will be described with reference to FIG. 2 (a). The optical system corresponds to a photographing optical system for observing, imaging, or photographing an eye to be inspected. The configuration of the optical system is divided into a plurality of optical paths L1 to L5 in which various optical elements are arranged, and each of them will be described in order.

光路L1は、眼底の観察或いは撮影のための照明光を発する光源及び関連する構成が配置され、光源から射出された照明光の光路に沿って配置される。光路L1上には、ハロゲンランプ等の定常光を発する観察用光源1から順に、コンデンサレンズ2、赤外光を透過して可視光を遮断するフィルタ3、ストロボ等の撮影用光源4、レンズ5、及びミラー6が配置される。光路L2は、ミラー6の反射方向に配置される。光路L2上には、ミラー6から順に、リング状開口を有するリング絞り7、水晶体バッフル31、リレーレンズ8、角膜バッフル32、及び中央部開口を有する穴あきミラー9が配置される。 The optical path L1 is arranged with a light source that emits illumination light for observing or photographing the fundus and related configurations, and is arranged along the optical path of the illumination light emitted from the light source. On the optical path L1, in order from the observation light source 1 that emits constant light such as a halogen lamp, the condenser lens 2, the filter 3 that transmits infrared light and blocks visible light, the photographing light source 4 such as a strobe, and the lens 5 , And the mirror 6 is arranged. The optical path L2 is arranged in the reflection direction of the mirror 6. On the optical path L2, a ring diaphragm 7 having a ring-shaped opening, a crystalline lens baffle 31, a relay lens 8, a corneal baffle 32, and a perforated mirror 9 having a central opening are arranged in order from the mirror 6.

光路L3は、穴あきミラー9の反射方向に配置される。光路L3上には、穴あきミラーから順に、ダイクロイックミラー24、及び被検眼Eに対向する対物レンズ10が配置される。ダイクロイックミラー24は、光路L3に対して挿脱可能となっている。穴あきミラー9の穴部には撮影絞り11が配置され、更にその後方には、フォーカスレンズ12、撮影レンズ13、及びハーフミラー100がこの順で配置される。フォーカスレンズ12は、図中矢印で示される光路L3方向に駆動されることにより、眼底Erに対する合焦状態が調整される。また、ハーフミラー100の先には、動画観察と静止画撮影を兼ねた撮像素子14が配置され、ハーフミラー100の反射方向である光路L4の先には内部固視灯101が配置される。内部固視灯101は、被検眼Eの固視を促し、これにより眼底Er上での所望位置の撮影を可能とする。 The optical path L3 is arranged in the reflection direction of the perforated mirror 9. On the optical path L3, the dichroic mirror 24 and the objective lens 10 facing the eye E to be inspected are arranged in order from the perforated mirror. The dichroic mirror 24 is removable with respect to the optical path L3. The photographing diaphragm 11 is arranged in the hole portion of the perforated mirror 9, and the focus lens 12, the photographing lens 13, and the half mirror 100 are arranged in this order behind the photographing aperture 11. The focus lens 12 is driven in the direction of the optical path L3 indicated by the arrow in the figure to adjust the focusing state with respect to the fundus Er. Further, an image sensor 14 for both moving image observation and still image shooting is arranged at the tip of the half mirror 100, and an internal fixation lamp 101 is arranged at the tip of the optical path L4 which is the reflection direction of the half mirror 100. The internal fixation lamp 101 promotes fixation of the eye E to be inspected, thereby enabling imaging of a desired position on the fundus Er.

ここで、位置合わせ(以下、これをアライメントと記す)と合焦状態の調整(以下、これをフォーカスと記す)とに用いられる光学系の構成について説明する。まず、アライメントのための前眼部観察光学系の構成について説明する。 Here, the configuration of the optical system used for alignment (hereinafter, this is referred to as alignment) and adjustment of the in-focus state (hereinafter, this is referred to as focus) will be described. First, the configuration of the anterior segment observation optical system for alignment will be described.

ダイクロイックミラー24の反射方向の光路L5には、レンズ61、絞り62、プリズム63、レンズ64、及び赤外域の感度を持つ二次元撮像素子65が配置される。これらの構成によって、前眼部の観察を行うための前眼部観察光学系を形成している。ここで、プリズム63に入射した光は、プリズム63の上半分と下半分で相反する左右方向に屈折して分離される。そのため、被検眼Eと撮影光学部C2との距離が適正作動距離よりも長い場合は、前眼部の観察像はレンズ61によってプリズム63よりもレンズ61に近い側に結像し、観察像の上半分は右側に、下半分は左側にずれて撮像される。被検眼Eと撮影光学部C2との距離が適正作動距離よりも短い場合は、観察像は上下が逆にずれて撮像される。 A lens 61, an aperture 62, a prism 63, a lens 64, and a two-dimensional image sensor 65 having sensitivity in the infrared region are arranged in the optical path L5 in the reflection direction of the dichroic mirror 24. With these configurations, an anterior segment observation optical system for observing the anterior segment is formed. Here, the light incident on the prism 63 is refracted and separated in the left and right directions opposite to each other in the upper half and the lower half of the prism 63. Therefore, when the distance between the eye to be inspected E and the photographing optical unit C2 is longer than the appropriate operating distance, the observation image of the anterior eye portion is formed by the lens 61 on the side closer to the lens 61 than the prism 63, and the observation image of the observation image is formed. The upper half is shifted to the right and the lower half is shifted to the left. When the distance between the eye to be inspected E and the photographing optical unit C2 is shorter than the proper operating distance, the observed image is imaged with the observation image shifted upside down.

光路L3から見た対物レンズ10の外側には、前眼部観察用光源105が設けられている。被検眼Eの前眼部は、可視光を遮断するフィルタ3を透過する波長とは異なる赤外域の光を発する前眼部観察用光源105により照明される。以上の前眼部観察光学系によって、被検眼Eの前眼部とのアライメント状態の検出が可能になっている。当該構成と、基台C1に配されて撮影光学部C2を三軸方向に駆動する駆動部とにより、本実施例において撮影光学系の被検眼に対するアライメントの制御を行うアライメント手段が構成される。なお、上述した眼底カメラCに設けられる各光路の配置、及び各種構成の配置は例示であり、必要に応じて公知の種々の配置に置き換えることができる。 A light source 105 for observing the anterior segment of the eye is provided on the outside of the objective lens 10 as seen from the optical path L3. The anterior segment of the eye E to be inspected is illuminated by the anterior segment observation light source 105 that emits light in an infrared region different from the wavelength transmitted through the filter 3 that blocks visible light. The above-mentioned anterior segment observation optical system makes it possible to detect the alignment state of the eye E to be inspected with the anterior segment. The configuration and the driving unit arranged on the base C1 to drive the photographing optical unit C2 in the triaxial direction constitute an alignment means for controlling the alignment of the photographing optical system with respect to the eye to be inspected in this embodiment. The arrangement of each optical path and the arrangement of various configurations provided in the fundus camera C described above are examples, and can be replaced with various known arrangements as needed.

次に、フォーカス光学系の構成について説明する。
光路L2上のリング絞り7とリレーレンズ8との間には、フォーカス指標投影部22が配置される。フォーカス指標投影部22は、被検眼Eの瞳Ep上に、分割されたスプリット指標を投影するためのものであり、光路L2に対して挿脱可能とされている。そして、フォーカス指標投影部22とフォーカスレンズ12とは、制御部18(駆動制御部201)からの制御に基づいて、それぞれ図中矢印で示す光路L2、光路L3方向に連動して移動するようになっている。この時、フォーカス指標投影部22と撮像素子14が光学的に共役関係になっている。これらのフォーカス光学系によって、被検眼Eの眼底Erのフォーカス状態が検出可能となっている。
Next, the configuration of the focus optical system will be described.
A focus index projection unit 22 is arranged between the ring diaphragm 7 on the optical path L2 and the relay lens 8. The focus index projection unit 22 is for projecting the divided split index on the pupil Ep of the eye E to be inspected, and is removable with respect to the optical path L2. Then, the focus index projection unit 22 and the focus lens 12 move in conjunction with the directions of the optical path L2 and the optical path L3 indicated by the arrows in the figure, respectively, based on the control from the control unit 18 (drive control unit 201). It has become. At this time, the focus index projection unit 22 and the image sensor 14 are optically in a conjugated relationship. With these focus optical systems, the focus state of the fundus Er of the eye E to be inspected can be detected.

当該構成は、本実施例において、被検眼Eの眼底Erに対する撮像光学系のフォーカス状態を得るフォーカス手段を構成する。当該フォーカス手段におけるフォーカス部(フォーカスレンズ12を駆動する不図示のレンズ駆動部)は駆動制御部201により駆動される。次に、これらフォーカス手段等の動作について、図3と図4を用いて詳細に説明する。なお、以下に記述する手動制御は、操作入力部21として例えばジョイスティックC3の傾き角度や傾き方向によって、ユーザーが上述した駆動部等を制御することにより実行することができる。また、手動撮影は、前述したジョイスティックC3を例とすれば、該ジョイスティックC3に設けられた撮影釦の押下げによって実行することができる。 In this embodiment, the configuration constitutes a focusing means for obtaining the focus state of the imaging optical system with respect to the fundus Er of the eye E to be inspected. The focus unit (lens drive unit (not shown) that drives the focus lens 12) in the focus means is driven by the drive control unit 201. Next, the operation of these focusing means and the like will be described in detail with reference to FIGS. 3 and 4. The manual control described below can be executed by the user controlling the drive unit or the like described above according to the tilt angle or tilt direction of the joystick C3, for example, as the operation input unit 21. Further, the manual shooting can be performed by pressing the shooting button provided on the joystick C3, taking the above-mentioned joystick C3 as an example.

次に、本実施例で用いた眼底カメラCにおける制御部18の詳細について、図2(b)を参照して説明する。図2(b)は、制御部18の概略構成を示すブロック図である。図2(b)に示すように、制御部18は、駆動制御部201、表示制御部202、取得部210、及び処理部220を備える。また、制御部18は、フォーカスレンズ12、撮像素子14、画像処理部17、操作入力部21、フォーカス指標投影部22、保存用メモリ41、二次元撮像素子65、及び駆動部C4等と接続される。操作入力部21は、上述したジョイスティックC3を含む。 Next, the details of the control unit 18 in the fundus camera C used in this embodiment will be described with reference to FIG. 2 (b). FIG. 2B is a block diagram showing a schematic configuration of the control unit 18. As shown in FIG. 2B, the control unit 18 includes a drive control unit 201, a display control unit 202, an acquisition unit 210, and a processing unit 220. Further, the control unit 18 is connected to a focus lens 12, an image sensor 14, an image processing unit 17, an operation input unit 21, a focus index projection unit 22, a storage memory 41, a two-dimensional image sensor 65, a drive unit C4, and the like. To. The operation input unit 21 includes the joystick C3 described above.

駆動制御部201は、フォーカスレンズ12、撮像素子14、画像処理部17、フォーカス指標投影部22、二次元撮像素子65、及び駆動部C4等の駆動制御を実行する。表示制御部202は、画像処理部17を介して表示モニタ15に接続されており、表示モニタ15に表示させる画像や例えば該表示モニタ15に表示される指示画面を介して入力されたユーザー指示等を受け付ける。表示モニタ15は、LCDディスプレイ等の任意のディスプレイであり、撮影光学部C2及び制御部18を操作するためのGUIや生成した画像、任意の処理を施した画像、及び患者情報等の各種の情報を表示することができる。撮像素子14からの出力画像は、画像処理部17を通して予め用意されたキャラクタ画像と合成され、表示モニタ15に表示される。 The drive control unit 201 executes drive control of the focus lens 12, the image sensor 14, the image processing unit 17, the focus index projection unit 22, the two-dimensional image sensor 65, the drive unit C4, and the like. The display control unit 202 is connected to the display monitor 15 via the image processing unit 17, and an image to be displayed on the display monitor 15 or a user instruction input via, for example, an instruction screen displayed on the display monitor 15 or the like. Accept. The display monitor 15 is an arbitrary display such as an LCD display, and various information such as a GUI for operating the photographing optical unit C2 and the control unit 18, a generated image, an image subjected to arbitrary processing, and patient information. Can be displayed. The output image from the image pickup device 14 is combined with the character image prepared in advance through the image processing unit 17 and displayed on the display monitor 15.

また、上述したGUIを表示する場合、操作入力部21は、該GUIを操作したり、情報を入力したりすることで、制御部18を操作するために用いられる。操作入力部21は、例えば、マウスやタッチパッド、トラックボール、タッチパネルディスプレイ、スタイラスペン等のポインティングデバイス及びキーボード等を含む。なお、タッチパネルディスプレイを用いる場合には、表示モニタ15と操作入力部21を一体的に構成できる。なお、本実施例では、撮影光学部C2、制御部18、操作入力部21、及び表示モニタ15は別々の要素とされているが、これらのうちの一部又は全部を一体的に構成してもよい。 Further, when displaying the GUI described above, the operation input unit 21 is used to operate the control unit 18 by operating the GUI or inputting information. The operation input unit 21 includes, for example, a mouse, a touch pad, a trackball, a touch panel display, a pointing device such as a stylus pen, a keyboard, and the like. When a touch panel display is used, the display monitor 15 and the operation input unit 21 can be integrally configured. In this embodiment, the photographing optical unit C2, the control unit 18, the operation input unit 21, and the display monitor 15 are separate elements, but some or all of them are integrally configured. May be good.

取得部210は、画像取得部211、情報取得部212、及び記憶部213を有する。画像取得部211は、撮像素子14、及び二次元撮像素子65と接続されており、これらから出力される画像信号若しくは該画像信号から得られる画像を取得する。情報取得部212は、上述したジョイスティックや表示モニタ15を介して入力される情報、或いは被検眼Eに付随して予め保存用メモリ41に保存されている被検眼情報等を取得する。記憶部213は、取得部210が取得した各種画像や情報、更には処理部220より出力される後述する写損原因や補正値等の出力情報を保存する。処理部220は、出力部221、及び選択部222を有する。出力部221は、例えば後述する学習済モデルを用いて、写損原因や補正値等を出力し、これらを出力する。選択部222は、例えば情報取得部212が取得したユーザーにより入力された写損原因や撮影条件等に応じて、記憶部213に複数種類が記憶されている学習済モデルから、出力部221で用いる学習済モデルの選択を行う。 The acquisition unit 210 includes an image acquisition unit 211, an information acquisition unit 212, and a storage unit 213. The image acquisition unit 211 is connected to the image sensor 14 and the two-dimensional image sensor 65, and acquires an image signal output from these or an image obtained from the image signal. The information acquisition unit 212 acquires the information input via the joystick or the display monitor 15 described above, or the eye-tested information stored in the storage memory 41 in advance along with the eye-tested eye E. The storage unit 213 stores various images and information acquired by the acquisition unit 210, as well as output information such as a copying loss cause and a correction value, which will be described later, output from the processing unit 220. The processing unit 220 has an output unit 221 and a selection unit 222. The output unit 221 outputs the cause of copying loss, the correction value, and the like by using, for example, a learned model described later, and outputs these. The selection unit 222 is used by the output unit 221 from a learned model in which a plurality of types are stored in the storage unit 213 according to, for example, the cause of photo loss and shooting conditions input by the user acquired by the information acquisition unit 212. Select a trained model.

なお、制御部18の記憶部213以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部213は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Each component of the control unit 18 other than the storage unit 213 may be composed of a software module executed by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). The processor may be, for example, a GPU (Graphical Processing Unit), an FPGA (Field-Programmable Gate Array), or the like. In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC. The storage unit 213 may be configured by any storage medium such as an optical disk or a memory.

<前眼部アライメントの概要>
次に、実際の撮影時に行われる被検眼Eに対する撮影光学部C2等のアライメントについて述べる。図3は、図2(a)で説明した前眼部観察光学系の二次元撮像素子65上で得られる観察像であって、画像取得部211が取得して表示制御部202が表示モニタ15に表示する画像を模式的に示している。図2(a)中の前眼部観察用光源105により照明された被検眼Eの前眼部は、プリズム63により上下に分割され、二次元撮像素子65上で図3(a)に示されるような像として観察される。同図に示すように、瞳孔部以外の部分は前眼部観察用光源105の反射光が多く反射して入ってくるために白く映る。一方、瞳孔部Pは反射光が入らないので黒く映る。
<Outline of anterior segment alignment>
Next, the alignment of the photographing optical unit C2 and the like with respect to the eye to be inspected E performed at the time of actual photographing will be described. FIG. 3 is an observation image obtained on the two-dimensional image sensor 65 of the anterior segment observation optical system described with reference to FIG. 2A, and is acquired by the image acquisition unit 211 and displayed by the display control unit 202 on the display monitor 15. The image to be displayed in is schematically shown. The anterior segment of the eye E to be inspected illuminated by the anterior segment observation light source 105 in FIG. 2A is divided into upper and lower parts by a prism 63 and shown in FIG. 3A on the two-dimensional imaging element 65. Observed as an image like. As shown in the figure, the portion other than the pupil portion appears white because a large amount of reflected light from the anterior segment observation light source 105 is reflected and enters. On the other hand, the pupil portion P looks black because the reflected light does not enter.

画像処理部17は、このコントラスト差から瞳孔部Pを抽出可能であり、瞳孔位置を決定することができる。図3(a)では、上下に分割された瞳孔部Pのうち、下部の瞳孔部Pから、瞳孔中心POを検出している。制御部18は、画像処理部17により検出された瞳孔中心POが、図3(b)に示している二次元撮像素子65の画像中心Oに位置するように、駆動部C4を動かす。この操作によって、被検眼Eの前眼部と撮影光学部C2とのアライメントである前眼部アライメントを行うことができる。なお、二次元撮像素子65の観察画像は、制御部18を介してそのまま表示モニタ15にも表示可能である。 The image processing unit 17 can extract the pupil portion P from this contrast difference and can determine the pupil position. In FIG. 3A, the pupil center PO is detected from the lower pupil portion P of the upper and lower pupil portions P. The control unit 18 moves the drive unit C4 so that the pupil center PO detected by the image processing unit 17 is located at the image center O of the two-dimensional image sensor 65 shown in FIG. 3 (b). By this operation, the anterior segment alignment, which is the alignment between the anterior segment of the eye E to be inspected and the imaging optical unit C2, can be performed. The observed image of the two-dimensional image sensor 65 can be displayed on the display monitor 15 as it is via the control unit 18.

<眼底部フォーカスの概要>
次に、図4は、図2(a)で説明した動画観察と静止画撮影を兼ねた撮像素子14上で得られる観察像であって、画像取得部211が取得して表示制御部202が表示モニタ15に表示する画像を模式的に示している。同図において、スプリット指標22a及び22bは、フォーカス光学系のフォーカス指標投影部22によって被検眼Eの瞳上に投影された指標を示している。
図3(b)の状態となるように、被検眼Eの前眼部に対して撮影光学部C2のアライメントを行う際には、撮像素子14では図4(a)に示す画像が観察される。上述したように、フォーカス指標投影部22とフォーカスレンズ12とは、制御部18からの制御に基づいて、各々に対応して設けられるモータ等からなる不図示の駆動部により、光路L2、光路L3方向に連動して駆動される。また、撮像素子14は、フォーカス指標投影部22と光学的に共役関係になっている。そのため、フォーカス指標投影部22を光路L2方向に移動させることで、スプリット指標22aと22bが撮像素子14上の観察像として移動するとともに、フォーカスレンズ12が光路L3方向に連動して移動する。
<Outline of fundus focus>
Next, FIG. 4 is an observation image obtained on the image pickup device 14 that combines the moving image observation and the still image shooting described in FIG. 2A, and is acquired by the image acquisition unit 211 and displayed by the display control unit 202. The image to be displayed on the display monitor 15 is schematically shown. In the figure, the split indexes 22a and 22b indicate the indexes projected on the pupil of the eye E to be inspected by the focus index projection unit 22 of the focus optical system.
When the photographing optical unit C2 is aligned with the anterior eye portion of the eye E to be inspected so as to be in the state of FIG. 3B, the image shown in FIG. 4A is observed on the image sensor 14. .. As described above, the focus index projection unit 22 and the focus lens 12 are provided with an optical path L2 and an optical path L3 by means of a drive unit (not shown) including a motor or the like provided corresponding to each of the focus index projection unit 22 and the focus lens 12 based on the control from the control unit 18. It is driven in conjunction with the direction. Further, the image sensor 14 is optically conjugated with the focus index projection unit 22. Therefore, by moving the focus index projection unit 22 in the optical path L2 direction, the split indexes 22a and 22b move as observation images on the image sensor 14, and the focus lens 12 moves in conjunction with the optical path L3 direction.

画像処理部17は、このスプリット指標22aと22bからフォーカス状態とフォーカスレンズ12の移動方向及び移動量を求める。画像処理部17から得られたフォーカスレンズ12の移動に関する情報に基づいて、駆動制御部201は、撮像素子14上で図4(a)の状態から図4(b)の状態(一直線)になるように駆動部を制御する。これにより、被検眼Eの眼底Erに対するフォーカスを行うことが可能となる。 The image processing unit 17 obtains the focus state, the moving direction and the moving amount of the focus lens 12 from the split indexes 22a and 22b. Based on the information regarding the movement of the focus lens 12 obtained from the image processing unit 17, the drive control unit 201 changes from the state of FIG. 4 (a) to the state of FIG. 4 (b) (straight line) on the image sensor 14. The drive unit is controlled so as to. This makes it possible to focus the fundus Er of the eye E to be inspected.

以上説明したように、本実施例による眼底カメラでは、アライメントとフォーカスが実行可能となっている。また、例えば、前述のアライメント操作とフォーカス操作とを自動的に行い、アライメント操作とフォーカス操作とが終了したことを検出したのち、撮影用光源4を発光させ、撮像素子14による眼底の撮影動作を実行できる。以上の操作を自動で行うことで、ユーザーは、操作入力部21(ジョイスティックC3)の撮影開始釦を押すだけで、眼底カメラCにより眼底を自動撮影することができる。ここで、アライメント操作とフォーカス操作とが終了とする判断基準としては、モデルとした複数の被検眼を用いたアライメント位置及びフォーカス精度に基づいて設定される。即ち、最適となるアライメント位置とフォーカス精度とが確保される状態から指標等が所定の許容範囲内のずれとなることで当該操作が終了するよう設定されている。撮影された眼底静止画像は、画像処理部17によりキャラクタ画像と合成され、表示モニタ15に表示される。 As described above, in the fundus camera according to this embodiment, alignment and focusing can be performed. Further, for example, the above-mentioned alignment operation and focus operation are automatically performed, and after detecting that the alignment operation and the focus operation are completed, the light source 4 for photographing is emitted to emit light, and the image sensor 14 performs the photographing operation of the fundus of the eye. Can be executed. By automatically performing the above operations, the user can automatically take a picture of the fundus by the fundus camera C simply by pressing the shooting start button of the operation input unit 21 (joystick C3). Here, the criterion for determining the end of the alignment operation and the focus operation is set based on the alignment position and the focus accuracy using a plurality of models of the eye to be inspected. That is, the operation is set to end when the index or the like deviates within a predetermined allowable range from the state in which the optimum alignment position and focus accuracy are secured. The captured still image of the fundus is combined with the character image by the image processing unit 17 and displayed on the display monitor 15.

<眼底撮影のシーケンス>
次に、被検眼に対する自動撮影を行う際の基本的な撮影シーケンスを、図5のフローチャートを用いて説明する。ユーザーは、操作入力部21に構成される各種入力手段を用いて、被検者と装置の大まかな位置合わせ及び撮影動作の開始の指示を眼底カメラCに対して行う。その際、被検者に不図示の顎受けに顎を乗せさせ、被検眼のY軸方向の位置が所定の高さになるように不図示の顎受け駆動機構により調整する。ユーザーは、表示モニタ15に映されている被検眼Eの瞳孔が表示される位置までジョイスティックC3により撮影光学部C2を駆動し、駆動終了後に撮影開始釦を押下する。制御部18は、撮影開始ボタンの押下を検出したら、フローをステップS501に移行させる。
<Fundus photography sequence>
Next, a basic imaging sequence for performing automatic imaging of the eye to be inspected will be described with reference to the flowchart of FIG. The user gives an instruction to the fundus camera C to roughly align the subject and the device and to start the photographing operation by using various input means configured in the operation input unit 21. At that time, the subject is placed on the jaw support (not shown), and the position of the eye to be inspected in the Y-axis direction is adjusted by the jaw support drive mechanism (not shown) so as to have a predetermined height. The user drives the photographing optical unit C2 by the joystick C3 to a position where the pupil of the eye to be inspected E displayed on the display monitor 15 is displayed, and presses the photographing start button after the driving is completed. When the control unit 18 detects that the shooting start button is pressed, the control unit 18 shifts the flow to step S501.

ステップS501では、駆動制御部201により、図3を用いて説明したアライメント操作が実行され、被検眼Eの前眼部と撮影光学部C2とのアライメントが行われる。具体的には、制御部18は、プリズム63により分割された前眼部観察像により、撮影光学部C2における前後方向(Z方向)のアライメント状態を判定する。図3(a)のように観察像の上半分と下半分がずれて結像している場合は、アライメントが必要と判断される。この場合、図3(b)に示すように観察像がずれない像となる方向に撮影光学部C2が移動するように、駆動制御部201が駆動部を制御する。また、上下左右方向のアライメントは、前眼部観察像から画像処理部17が瞳孔中心P0を検出し、二次元撮像素子65の画像中心Oにこれが位置するように、駆動制御部201が駆動部を制御する。制御部18は、前眼部観察像の上下及び中心位置と画像中心とが一致し、或いは一致状態から所定の範囲内のずれ状態が得られ、アライメントが完了したと判断されると、フローをステップS502に移行させる。なお、二次元撮像素子65と撮像素子14とはそれぞれ独立して画像解析が可能なため、ステップS502以降においても、ここで述べた自動アライメントの操作は継続されている。 In step S501, the drive control unit 201 executes the alignment operation described with reference to FIG. 3, and aligns the anterior eye portion of the eye E to be inspected with the photographing optical unit C2. Specifically, the control unit 18 determines the alignment state in the front-rear direction (Z direction) of the photographing optical unit C2 from the front eye portion observation image divided by the prism 63. When the upper half and the lower half of the observed image are displaced from each other as shown in FIG. 3A, it is determined that alignment is necessary. In this case, the drive control unit 201 controls the drive unit so that the photographing optical unit C2 moves in a direction in which the observation image does not shift as shown in FIG. 3 (b). Further, in the vertical and horizontal alignment, the drive control unit 201 detects the pupil center P0 from the front eye observation image, and the drive control unit 201 detects the pupil center P0 and positions it at the image center O of the two-dimensional image pickup element 65. To control. When the control unit 18 determines that the vertical and center positions of the anterior segment observation image coincide with the center of the image, or a deviation state within a predetermined range is obtained from the matching state, and the alignment is completed, the control unit 18 performs a flow. The process proceeds to step S502. Since the two-dimensional image sensor 65 and the image sensor 14 can perform image analysis independently, the automatic alignment operation described here is continued even after step S502.

ステップS502では、図4を用いて説明したフォーカス操作を実行してフォーカス合わせを行う。ステップS501でアライメントが終了した後、画像処理部17は、撮像素子14からの出力信号の解析を開始する。通常アライメントのみが終了した状態ではフォーカス合わせが最適ではないため、撮像素子14には、図4(a)に示すようにスプリット指標22a,22bが不一致状態の眼底画像が撮像される。そこで、駆動制御部201は、図4(b)に示すように、撮像素子14に撮像されるスプリット指標22a,22bが一直線になるようにフォーカスレンズ12を駆動制御する。制御部18は、アライメント及びフォーカス合わせが終了状態にあると判断したら、フローをS503に移行させる。 In step S502, the focus operation described with reference to FIG. 4 is executed to perform focusing. After the alignment is completed in step S501, the image processing unit 17 starts analyzing the output signal from the image sensor 14. Since the focusing is not optimal when only the normal alignment is completed, the image sensor 14 captures a fundus image in which the split indexes 22a and 22b do not match as shown in FIG. 4A. Therefore, as shown in FIG. 4B, the drive control unit 201 drives and controls the focus lens 12 so that the split indexes 22a and 22b imaged by the image sensor 14 are aligned. When the control unit 18 determines that the alignment and focusing are in the finished state, the control unit 18 shifts the flow to S503.

ステップS503では、駆動制御部201は、フォーカス指標投影部22を不図示の制御部モータにより光路L2上から退避させる。退避が完了した後、駆動制御部201は撮影用光源4を発行させる。これにより、被検眼Eの眼底Erの撮影が実行される。制御部18は、撮影が完了したと判断したら、フローをS504に移行させる。ステップS504では、表示制御部202により、撮影された眼底Erの画像が表示モニタ15に表示され、制御部18はフローをステップS505に移行させる。 In step S503, the drive control unit 201 retracts the focus index projection unit 22 from the optical path L2 by a control unit motor (not shown). After the evacuation is completed, the drive control unit 201 issues the photographing light source 4. As a result, the fundus Er of the eye E to be inspected is photographed. When the control unit 18 determines that the shooting is completed, the control unit 18 shifts the flow to S504. In step S504, the image of the fundus Er taken by the display control unit 202 is displayed on the display monitor 15, and the control unit 18 shifts the flow to step S505.

ステップS505では、後述する処理部220による撮影画像の写損の判断を行うことができる。しかし、本実施例では、表示モニタ15上に表示される撮影画像を観察したユーザーにより写損であるか否かが判断される。ユーザーは更に、操作入力部21等を介してその判断結果を制御部18に入力し、該判断結果は取得部210(情報取得部212)に取得される。具体的には、表示モニタ15上に撮影画像と複数の写損原因とを表示させ、ユーザーは例えばカーソル等を写損原因と思われる項目に合わせてマウスをクリックする等の操作を行うことでこの判断結果の入力を行うことができる。制御部18は、ユーザーによる写損でないと判断した際の入力を検出したら、フローをステップS506に移行させる。ステップS506では、制御部18は、撮影画像を保存用メモリ41に保存し、撮影処理を終了する。 In step S505, it is possible to determine the copying loss of the captured image by the processing unit 220 described later. However, in this embodiment, the user who observes the captured image displayed on the display monitor 15 determines whether or not the image is lost. The user further inputs the determination result to the control unit 18 via the operation input unit 21 or the like, and the determination result is acquired by the acquisition unit 210 (information acquisition unit 212). Specifically, the captured image and a plurality of causes of photo loss are displayed on the display monitor 15, and the user performs an operation such as moving the cursor or the like to an item that seems to be the cause of the photo loss and clicking the mouse. The judgment result can be input. When the control unit 18 detects an input when it is determined that there is no copying loss by the user, the control unit 18 shifts the flow to step S506. In step S506, the control unit 18 saves the captured image in the storage memory 41 and ends the photographing process.

また、制御部18は、ユーザーによる写損であると判断した際の入力を検出したら、フローをステップS507に移行させる。なお、上述したように、本実施例では、ユーザーは、写損と判断する場合には想定される写損原因についても操作入力部21を介して入力する。ここでは、表示モニタ15に例えば複数の写損原因が表示されることとし、ユーザーは表示モニタ15上に表示されるカーソル等を操作して写損原因を選択している。しかし、写損原因の選択方法はここに例示したものに限られず、複数の写損原因の中からユーザーが任意の写損原因を選択することができれば、その他の公知の方法を適用することができる。 Further, when the control unit 18 detects the input when it is determined that the photo loss is caused by the user, the control unit 18 shifts the flow to step S507. As described above, in the present embodiment, the user also inputs the possible cause of the copying loss when determining the copying loss via the operation input unit 21. Here, it is assumed that, for example, a plurality of causes of image loss are displayed on the display monitor 15, and the user selects the cause of image loss by operating a cursor or the like displayed on the display monitor 15. However, the method of selecting the cause of photo loss is not limited to the one illustrated here, and if the user can select an arbitrary cause of photo loss from among a plurality of causes of photo loss, other known methods may be applied. it can.

ユーザーは、写損原因に応じて撮影条件を変更して再撮影を行う。本実施例では、その際に、操作入力部21等を用いて手動で撮影条件を変更して再撮影を行うか、自動的に補正値を得て該補正値を用いて再撮影を行うかをユーザーが選択できる。ステップS507では、制御部18は、ユーザーにより手動操作の選択が入力されると、フローをステップS508に移行させ、再撮影時の撮影条件の設定を自動から手動で実行できるようにする。この場合、ユーザーは、例えば操作入力部21やジョイスティックC3を含めた各種入力手段を用いて撮影光学部C2を駆動し、駆動終了後に撮影開始釦を押下げて再撮影を開始させる。制御部18は、ユーザーにより撮影開始釦が押下されたことを検出したら、フローをステップS509に移行させる。ステップS509では、駆動制御部201により撮影用光源4を発光させて被検眼Eの眼底Erの撮影を行う。そして、制御部18は、撮影の完了に応じて、フローをステップS504に移行させる。 The user changes the shooting conditions according to the cause of the shooting loss and reshoots. In this embodiment, at that time, whether to manually change the shooting conditions using the operation input unit 21 or the like to perform re-shooting, or to automatically obtain a correction value and perform re-shooting using the correction value. Can be selected by the user. In step S507, when the user inputs a manual operation selection, the control unit 18 shifts the flow to step S508 so that the setting of the shooting conditions at the time of re-shooting can be manually executed from automatic. In this case, the user drives the photographing optical unit C2 by using various input means including, for example, the operation input unit 21 and the joystick C3, and presses the photographing start button after the driving is completed to start re-imaging. When the control unit 18 detects that the shooting start button has been pressed by the user, the control unit 18 shifts the flow to step S509. In step S509, the drive control unit 201 causes the photographing light source 4 to emit light to photograph the fundus Er of the eye E to be inspected. Then, the control unit 18 shifts the flow to step S504 according to the completion of shooting.

ステップS507において、制御部18は、自動操作の選択が入力されると、フローをステップS510に移行させる。ステップS510では、制御部18は、写損と判断された画像(以下、これを写損画像と記す)を入力データとして、学習済モデルを用いて補正値の出力を行う。より詳細には、選択部222が、ユーザーより入力された写損原因に応じて、記憶部213に記憶されている写損原因に応じた複数の学習済モデルから用いる学習済モデルを選択し、該学習済モデルに対して写損画像が入力される。出力部221は、選択された学習済モデルを用いて、写損画像から補正値を出力する。補正値が得られた後、制御部18はフローをS511に移行させる。 In step S507, when the selection of the automatic operation is input, the control unit 18 shifts the flow to step S510. In step S510, the control unit 18 outputs the correction value using the trained model with the image determined to be a copy loss (hereinafter, referred to as a copy loss image) as input data. More specifically, the selection unit 222 selects a trained model to be used from a plurality of trained models stored in the storage unit 213 according to the photo loss cause input by the user. A copy loss image is input to the trained model. The output unit 221 outputs a correction value from the captured image using the selected trained model. After the correction value is obtained, the control unit 18 shifts the flow to S511.

例えば、ユーザーにより写損原因が所謂フレアであると判断された場合には、撮影条件としてはWD(作動距離:撮影光学部C2と被検眼Eとの距離)が近すぎる或いは遠すぎることが考えられる。そのため、同じ被検眼を同じアライメント条件で再撮影すると、得られた画像には同じようにフレアが入ってしまう。このため、自動アライメントを行う際に、アライメントの状態の補正が必要になる。図3の説明で示したように、プリズム63により上下に分割された前眼像が一致することを、アライメント終了の判断条件としている。そこで、写損原因がフレアの場合は、この判断条件に対する補正値を出力部221が出力することで、写損とならない自動アライメントを可能にすることができる。 For example, when the user determines that the cause of the image loss is so-called flare, it is considered that the WD (operating distance: the distance between the imaging optical unit C2 and the eye E to be inspected) is too close or too far as the imaging condition. Be done. Therefore, if the same eye to be inspected is re-photographed under the same alignment conditions, the obtained image will have the same flare. Therefore, when performing automatic alignment, it is necessary to correct the alignment state. As shown in the description of FIG. 3, it is a condition for determining the end of alignment that the front eye images divided vertically by the prism 63 match. Therefore, when the cause of the copying loss is flare, the output unit 221 outputs a correction value for this determination condition, so that automatic alignment that does not cause the copying loss can be enabled.

また、例えば、ユーザーにより写損原因が所謂ピンボケであると判断された場合、フォーカスレンズ12が眼底Erに対して近すぎる或いは遠すぎることが考えられる。そのため、同じ被検眼を同じフォーカス条件で再撮影すると、得られた画像は同じようにピンボケの画像となってしまう。このため、自動フォーカスを行う際に、フォーカス状態の補正が必要になる。図4の説明で示したように、フォーカス指標投影部22によって被検眼の瞳上に投影されたスプリット指標22a,22bが一直線に並ぶことを、フォーカス操作終了の判断条件としている。そこで、写損原因がピンボケの場合は、この判断条件に対する補正値を出力部221が出力することで、写損とならない自動フォーカスを可能にすることができる。 Further, for example, when the user determines that the cause of the image loss is so-called out-of-focus, it is conceivable that the focus lens 12 is too close to or too far from the fundus Er. Therefore, if the same eye to be inspected is re-photographed under the same focus condition, the obtained image will be the same out-of-focus image. Therefore, it is necessary to correct the focus state when performing automatic focusing. As shown in the explanation of FIG. 4, it is a condition for determining the end of the focus operation that the split indexes 22a and 22b projected on the pupil of the eye to be inspected by the focus index projection unit 22 are aligned. Therefore, when the cause of the shooting loss is out of focus, the output unit 221 outputs a correction value for this determination condition, so that automatic focusing that does not cause the shooting loss can be enabled.

ステップS511では、制御部18は、出力された補正値に従って、自動的に撮影光学部C2或いはフォーカスレンズ12を駆動させる。制御部18は、駆動が完了したと判断したら、撮影用光源4を発光させて被検眼Eの眼底Erの撮影を行う。そして、フローをステップS504に移行させる。以降、ユーザーにより、再撮影して得られた画像が写損を有するか否かについての判断が、ステップS505において実行される。 In step S511, the control unit 18 automatically drives the photographing optical unit C2 or the focus lens 12 according to the output correction value. When the control unit 18 determines that the drive is completed, the control unit 18 causes the light source 4 for photographing to emit light to photograph the fundus Er of the eye E to be inspected. Then, the flow is shifted to step S504. After that, the user determines in step S505 whether or not the image obtained by re-shooting has a copying loss.

以上に説明したように、本実施例では、撮影された画像が写損を有するか否かと更には写損原因をユーザーが判断する。そして、写損画像を入力データとした学習済モデルを用いて、写損原因に対応した撮影光学部C2における撮影条件の補正値を出力している。これにより、ユーザーがある程度まで写損原因が判別可能であれば、熟練者ではなくとも写損状況に合わせた適切な補正値を導き出すことが可能となる。 As described above, in the present embodiment, the user determines whether or not the captured image has a copying loss and further, the cause of the copying loss. Then, using the trained model using the captured image as input data, the correction value of the photographing condition in the photographing optical unit C2 corresponding to the cause of the photographed loss is output. As a result, if the user can determine the cause of the photo loss to a certain extent, it is possible to derive an appropriate correction value according to the photo loss situation even if the user is not an expert.

なお、本実施例では、ステップS505における写損原因を含む写損判断を、ユーザーによる入力によって決定している。しかし、得られた画像のコントラスト等の画質を評価することにより、該写損判断を装置が自動で行ってもよい。また、ステップS507における手動選択を行うかどうかを事前に選択させてもよい。
また、ステップS510における学習済モデルから出力される補正値を、被検者毎に保存用メモリ41に保存し、当該被検者の次の撮影時に利用してもよい。
In this embodiment, the copying loss determination including the cause of the copying loss in step S505 is determined by input by the user. However, the apparatus may automatically perform the copying loss determination by evaluating the image quality such as the contrast of the obtained image. Further, it may be allowed to select in advance whether or not to perform the manual selection in step S507.
Further, the correction value output from the trained model in step S510 may be stored in the storage memory 41 for each subject and used at the next shooting of the subject.

<学習済モデルの生成>
次に、本実施例に係る学習済モデルの生成について説明する。なお、上述したように、本実施例における学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った学習モデルに対して、事前に適切な学習データを用いてトレーニングしたモデルである。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて実施例に係る学習モデルに適用することができる。学習済モデルとは、任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。教師データは、一つ以上の、入力データと出力データとのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。
<Generation of trained model>
Next, the generation of the trained model according to this embodiment will be described. As described above, the trained model in this embodiment is a model in which a learning model according to an arbitrary machine learning algorithm such as deep learning is trained in advance using appropriate learning data. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, a decision tree, and a support vector machine. In addition, deep learning (deep learning) in which features and coupling weighting coefficients for learning are generated by themselves using a neural network can also be mentioned. As appropriate, any of the above algorithms that can be used can be applied to the learning model according to the embodiment. The trained model is a model in which training (learning) is performed in advance using appropriate teacher data (learning data) for a machine learning model according to an arbitrary machine learning algorithm. However, the trained model does not require further learning, and additional learning can be performed. The teacher data is composed of one or more pairs of input data and output data. The format and combination of the input data and output data of the pair group that composes the teacher data may be one of which is an image and the other of which is a numerical value, or one of which is composed of multiple image groups and the other of which is a character string. May be an image or the like, which is suitable for a desired configuration.

以下、本実施例に係る学習済モデルを得る際のトレーニングに用いる学習データについて説明する。学習データは、実際に学習済モデルに入力されるデータに対応する入力データと、学習済モデルによって生成・出力されるデータに対応する出力データ(正解データ或いは教師データ)とのペアからなる。なお、学習データを教師データと称し、該教師データが入力データと出力データとのペアから構成されると称する場合もある。
本実施例では、学習データの入力データとして撮影画像を用いる。そして、学習データの出力データとして補正値を用いる。
Hereinafter, the learning data used for training when obtaining the trained model according to this embodiment will be described. The training data consists of a pair of input data corresponding to the data actually input to the trained model and output data (correct answer data or teacher data) corresponding to the data generated and output by the trained model. The training data may be referred to as teacher data, and the teacher data may be referred to as being composed of a pair of input data and output data.
In this embodiment, the captured image is used as the input data of the learning data. Then, the correction value is used as the output data of the learning data.

例えば、写損原因が所謂フレアである場合には、フレアが発生する理由として、WDが近すぎる或いは遠すぎることが考えられる。より詳細には、WDが近くなると照明光束が撮影光束と重なってしまう領域に角膜が入り、照明光の一部が角膜により反射し、この反射光が撮影光束に入り込んで角膜フレアが発生する。この角膜フレアは、照明光束の長波長側が撮影光束と重なるため、赤色となる。これに対し、WDが遠くなると照明光束が撮影光束と重なってしまう領域に水晶体後面が入り、照明光の一部が水晶体後面により反射し、この反射光が撮影光束に入り込んで水晶体フレアが発生する。この水晶体フレアは、照明光束の短波長側が撮影光束と重なるため、青色となる。このため、フレアの色に基づいて、WDが近すぎるために写損となったか、遠すぎるために写損となったかの判断ができる。 For example, when the cause of photo loss is so-called flare, the reason why flare occurs may be that the WD is too close or too far. More specifically, when the WD is approached, the cornea enters the region where the illumination light flux overlaps with the photographing light beam, a part of the illumination light is reflected by the cornea, and this reflected light enters the photographing light beam to generate corneal flare. This corneal flare turns red because the long wavelength side of the illumination luminous flux overlaps with the imaging luminous flux. On the other hand, when the WD is far away, the rear surface of the crystalline lens enters the region where the illumination light flux overlaps with the shooting light beam, and a part of the illumination light is reflected by the rear surface of the crystal body, and this reflected light enters the shooting light beam to cause lens flare. .. This crystalline lens flare becomes blue because the short wavelength side of the illumination luminous flux overlaps with the photographing luminous flux. Therefore, based on the color of the flare, it is possible to determine whether the WD is too close to cause a photo loss or the WD is too far to cause a photo loss.

そこで、WDが適切な位置(プリズム63により上下に分割された前眼像が一致している位置)から一定量だけWDを近づけて或いは遠ざけて撮影し、この撮影条件で、写損であるフレアを有した眼底画像を取得する。これによって撮影されたフレアを有した眼底画像を学習データの入力データ、適切な位置から撮影光学部C2を一定量だけ光路方向に移動させた位置の差分を補正値として、学習データの出力データとすることができる。また、更に撮影光学部C2の位置を一定量、変化させて複数の写損画像を得ることにより、複数の学習データの入力データと学習データの出力データのペア(以下、これを学習データペアと記す)を作成することができる。そして、作成した複数の学習データペアを用いてトレーニングすることにより、写損原因がフレアの場合用の学習済モデルが生成できる。 Therefore, the WD is photographed by moving the WD closer to or further away from an appropriate position (the position where the anterior eye images divided vertically by the prism 63 coincide with each other) by a certain amount, and under these shooting conditions, flare, which is a photo loss, is taken. Acquire a fundus image with. The image of the fundus with flare captured by this is used as the input data of the training data, and the difference between the positions where the photographing optical unit C2 is moved in the optical path direction by a certain amount from the appropriate position is used as the correction value, and the output data of the training data is used. can do. Further, by further changing the position of the photographing optical unit C2 by a certain amount to obtain a plurality of missed images, a pair of input data of a plurality of learning data and output data of the learning data (hereinafter, this is referred to as a learning data pair). (Note) can be created. Then, by training using the created plurality of training data pairs, it is possible to generate a trained model for the case where the cause of photo loss is flare.

例えば、写損原因が所謂ピンボケである場合には、ピンボケが発生する理由として、フォーカスレンズ12が眼底Erに近すぎる或いは遠すぎることが考えられる。しかし、眼底画像からは、フォーカスレンズ12が眼底Erに近いためにピンボケとなったか遠いためにピンボケになったかの判断は容易ではない。ここで、眼底Erが遠い例として、被検眼Eの眼軸長が長い場合が例示される。この場合、フォーカスレンズ12の位置により被検眼EのディオプターDを知ることで、眼軸長の推測を行うことができる。 For example, when the cause of the image loss is so-called out-of-focus, it is conceivable that the focus lens 12 is too close to or too far from the fundus Er as the reason for the out-of-focus. However, from the fundus image, it is not easy to determine whether the focus lens 12 is out of focus because it is close to the fundus Er and is out of focus because it is far from it. Here, as an example in which the fundus Er is distant, the case where the axial length of the eye E to be inspected is long is illustrated. In this case, the axial length can be estimated by knowing the diopter D of the eye to be inspected E from the position of the focus lens 12.

そこで、フォーカスレンズ12が適切な位置から一定量だけフォーカスレンズ12を近づける或いは遠ざけて撮影する。これにより写損であるピンボケを有した眼底画像と、その際のフォーカスレンズ12の光路上の適切な位置からのずれ量が取得できる。また、眼底Erが近いために生じたピンボケであるか遠いために生じたピンボケであるかは、ボケの態様において相違がある。より詳細には、フォーカスレンズ12が眼底Erに近い場合には、得られた眼底画像は、焦点位置となる箇所は暗くなるが、逆に周囲は少し明るくなり、その分だけ可視領域が広がる。更にフォーカスレンズ12が眼底Erに近づくと焦点位置だった箇所から暗くなり、最終的には周辺だけが見える領域として残る。また、フォーカスレンズ12が眼底Erに遠い場合には、得られた眼底画像は全体的に暗くなる。しかし、周辺も暗くなるため、可視領域は広がらない。更にフォーカスレンズ12が眼底Erから遠ざかると周りから暗くなり、最終的には焦点位置だけが見える領域として残る。このため、眼底画像Erの明暗の分布から、フォーカスレンズ12が眼底Erに近いためにピンボケとなっているか、遠いためにピンボケとなっているかを知ることができる。 Therefore, the focus lens 12 takes a picture by moving the focus lens 12 closer to or further away from an appropriate position by a certain amount. As a result, it is possible to obtain a fundus image having out-of-focus, which is a loss of image, and an amount of deviation from an appropriate position on the optical path of the focus lens 12 at that time. In addition, there is a difference in the mode of blurring whether the fundus is out of focus due to being close to the fundus Er or is out of focus due to being far away. More specifically, when the focus lens 12 is close to the fundus Er, the obtained fundus image becomes darker at the focal position, but conversely becomes slightly brighter at the periphery, and the visible region expands by that amount. Further, when the focus lens 12 approaches the fundus Er, it becomes darker from the position where the focal point was, and finally, only the periphery remains as a visible region. Further, when the focus lens 12 is far from the fundus Er, the obtained fundus image becomes dark as a whole. However, since the periphery is also darkened, the visible region does not expand. Further, when the focus lens 12 moves away from the fundus Er, it becomes dark from the surroundings, and finally, only the focal position remains as a visible region. Therefore, from the distribution of light and darkness of the fundus image Er, it is possible to know whether the focus lens 12 is out of focus because it is close to the fundus Er and is out of focus because it is far from it.

以上のことから、眼底画像を学習データの入力データ、フォーカスレンズ12を適切な位置から一定量だけ移動させた位置の差分である補正値を学習データの出力データとすることができる。また、更に、フォーカスレンズ12の光路上の位置を一定量、変化させることにより、複数の学習データペアを作成することができる。そして、作成した複数の学習データペアを用いてトレーニングすることにより、写損原因がピンボケの場合用の学習済モデルが生成できる。なお、眼底カメラの場合、最初の眼底撮影時のフォーカスレンズ12の位置から被検眼EのディオプターDを知ることができる。このディオプターDを参照することにより、眼底Erが近いために生じたピンボケであるか遠いために生じたピンボケであるかを確認することができる。 From the above, it is possible to use the fundus image as the input data of the learning data and the correction value which is the difference between the positions where the focus lens 12 is moved from the appropriate position by a certain amount as the output data of the learning data. Further, by changing the position of the focus lens 12 on the optical path by a certain amount, a plurality of learning data pairs can be created. Then, by training using the created plurality of training data pairs, it is possible to generate a trained model for the case where the cause of copying loss is out of focus. In the case of a fundus camera, the diopter D of the eye E to be inspected can be known from the position of the focus lens 12 at the time of the first fundus photography. By referring to this diopter D, it is possible to confirm whether the fundus is out of focus due to being close to the fundus Er or being out of focus due to being far away.

なお、上述した例では、撮影光学部C2或いはフォーカスレンズ12を一定量だけ移動させて場合についてのみ補正値を算出している。しかし、適切な位置から移動させずに撮影した画像とその補正値(差分=0)とを学習データペアとして用いることもできる。当該学習データペアを用いて学習済モデルをトレーニングすることにより、学習精度を上げることが可能である。また、白内障による眼底不明瞭等、疾患眼における学習データペアは上述した方法では作成することができない。そのため、このような写損を有する画像に対応するための学習済モデルの生成には、疾患眼を撮影して写損と判断された眼画像と、その時の再撮影位置から算出される補正値とを、学習データペアとして用いる。 In the above-mentioned example, the correction value is calculated only when the photographing optical unit C2 or the focus lens 12 is moved by a certain amount. However, an image taken without moving from an appropriate position and its correction value (difference = 0) can also be used as a learning data pair. By training the trained model using the training data pair, it is possible to improve the training accuracy. In addition, learning data pairs for diseased eyes such as fundus indistinct due to cataract cannot be created by the above method. Therefore, in order to generate a trained model for corresponding to an image having such image loss, a correction value calculated from an eye image determined to be image loss by photographing a diseased eye and a re-imaging position at that time is used. Is used as a training data pair.

なお、上述した実施例では、写損原因をユーザーが入力することとし、入力データには写損画像のみを用いることとしている。しかし、入力データの数は1つ以上であればよく、適宜選択可能である。例えば、学習データの入力データとして前眼部の画像、眼圧値、眼軸長等の被検眼に関する更なるデータを追加することもできる。ただし、学習済モデル作成時の入力データ(学習データの入力データ)の数及び種類と、学習済モデル使用時の入力データの数及び種類は同一である必要がある。また、例えば上述した疾患眼等の場合、用いた眼科装置では適切な画像が得られない場合も想定される。このような画像の場合、学習済モデルの出力として、例えば補正不可、若しくは補正無しといった出力を設定しておいてもよい。 In the above-described embodiment, the user inputs the cause of the copy loss, and only the copy loss image is used as the input data. However, the number of input data may be one or more and can be appropriately selected. For example, further data related to the eye to be inspected such as an image of the anterior segment of the eye, an intraocular pressure value, and an axial length can be added as input data of training data. However, the number and type of input data (input data of training data) at the time of creating the trained model and the number and type of input data at the time of using the trained model must be the same. Further, for example, in the case of the above-mentioned diseased eye, it is assumed that an appropriate image cannot be obtained by the ophthalmic apparatus used. In the case of such an image, as the output of the trained model, for example, an output such as no correction or no correction may be set.

学習済モデルは、事前に眼底カメラCを用いて学習させたものをそのまま用いてもよいし、使用しながら学習済モデルの更新(追加学習)をしてもよい。具体的には、撮影画像が写損と判断され、手動で位置調整、再撮影を行った場合、写損と判断された撮影画像を学習データの入力データとする。また、例えば写損時のフォーカスレンズ12の撮影時の光路上の位置と、再撮影時の光路上の位置から算出した補正値を学習データの出力データとする。そして、当該学習データペアを用いて追加学習を行う。また、追加学習は被検者毎に行ってもよく、その場合、当該被検者用の学習済モデルが生成される。 As the trained model, the one trained in advance using the fundus camera C may be used as it is, or the trained model may be updated (additional learning) while using it. Specifically, when the captured image is determined to be a copy loss and the position is manually adjusted and re-photographed, the captured image determined to be a copy loss is used as the input data of the learning data. Further, for example, the correction value calculated from the position on the optical path of the focus lens 12 at the time of shooting loss and the position on the optical path at the time of re-shooting is used as the output data of the learning data. Then, additional learning is performed using the learning data pair. Further, additional learning may be performed for each subject, in which case a trained model for the subject is generated.

ここで、本実施例における機械学習モデルであるCNN(Convolutional Neural Network)について説明する。図6は、CNNの構造を示す概略図である。CNNは入力データを加工して出力する複数の層群によって構成される。複数の層群の種類としては、Convolution(畳み込み)層601、Activation(活性化)層602、Pooling(ダウンサンプリング)層603、全結合層604、及び出力層605がある。 Here, a CNN (Convolutional Neural Network), which is a machine learning model in this embodiment, will be described. FIG. 6 is a schematic view showing the structure of CNN. CNN is composed of a plurality of layers that process and output input data. Types of the plurality of groups include Convolution layer 601, Activation layer 602, Pooling layer 603, Fully connected layer 604, and Output layer 605.

Convolution層601は、設定されたフィルタのカーネルサイズ、フィルタ数、ストライド値、およびダイレーション値等のパラメータに従い、入力群に対いて畳み込み処理を行う層である。なお、フィルタのカーネルサイズを入力画像の次元数に応じて変更する構成にしてもよい。Activation層602は、入力信号の総和の活性化について決定し、ステップ関数、シグモイド関数、ReLU(Rectified Linear Unit)等で構成される。Pooling層603は、例えばMax Pooling処理等、入力値群を間引いたり合成したりすることによって、出力値群の数を入力値群の数より少なくする処理を行う層である。全結合層604は、これまでの処理を通して特徴部分が取り出された画像のデータを一つに結合し、活性化関数によって変換された値を出力する層である。 The Convolution layer 601 is a layer that performs convolution processing on the input group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The kernel size of the filter may be changed according to the number of dimensions of the input image. The Activation layer 602 determines the activation of the total sum of the input signals, and is composed of a step function, a sigmoid function, a ReLU (Rectifier Line Unit), and the like. The Pooling layer 603 is a layer that performs a process such as Max Pooling process in which the number of output value groups is reduced from the number of input value groups by thinning or synthesizing the input value groups. The fully connected layer 604 is a layer that combines the image data from which the feature portion has been extracted through the processing so far into one and outputs the value converted by the activation function.

学習済モデルの生成に際しては、入力データとしての画像と、出力データとしての補正値とからなる学習データが用いられる。そして、実際に学習済モデルに画像を入力した場合、出力層605からは、入力された画像について、先の出力データで用いた複数の補正値の各々の値となる確率が出力される。より詳細には、学習データにおいて出力データとして用いた複数の補正値の各々について、学習済モデルに入力された画像に対応する補正値となる可能性が各々の補正値の例えば確率として出力される。出力部221は、これら出力された確率を参照して、最終的に出力する補正値を決定する。例えば、出力される補正値は、個々の補正値となる確率の相対的な大きさに基づき、最も確率の大きくなる補正値が最終的に出力される補正値として決定され、出力部221より出力される。或いは、例えば出力層605から出力された各補正値について、その確率により重み付けをして加算平均する等の演算を実行して得られた補正値を、最終的な補正値として出力部221から出力することもできる。本実施例の場合、出力部221において、このような処理を実行することにより、画像を入力データとした場合であっても数値としての出力データを得ることが可能となる。なお、最終的に出力層605から出力される補正値は、全結合層604を補正値出力のための最適値演算を行う構成にすることもできる。 When generating the trained model, training data consisting of an image as input data and a correction value as output data is used. Then, when an image is actually input to the trained model, the output layer 605 outputs the probability that the input image will be the value of each of the plurality of correction values used in the previous output data. More specifically, for each of the plurality of correction values used as output data in the training data, the possibility of becoming the correction value corresponding to the image input to the trained model is output as, for example, the probability of each correction value. .. The output unit 221 determines the correction value to be finally output with reference to these output probabilities. For example, the output correction value is determined as the correction value to be finally output based on the relative magnitude of the probabilities of the individual correction values, and is output from the output unit 221. Will be done. Alternatively, for example, each correction value output from the output layer 605 is weighted according to its probability, and the correction value obtained by performing an calculation such as addition averaging is output from the output unit 221 as the final correction value. You can also do it. In the case of this embodiment, by executing such a process in the output unit 221, it is possible to obtain the output data as a numerical value even when the image is used as the input data. The correction value finally output from the output layer 605 may be configured such that the fully coupled layer 604 performs the optimum value calculation for the correction value output.

学習済モデルにデータを入力すると、学習済モデルの設計に従ったデータが出力される。例えば、学習データを用いてトレーニングされた傾向に従って、入力されたデータに対応する可能性の高いデータが出力される。本実施例では、上述した学習データによってトレーニングされた学習済モデルに写損時の画像を入力すると、写損を低減できる可能性の高い補正値が出力される。 When data is input to the trained model, the data according to the design of the trained model is output. For example, data that is likely to correspond to the input data is output according to the tendency trained using the training data. In this embodiment, when an image at the time of copying loss is input to the trained model trained by the training data described above, a correction value having a high possibility of reducing copying loss is output.

なお、本実施例において出力部221で用いられる学習済モデルは、処理部220或いは制御部18において用いられてもよい。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、処理部220或いは制御部18と接続される別のサーバの装置等で用いられてもよい。この場合には、処理部220或いは制御部18は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。 The trained model used in the output unit 221 in this embodiment may be used in the processing unit 220 or the control unit 18. The trained model may be composed of, for example, a CPU, a software module executed by a processor such as an MPU, GPU, or FPGA, or a circuit or the like that performs a specific function such as an ASIC. Further, these trained models may be used in a device of another server connected to the processing unit 220 or the control unit 18. In this case, the processing unit 220 or the control unit 18 can use the trained model by connecting to a server or the like provided with the trained model via an arbitrary network such as the Internet. Here, the server provided with the trained model may be, for example, a cloud server, a fog server, an edge server, or the like.

なお、本実施例において、処理部220は予め得られている学習済モデルを用いる出力部221を有する態様について述べている。しかし、処理部220において、学習済モデルを生成するための学習部を設けることもできる。該学習部は、上述した入力データ及び出力データを入力することにより、処理部で用いる学習済モデルを生成できる。また、この場合、該学習部は、誤差検出部と、更新部と、を備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算するようにしてもよい。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 In this embodiment, the processing unit 220 has an output unit 221 that uses a trained model obtained in advance. However, the processing unit 220 may be provided with a learning unit for generating a trained model. The learning unit can generate a trained model to be used in the processing unit by inputting the above-mentioned input data and output data. Further, in this case, the learning unit may include an error detecting unit and an updating unit. The error detection unit obtains an error between the output data output from the output layer of the neural network and the teacher data according to the input data input to the input layer. The error detection unit may use the loss function to calculate the error between the output data from the neural network and the teacher data. Based on the error obtained by the error detection unit, the update unit updates the coupling weighting coefficient and the like between the nodes of the neural network so that the error becomes small. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error backpropagation method is a method of adjusting the coupling weighting coefficient between the nodes of each neural network so that the above error becomes small.

また、本実施例では、眼底カメラCに含まれる制御部18として、制御部18について説明している。しかし、これら構成、更には制御部18に含まれる諸構成が相互に通信が可能な2以上の装置によって構成されてもよいし、単一の装置によって構成されてもよい。また、制御部18の各構成要素は、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、他の任意のハードウェアと任意のソフトウェアとの組み合わせにより構成されてもよい。なお、GPUはデータをより多く並列処理することで効率的な演算を行うことができることから、ディープラーニングのような学習データを用いて複数回にわたり学習を行う場合にこれを用いることが有効である。 Further, in this embodiment, the control unit 18 is described as the control unit 18 included in the fundus camera C. However, these configurations and various configurations included in the control unit 18 may be configured by two or more devices capable of communicating with each other, or may be configured by a single device. Further, each component of the control unit 18 may be composed of a software module executed by a processor such as a CPU, MPU, GPU, or FPGA. In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC. Further, it may be configured by a combination of any other hardware and any software. Since the GPU can perform efficient calculations by processing more data in parallel, it is effective to use this when learning is performed a plurality of times using learning data such as deep learning. ..

上述したように、本実施例1に係る眼科装置は、撮影光学部C2と、駆動手段(駆動部C4)と、制御手段(制御部18)と、入力手段(操作入力部21)と、該制御部18における出力手段(出力部221)とを備える。撮影光学部C2は、被検眼Eの眼底画像を撮影する構成として、上述した各種光学部材を有する。駆動制御部201は、撮影光学部C2が有するフォーカスレンズ12等の各種の駆動制御される光学部材を駆動する第二の駆動部を制御する。駆動部C4(第一の駆動部)は、例えばパルスモータ等から構成されて撮影光学部C2の位置を被検眼Eに対してXYZの3軸方向に駆動させる。入力手段は、例えば表示モニタ15に表示されるGUI等から構成されることができ、ユーザーによる撮影画像における写損の有無や写損原因の入力を受け付ける。制御部18は、撮影光学部C2に含まれるフォーカスレンズ12等の光学部材及び駆動部C4と接続されてこれらを制御する。出力部221は、入力された写損の原因(或いは写損の有無を含めた写損に関する情報)に基づいて、複数の学習済モデルの内から、入力された写損に関する情報に対応する学習済モデルを選択する。そして、出力部221は撮影された被検眼Eの眼底画像から、選択された学習済モデルを用いて、写損が低減された眼底画像を再撮影するためのフォーカスレンズ12等と駆動部C4との少なくとも何れかの制御値(補正値)を出力できる。なお、出力部221が行う工程は、例えば制御値を出力する工程として、眼科装置の制御方法の一工程(写損原因を入力する工程、及び制御値を出力する工程)を構成することもできる。 As described above, the ophthalmic apparatus according to the first embodiment includes a photographing optical unit C2, a driving means (driving unit C4), a control means (control unit 18), an input means (operation input unit 21), and the like. It includes an output means (output unit 221) in the control unit 18. The photographing optical unit C2 has the above-mentioned various optical members as a configuration for capturing a fundus image of the eye E to be inspected. The drive control unit 201 controls a second drive unit that drives various drive-controlled optical members such as the focus lens 12 included in the photographing optical unit C2. The drive unit C4 (first drive unit) is composed of, for example, a pulse motor or the like, and drives the position of the photographing optical unit C2 with respect to the eye E to be inspected in the three axes of XYZ. The input means can be composed of, for example, a GUI displayed on the display monitor 15, and accepts input by the user regarding the presence or absence of photo loss and the cause of photo loss in the captured image. The control unit 18 is connected to an optical member such as a focus lens 12 and a drive unit C4 included in the photographing optical unit C2 to control them. The output unit 221 learns corresponding to the input information on the photo loss from among a plurality of trained models based on the cause of the input photo loss (or information on the photo loss including the presence or absence of the photo loss). Select a completed model. Then, the output unit 221 includes a focus lens 12 and the like and a drive unit C4 for re-imaging the fundus image with reduced photo loss using the learned model selected from the photographed fundus image of the eye E to be inspected. At least one of the control values (correction values) can be output. The step performed by the output unit 221 can also constitute, for example, one step of the control method of the ophthalmic apparatus (a step of inputting the cause of copying loss and a step of outputting the control value) as a step of outputting the control value. ..

なお、上述した眼科装置においては、図5のフローチャートのように、再撮影を行う際のフォーカスレンズ12等と駆動部C4との少なくとも何れかの制御を、自動制御で実行するか、ユーザーからの指示に応じて実行するかを選択できる。この選択は、選択手段を構成する操作入力部21、例えば表示モニタ15に表示されるGUI等を介して実行することができる。また、ユーザーからの指示に応じた再撮影を選択した場合、GUI等を介して入力されたフォーカスレンズ12等と駆動部C4との新たな補正値を得ることができる。なお、再撮影前の画像とその際に判定された写損原因とを入力データとし、得られた補正値を出力データとする学習データを用いることによって、得られている学習済モデルに対して追加学習を行ってもよい。この追加学習は、例えば出力部221内に学習モデルを生成する手段としての構成(GPU等)を更に設け、当該構成によって実行されることができる。 In the above-mentioned ophthalmic apparatus, as shown in the flowchart of FIG. 5, at least one of the control of the focus lens 12 and the like and the drive unit C4 at the time of re-imaging is automatically controlled or is controlled by the user. You can choose to execute according to the instructions. This selection can be executed via an operation input unit 21 that constitutes the selection means, for example, a GUI displayed on the display monitor 15. Further, when re-shooting is selected according to the instruction from the user, a new correction value between the focus lens 12 or the like and the drive unit C4 input via the GUI or the like can be obtained. For the trained model obtained by using the training data in which the image before re-shooting and the cause of the copying loss determined at that time are used as input data and the obtained correction value is used as output data. Additional learning may be performed. This additional learning can be executed by, for example, further providing a configuration (GPU or the like) as a means for generating a learning model in the output unit 221.

また、写損原因として、上述した実施例ではその一態様としてピンボケについて述べた。写損原因がピンボケであると判定された場合、ピンボケは、例えば合焦部材として例示しているフォーカスレンズ12の光路上(光路L4上)の配置に起因する。このことから、再撮影時には該フォーカスレンズ12の光路L4上の配置が調整される。具体的には、出力部221は、補正値(制御値)として、最初の撮影時の光路L4上の位置(第一の位置)から再撮影時の位置(第二の位置)へフォーカスレンズ12を移動させる移動量を出力する。なお、上述したように、ピンボケの態様によってフォーカスレンズ12を移動させる光路L4上の方向を判定することができる。その際、被検眼Eの形状情報や過去の診断情報、例えばディオプターを参照することで、フォーカスレンズ12が眼底Erに対して近すぎるためにピンボケとなっているか遠すぎるからピンボケになっているかを確認することもできる。 Further, as a cause of copying loss, out-of-focus was described as one aspect of the above-described embodiment. When it is determined that the cause of the image loss is out-of-focus, the out-of-focus is caused by, for example, the arrangement of the focus lens 12 exemplified as the focusing member on the optical path (on the optical path L4). For this reason, the arrangement of the focus lens 12 on the optical path L4 is adjusted at the time of re-imaging. Specifically, the output unit 221 sets the focus lens 12 as a correction value (control value) from the position on the optical path L4 at the time of the first shooting (first position) to the position at the time of re-shooting (second position). Outputs the amount of movement to move. As described above, the direction on the optical path L4 for moving the focus lens 12 can be determined depending on the mode of out-of-focus. At that time, by referring to the shape information of the eye E to be inspected and the past diagnostic information, for example, the diopter, it can be determined whether the focus lens 12 is out of focus because it is too close to the fundus Er and is out of focus because it is too far away. You can also check.

また、写損原因がフレアと判定された場合、フレアは、例えば撮影光学部C2と被検眼Eとの距離であるWDに起因する。このことから、再撮影時には、撮影光学部C2と被検眼Eとの光路L3上の距離が調整される。具体的には、出力部221は、補正値(制御値)として、最初の撮影時の光路L3上の位置(第一の位置)から再撮影時の位置(第二の位置)へ撮影光学部C2を移動させる移動量を出力する。また、上述したように、フォーカスレンズ12の位置が被検眼Eに近すぎるか遠すぎるかは、フレアが赤みを帯びている(含む)か青みを帯びている(含む)かで判断できる。従って、出力部221は、入力された眼底画像のこの色に基づいて、第一の位置から第二の位置に移動させる際の移動量の正負の判定を行うことができる。 When the cause of the image loss is determined to be flare, the flare is caused by, for example, WD, which is the distance between the photographing optical unit C2 and the eye E to be inspected. Therefore, at the time of re-imaging, the distance between the photographing optical unit C2 and the eye E to be examined on the optical path L3 is adjusted. Specifically, the output unit 221 sets the correction value (control value) from the position on the optical path L3 at the time of the first shooting (first position) to the position at the time of re-shooting (second position). The amount of movement that moves C2 is output. Further, as described above, whether the position of the focus lens 12 is too close to or too far from the eye E to be inspected can be determined by whether the flare is reddish (included) or bluish (included). Therefore, the output unit 221 can determine the positive or negative of the movement amount when moving from the first position to the second position based on this color of the input fundus image.

なお、上述した実施例では、写損原因としてフレアとピンボケとを例として述べている、しかし、写損原因には、例えば撮影時の被検眼の瞬きによるものや、白内障等の疾病によるものや、露光不足等も含まれる。瞬きにより撮影画像が写損となった場合には、撮影条件としては適切であるが、撮影のタイミング的に問題があっただけであることから、同じ条件で撮影することが好ましい。従って、写損が瞬きに起因すると判断される、或いはこの判断結果が出力された場合には、再撮影の制御値としてゼロ(被検眼Eを撮影した際の制御状態に対する補正値がゼロ)が出力されるとよい。また、白内障等の疾病に起因して撮影画像が写損となった場合には、被検眼の曇り等によって撮影条件を変えても適当な画像を撮影することが困難な場合もおこり得る。このように、写損の原因は、眼科装置の被検眼に対する制御状態によるものではなく、瞬きや白内障等の被検眼の状態に起因する場合もある。このように、写損が被検眼の状態に起因する場合、学習済モデルは制御値を出力せずに、適当な制御値が存在しないとの情報を出力する、或いは元の撮影条件での撮影が適当であるとして制御値ゼロを出力するとよい。更に、写損原因として、被検眼の状態が入力された場合、制御部18は、学習済モデルを用いずに、直接制御値としてゼロを出力する態様とすることもできる。また、露光不足等による場合には、学習済モデルは露光時間や撮影用光源4の光量に関する制御値を出力することができる。 In the above-described embodiment, flare and out-of-focus are described as examples of the causes of the image loss. However, the causes of the image loss include, for example, blinking of the eye to be inspected at the time of photographing, or a disease such as cataract. , Underexposure, etc. are also included. When the photographed image is lost due to blinking, it is appropriate as an imaging condition, but it is preferable to photograph under the same conditions because there is only a problem in the timing of photographing. Therefore, when it is determined that the image loss is caused by blinking, or when this determination result is output, the control value for re-imaging is zero (the correction value for the control state when the eye E to be inspected is photographed is zero). It should be output. In addition, when the captured image is lost due to a disease such as cataract, it may be difficult to capture an appropriate image even if the imaging conditions are changed due to cloudiness of the eye to be inspected or the like. As described above, the cause of the image loss is not due to the control state of the ophthalmic apparatus for the eye to be inspected, but may be due to the state of the eye to be inspected such as blinking or cataract. In this way, when the image loss is caused by the condition of the eye to be inspected, the trained model does not output the control value, but outputs the information that an appropriate control value does not exist, or shoots under the original shooting conditions. Is appropriate, and the control value of zero should be output. Further, when the state of the eye to be inspected is input as the cause of image loss, the control unit 18 may directly output zero as a control value without using the trained model. Further, in the case of insufficient exposure or the like, the trained model can output control values related to the exposure time and the amount of light of the photographing light source 4.

なお、上述した写損原因に対処するためには、これら写損原因の各々に対応した学習済モデルを予め生成しておくとよい。この学習済モデルの生成に際しては、写損原因に対応する写損を有する画像を入力データとし、例えば同じ条件での撮影や制御値を出力しないといった結果を出力データに加えるとよい。制御部18は、出力部221により出力された制御値を用いて、撮影された被検眼Eについての再撮影を行うことができる。また、再撮影時において、ユーザーが手動操作によって撮影条件の変更を行う可能性がある。このことから、出力部221が出力した制御値は、表示モニタ15(表示手段)に写損原因と対応させて表示されるように、表示制御部202(表示制御手段)が表示形態を制御するとよい。更に、例えばこの被検者の被検眼Eを後日撮影する場合においては、この制御値を再度用いることが好ましいことが想定される。このため、出力された制御値は制御部18に配される記憶部213や外部記憶装置等の、出力された制御値を保存する保存手段に保存或いは記憶されることが望ましい。そして、眼底カメラCにより該被検眼Eの再撮影を行う際には、制御部18は、この保存された制御値を用いて、撮影光学部C2に含まれる光学部材及び駆動部C4を制御する。 In order to deal with the above-mentioned causes of copying loss, it is advisable to generate a trained model corresponding to each of these causes of copying loss in advance. When generating this trained model, it is advisable to use an image having a copying loss corresponding to the cause of the copying loss as input data, and add a result such as shooting under the same conditions or not outputting a control value to the output data. The control unit 18 can re-photograph the photographed eye E using the control value output by the output unit 221. Further, at the time of re-shooting, the user may manually change the shooting conditions. From this, when the display control unit 202 (display control means) controls the display form so that the control value output by the output unit 221 is displayed on the display monitor 15 (display means) in correspondence with the cause of the copying loss. Good. Further, for example, when the subject's eye E to be examined is photographed at a later date, it is assumed that it is preferable to use this control value again. Therefore, it is desirable that the output control value is stored or stored in a storage means for storing the output control value, such as a storage unit 213 or an external storage device arranged in the control unit 18. Then, when the fundus camera C re-photographs the eye E to be inspected, the control unit 18 controls the optical member and the drive unit C4 included in the photographing optical unit C2 by using the stored control values. ..

以上の構成を有することにより、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であって仮に写損原因がある程度まで判別できるが適切な再撮影の条件を設定できない場合であっても、自動の再撮影を行うことで診断に適切な眼底画像を得ることができる。なお、上述した写損原因は例示であり、その他の、露光不足等の公知の種々の写損原因とその補正値についても、同様に写損を有する画像を生成し、これらを入力データとして用いることでこの写損原因に対応した学習済モデルを得ることができる。 With the above configuration, re-shooting can be performed under shooting conditions according to the situation of shooting loss. As a result, even if the user is immature and the cause of the image loss can be determined to some extent, but appropriate re-imaging conditions cannot be set, automatic re-imaging is performed to obtain a fundus image suitable for diagnosis. be able to. It should be noted that the above-mentioned causes of image loss are examples, and for other known causes of image loss such as underexposure and their correction values, images having image loss are similarly generated and used as input data. Therefore, a trained model corresponding to the cause of this copying loss can be obtained.

[変形例1]
上述した実施例1では、写損原因をユーザーが選択し、入力している。そして、処理部220において選択部222が入力された写損原因に応じた学習済モデルを選択し、該学習済モデルに対して写損画像を入力する場合について述べた。しかし、例えば集団検診等ではユーザーの熟練度が低く、写損原因を判別しきれないことも考えられる。本変形例では、そのような場合についての対応を目的としている。なお、本変形例では、眼底カメラCの構成については処理部220において選択部222が除かれる以外には実施例1で説明した構成と差異がないため、ここでの更なる構成についての説明は割愛する。以下では、処理部220で実行される処理、及びその際に用いられる学習済モデルについて説明する。
[Modification 1]
In the first embodiment described above, the user selects and inputs the cause of the copying loss. Then, the case where the selection unit 222 selects the trained model according to the input cause of the photo loss in the processing unit 220 and inputs the photo loss image to the trained model has been described. However, for example, in mass examinations, the skill level of users is low, and it is possible that the cause of photo loss cannot be determined. The purpose of this modification is to deal with such a case. In this modified example, the configuration of the fundus camera C is the same as the configuration described in the first embodiment except that the selection unit 222 is removed in the processing unit 220. Omit. Hereinafter, the processing executed by the processing unit 220 and the trained model used at that time will be described.

本実施例で用いる学習済モデルは、撮影された眼底画像を入力データとし、該眼底画像が写損を有するか否かと、写損を有する場合にはその写損原因とを出力データとしたペアからなる学習データによりトレーニングされる。また、実施例1で述べた処理部は、本変形例では選択部222を有さず、出力部221のみを有する。実際の眼底撮影時において、本変形例では、撮影された眼底画像が学習済モデルに入力されて、該学習済モデルから写損を有するか否か、及び写損を有する場合にはその写損原因が出力される。これにより、ユーザーが眼底画像の撮影に未熟であっても、撮影された眼底画像についての写損の有無やその原因を知ることが可能となる。 The trained model used in this embodiment is a pair in which the captured fundus image is used as input data, and whether or not the fundus image has photo loss and, if so, the cause of the photo loss is used as output data. It is trained by learning data consisting of. Further, the processing unit described in the first embodiment does not have the selection unit 222 in this modification, but has only the output unit 221. At the time of actual fundus photography, in this modified example, whether or not the photographed fundus image is input to the trained model and has a photo loss from the trained model, and if there is a photo loss, the photo loss. The cause is output. As a result, even if the user is inexperienced in capturing the fundus image, it is possible to know whether or not there is a copying loss in the captured fundus image and the cause thereof.

本変形例は、集団検診等において、例えば図5に示した撮影処理のフローにおいて、ステップS505でユーザーにより判断及び入力が行われた写損の判断を、処理部220により実行することができる。実際の眼底画像の撮影時では、例えば図5に示したステップS504で表示された眼底画像が処理部220における学習済モデルに入力されることができる。出力部221は、この学習済モデルから、撮影した眼底画像の写損の有無や写損原因についての情報を出力する。この場合、上述した出力層605(図6参照)からは、画像に対応する写損原因となる割合等の値が出力され、出力部221は、出力層605から出力された値を用いて決定された写損原因を出力する。また、本実施例において、学習済モデルは、撮影された眼底画像が写損を有していないことを出力できる。これにより、未熟なユーザーは写損の有無の判断を自身で行う必要が無くなり、診断に適切な画像が得られているか否かを眼科装置から知ることができ、不用な再撮影を行わずに画像を保存することができる。なお、上述した処理部220による写損の判断は、ステップS505の代わりに、ステップS505でユーザーにより判断された後に実行されてもよい。これにより、例えば、ユーザーが写損ありと判断したとしても、処理部220が写損なしと判断した場合には、無駄な再撮影を避けることができる。また、例えば、ユーザーが写損なしと判断したとしても、処理部220が写損ありと判断した場合には、効率的に再撮影を実行することができる。このとき、ユーザーの判断結果と処理部220の判断結果とが異なる場合に、処理部220の判断結果が表示されることで、例えば、効率的に撮影処理を進めることができる。また、ユーザーは、眼底画像が写損を有するものであるか判別できない場合、ステップS505において写損を有するとして、学習済モデルによる上述した写損の有無の判定を行ってもよい。或いは、フローをステップS510に移行させて補正無しとの判定(補正値=0)を出力させることもできる。これらの場合、フローを更にステップS506に移行する処理順序とすることにより、ユーザーが写損の有無の判断に迷った場合であっても、該写損の有無の判断を的確に行い、不要な再撮影を避けて被検者の負担を低減することができる。 In this modified example, in a mass examination or the like, for example, in the flow of the photographing process shown in FIG. 5, the processing unit 220 can execute the determination and input of the copying loss performed by the user in step S505. At the time of taking an actual fundus image, for example, the fundus image displayed in step S504 shown in FIG. 5 can be input to the trained model in the processing unit 220. The output unit 221 outputs information on the presence or absence of image loss and the cause of the image loss of the photographed fundus image from this trained model. In this case, the output layer 605 (see FIG. 6) described above outputs a value such as a ratio that causes image loss corresponding to the image, and the output unit 221 determines using the value output from the output layer 605. Output the cause of the lost image. Further, in the present embodiment, the trained model can output that the captured fundus image does not have a copying loss. This eliminates the need for an inexperienced user to judge whether or not there is a photo loss by himself, and allows the ophthalmologic device to know whether or not an image suitable for diagnosis is obtained, without unnecessary re-imaging. Images can be saved. The determination of copying loss by the processing unit 220 described above may be executed after the determination by the user in step S505 instead of step S505. As a result, for example, even if the user determines that there is a copying loss, if the processing unit 220 determines that there is no copying loss, unnecessary re-shooting can be avoided. Further, for example, even if the user determines that there is no copying loss, if the processing unit 220 determines that there is a copying loss, re-shooting can be efficiently executed. At this time, when the judgment result of the user and the judgment result of the processing unit 220 are different, the judgment result of the processing unit 220 is displayed, so that the shooting process can be efficiently advanced, for example. Further, when it is not possible to determine whether the fundus image has a photo loss, the user may determine in step S505 whether or not the fundus image has the above-mentioned photo loss by assuming that the image has a photo loss. Alternatively, the flow can be shifted to step S510 to output a determination (correction value = 0) that there is no correction. In these cases, by further shifting the flow to step S506, even if the user is uncertain about the presence or absence of copying loss, the presence or absence of the copying loss can be accurately determined, which is unnecessary. It is possible to avoid re-imaging and reduce the burden on the subject.

より詳細には、学習データにおける出力データは、複数の写損に関する情報として、写損の原因や写損の有無といった情報を含む。出力データは、入力データとして用いた眼底画像が、これら写損に関する情報の何れかに対応するであろう割合、或いは何れかに割り振られる確率等の値が含まれる。従って、該学習済モデルからは、入力された画像から、例えば写損の原因の各々について、該入力された画像に対応する例えば割合等の値が出力される。出力部221は、これら出力された値を参照して、最終的に出力する写損原因を決定する。例えば、出力される写損原因として、個々の値となる割合の相対的な大きさから、最も割合の大きくなる写損原因が決定され、出力部221より出力される。例えば、上述した実施例1における以降の処理を行おうとした場合、写損であるとの情報が出力されると、制御部18によりフローをステップS507に移行することが考えられる。これにより、以降上述したステップS508〜S511の処理を実行することができる。 More specifically, the output data in the training data includes information such as the cause of the copying loss and the presence / absence of the copying loss as information on a plurality of copying losses. The output data includes a value such as the ratio at which the fundus image used as the input data will correspond to any of the information regarding the copying loss, or the probability that the image is allocated to any of them. Therefore, from the trained model, values such as a ratio corresponding to the input image are output from the input image, for example, for each of the causes of copying loss. The output unit 221 refers to these output values to determine the cause of the image loss that is finally output. For example, as the output cause of copying loss, the cause of copying loss having the largest proportion is determined from the relative magnitude of the proportions that are individual values, and is output from the output unit 221. For example, when the subsequent processing in the first embodiment described above is to be performed and the information that the copying is lost is output, it is conceivable that the control unit 18 shifts the flow to step S507. As a result, the processes of steps S508 to S511 described above can be executed.

本変形例に係る眼科装置は、撮影光学部C2と、駆動部C4と、制御部18と、該制御部18における出力手段(出力部221)とを備える。撮影光学部C2は、被検眼Eの眼底画像を撮影する構成として、上述した各種光学部材を有する。この各種光学部材のうち、撮影時に駆動制御される例えばフォーカスレンズ12は、駆動制御部201と該フォーカスレンズ12の駆動用の不図示のモータ等から構成される第二の駆動手段により駆動される。駆動部C4は、第一の駆動手段として、例えばパルスモータ等から構成されて撮影光学部C2の位置を被検眼Eに対してXYZの3軸方向に駆動させる。制御部18は、撮影光学部C2及び駆動部C4と接続されてこれらを制御する。出力部221は、撮影された被検眼Eの眼底画像から、学習済モデルを用いて、写損の原因を出力できる。また、出力部221は、学習済モデルにより、眼底画像が写損と有していないことを判定し、その判定結果を出力することもできる。即ち、該出力部221は、学習済モデルにより、撮影された被検眼Eの画像から、写損の原因に関する情報(写損原因、写損の有無等)を出力することができる。なお、この出力部221は、更に写損原因各々に対応して、各々の写損の原因を低減できる可能性のある制御値を出力できる複数の更なる学習済モデルを有することもできる。即ち、出力部221は、複数の学習済モデルを用いることで、写損を低減するための撮影光学部C2が有する光学部材と駆動部C4との少なくとも何れかの制御値(補正値)を出力できる。なお、表示制御部202は、出力部221により出力された写損原因を表示モニタ15に表示させることができる。その際、写損原因と対応させて、更に出力された制御値も表示モニタ15に表示させることができる。出力部221が行う工程は、例えば制御値を出力する工程として、眼科装置の制御方法の一工程を構成することもできる。 The ophthalmic apparatus according to this modification includes a photographing optical unit C2, a driving unit C4, a control unit 18, and an output means (output unit 221) in the control unit 18. The photographing optical unit C2 has the above-mentioned various optical members as a configuration for capturing a fundus image of the eye E to be inspected. Among these various optical members, for example, the focus lens 12, which is driven and controlled at the time of photographing, is driven by a second driving means including a drive control unit 201 and a motor (not shown) for driving the focus lens 12. .. As the first driving means, the driving unit C4 is composed of, for example, a pulse motor or the like, and drives the position of the photographing optical unit C2 with respect to the eye E to be inspected in the three axial directions of XYZ. The control unit 18 is connected to the photographing optical unit C2 and the drive unit C4 to control them. The output unit 221 can output the cause of the image loss from the photographed fundus image of the eye E to be examined by using the trained model. Further, the output unit 221 can determine that the fundus image does not have a copying loss by the trained model, and can output the determination result. That is, the output unit 221 can output information on the cause of the copying loss (cause of the copying loss, presence / absence of the copying loss, etc.) from the image of the eye E to be inspected taken by the trained model. It should be noted that the output unit 221 may further have a plurality of further trained models capable of outputting control values that may reduce each cause of copying loss in response to each cause of copying loss. That is, the output unit 221 outputs at least one control value (correction value) of the optical member and the drive unit C4 of the photographing optical unit C2 for reducing the photographing loss by using a plurality of trained models. it can. The display control unit 202 can display the cause of image loss output by the output unit 221 on the display monitor 15. At that time, the output control value can also be displayed on the display monitor 15 in correspondence with the cause of the copying loss. The step performed by the output unit 221 can also constitute one step of the control method of the ophthalmic apparatus, for example, as a step of outputting a control value.

以上の構成を有することにより、撮影された眼底画像が写損を有するか否かや、写損を有する場合にはその写損原因を知ることができる。これにより、ユーザーが未熟であっても、撮影された眼底画像を適切に判別し且つ写損の場合にはその原因を的確に知ることができる。また、実施例1の構成と組み合わせることにより、ユーザーの眼底画像観察の習熟度によらず、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であっても、適切な撮影条件にて自動の再撮影を行うことができ、診断に適切な眼底画像を得ることができる。なお、上述した学習済モデルは、被検眼Eの画像を入力データとし、該画像に対応する写損の原因に関する情報を出力データとするペアからなる学習データを用いることで得られる。また、この学習済モデルは、出力層605から、入力された画像が、該学習済モデル生成時に出力データとして用いられた複数の写損に関する情報に対応する値が出力される。出力部221は、これら複数の写損に関する情報の何れかに対応する値に基づいて、入力された画像に対応する写損に関する情報、より詳細には写損の原因に関する情報を出力する。なお、学習データの生成に用いる被検眼は、実際に撮影されて写損を有するとされた画像が得られた被検眼と同じであってもよく、異なっていてもよい。異なった被検眼に関する画像や写損に関する情報も学習データとして用いることで、より多くの学習データを用いて精度のよい学習済モデルを得ることができる。また、制御値を出力できる学習済モデルを得るための学習データにおいても、実際に撮影されて写損を有するとされた画像と、該画像を得る際に用いた眼科装置の制御値とからなる学習データ以外も用いることができる。即ち、実際に撮影に用いた眼科装置ではなく、異なる眼科装置により得た写損を有する画像と、該眼科装置において該画像が有する写損を低減する該眼科装置の駆動手段の制御値とからなる学習でデータも用いることができる。 With the above configuration, it is possible to know whether or not the photographed fundus image has a copying loss, and if there is a copying loss, the cause of the copying loss. As a result, even if the user is immature, it is possible to appropriately discriminate the captured fundus image and accurately know the cause in the case of loss of image. Further, by combining with the configuration of the first embodiment, it is possible to perform re-imaging under the imaging conditions according to the situation of image loss regardless of the user's proficiency in observing the fundus image. As a result, even if the user is immature, automatic re-imaging can be performed under appropriate imaging conditions, and a fundus image suitable for diagnosis can be obtained. The trained model described above can be obtained by using training data consisting of a pair in which the image of the eye E to be inspected is used as input data and information on the cause of copying loss corresponding to the image is used as output data. Further, in this trained model, a value corresponding to a plurality of information regarding copying loss used as output data when the input image is generated from the trained model is output from the output layer 605. The output unit 221 outputs information on the image loss corresponding to the input image, more specifically, information on the cause of the image loss, based on the value corresponding to any of the information on the plurality of image loss. It should be noted that the eye to be inspected used for generating the learning data may be the same as or different from the eye to be inspected in which an image actually taken and considered to have photo loss was obtained. By using images related to different eyes to be inspected and information related to photo loss as training data, it is possible to obtain a trained model with high accuracy by using more training data. In addition, the training data for obtaining a trained model that can output control values also includes an image that is actually photographed and is considered to have photo loss, and a control value of an ophthalmic apparatus used to obtain the image. Other than training data can be used. That is, from the image having the image loss obtained by a different ophthalmic device instead of the ophthalmic device actually used for photographing, and the control value of the driving means of the ophthalmic device that reduces the image loss of the image in the ophthalmic device. Data can also be used in the learning.

[変形例2]
上述した実施例1では、眼底を撮影する装置の例として眼底カメラを用いた場合について説明した。しかし、眼底を撮影する構成は例示した眼底カメラに限られず、眼底をカラー撮影することができる所謂カラー走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope:以下カラーSLOと称する)を用いてもよい。以下に本変形例で用いるカラーSLOの光学系の構成について、その光学構成を模式的に示す図7を参照して以下に説明する。なお、表示モニタ、制御部、操作入力部、画像処理部、及び保存用メモリ等の光学系に付随するその他の構成については、実施例1述べた眼底カメラに付随して配置された構成と同様であるため、ここでの説明は割愛する。
[Modification 2]
In Example 1 described above, a case where a fundus camera is used as an example of a device for photographing the fundus of the eye has been described. However, the configuration for photographing the fundus is not limited to the illustrated fundus camera, and a so-called color scanning laser ophthalmoscope (hereinafter referred to as color SLO) capable of color photographing the fundus may be used. The configuration of the optical system of the color SLO used in this modification will be described below with reference to FIG. 7, which schematically shows the optical configuration. The other configurations attached to the optical system such as the display monitor, the control unit, the operation input unit, the image processing unit, and the storage memory are the same as the configurations arranged along with the fundus camera described in the first embodiment. Therefore, the explanation here is omitted.

本変形例として示すカラーSLO701は、照明光学系710、及び受光光学系720を備える。照明光学系710は光路L1と光路L3に配置される光学部材等から構成される。具体的には、照明光学系710は、レーザー光源711から被検眼Eに向かって順に配置される、レンズ712、穴あきミラー713、フォーカスレンズ714、レンズ715、走査部716、及び対物レンズ717を有する。レーザー光源711は、青、緑、赤、及び赤外の4つの波長域の光(以下照明光と称する。)を出射可能であり、カラー撮影時には青、緑、及び赤の光の眼底Erからの反射光が用いられる。また、これら照明光は、例えば可視蛍光撮影や赤外蛍光撮影に用いることもできる。フォーカスレンズ714は駆動系714aにより光路L1に沿って図中矢印方向に駆動可能とされ、出射光を眼底Er上の任意の位置に合焦可能とされる。 The color SLO 701 shown as this modification includes an illumination optical system 710 and a light receiving optical system 720. The illumination optical system 710 is composed of an optical path L1 and an optical member arranged in the optical path L3. Specifically, the illumination optical system 710 includes a lens 712, a perforated mirror 713, a focus lens 714, a lens 715, a scanning unit 716, and an objective lens 717, which are arranged in order from the laser light source 711 toward the eye E to be inspected. Have. The laser light source 711 is capable of emitting light in four wavelength regions of blue, green, red, and infrared (hereinafter referred to as illumination light), and is capable of emitting light from the fundus Er of blue, green, and red during color photography. The reflected light of is used. Further, these illumination lights can also be used for, for example, visible fluorescence photography and infrared fluorescence photography. The focus lens 714 can be driven by the drive system 714a along the optical path L1 in the direction of the arrow in the figure, and the emitted light can be focused at an arbitrary position on the fundus Er.

レーザー光源711から出射された照明光は、穴あきミラー713の開口部713aを通り、フォーカスレンズ714、レンズ715を経て走査部716に至り、更に対物レンズ717を経て眼底Erに照射される。眼底Erにより反射された照明光は、この経路を逆に辿り、穴あきミラー713によって受光光学系720の光路L2に導かれる。走査部716は、例えば一対のガルバノミラー716a,716bから構成することができる。この時、一方のミラーにより、レーザー光源711から出射された照明光を例えばX方向に走査し、他方のミラーにより該照明光をY方向に走査することで、該照明光で眼底Er上をラスタスキャンすることができる。レーザー光源711、駆動系714a、及び走査部716は、制御部18(図1及び2参照)により制御される。 The illumination light emitted from the laser light source 711 passes through the opening 713a of the perforated mirror 713, reaches the scanning unit 716 via the focus lens 714 and the lens 715, and is further irradiated to the fundus Er through the objective lens 717. The illumination light reflected by the fundus Er follows this path in the reverse direction, and is guided to the optical path L2 of the light receiving optical system 720 by the perforated mirror 713. The scanning unit 716 can be composed of, for example, a pair of galvanometer mirrors 716a and 716b. At this time, one mirror scans the illumination light emitted from the laser light source 711 in the X direction, for example, and the other mirror scans the illumination light in the Y direction, so that the illumination light rasterizes on the fundus Er. Can be scanned. The laser light source 711, the drive system 714a, and the scanning unit 716 are controlled by the control unit 18 (see FIGS. 1 and 2).

受光光学系720は、光路L2において、穴あきミラー713から順に配置される、レンズ721、ピンホール板722、及び光分離部730を有する。光分離部730は、眼底Erからの反射光を上述した青、緑、赤(及び赤外)の波長帯域の光に分離する。そのため、光分離部730は、波長に応じて照明光を分離可能なダイクロイックミラー731,732を有する。これらダイクロイックミラー731,732の透過方向及び反射方向には、各々の波長帯域の光に対応した受光素子724,726,728が配置される。これら構成により、眼底Erからの青、緑、及び赤の光の反射光を分離して受光することができ、これら各々の受光素子から得た画像を合成することで眼底Erのカラー画像が得られる。 The light receiving optical system 720 has a lens 721, a pinhole plate 722, and an optical separation unit 730, which are arranged in order from the perforated mirror 713 in the optical path L2. The light separation unit 730 separates the reflected light from the fundus Er into the light in the blue, green, and red (and infrared) wavelength bands described above. Therefore, the light separation unit 730 has dichroic mirrors 731 and 732 that can separate the illumination light according to the wavelength. Light receiving elements 724,726,728 corresponding to light in each wavelength band are arranged in the transmission direction and the reflection direction of these dichroic mirrors 731 and 732. With these configurations, the reflected light of blue, green, and red light from the fundus Er can be separated and received, and a color image of the fundus Er can be obtained by synthesizing the images obtained from each of these light receiving elements. Be done.

なお、ダイクロイックミラーと受光素子との間には、各々の波長域の光を受光素子に集光させるためのレンズ723,725,727、及び蛍光撮影時に眼底反射光を除去するためのフィルタ733,734,735が配置される。また、受光光学系720は、ピンホール板722及びフィルタ挿脱部740を有する。ピンホール板722は、眼底Erと共役内地に配置されており、共焦点絞りとして利用される。また、上述した受光光学系720は、対物レンズ717から穴あきミラー713までに配置される各部材を、照明光学系710と共用している。以上に述べたカラーSLO701を用いた眼科装置により得られた眼底画像についても、実施例1で述べた制御部18による処理によって、ユーザーの眼底画像観察の習熟度によらず、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であっても、適切な撮影条件にて自動の再撮影を行うことができ、診断に適切な眼底画像を得ることができる。 Between the dichroic mirror and the light receiving element, there are a lens 723,725,727 for condensing light in each wavelength range on the light receiving element, and a filter 733 for removing the light reflected from the fundus during fluorescence imaging. 734,735 are arranged. Further, the light receiving optical system 720 has a pinhole plate 722 and a filter insertion / removal portion 740. The pinhole plate 722 is arranged in the inland conjugate with the fundus Er and is used as a confocal diaphragm. Further, the light receiving optical system 720 described above shares each member arranged from the objective lens 717 to the perforated mirror 713 with the illumination optical system 710. The fundus image obtained by the ophthalmologic apparatus using the color SLO701 described above is also affected by the processing by the control unit 18 described in the first embodiment, regardless of the user's proficiency in observing the fundus image. Re-shooting can be performed under the shooting conditions according to the shooting conditions. As a result, even if the user is immature, automatic re-imaging can be performed under appropriate imaging conditions, and a fundus image suitable for diagnosis can be obtained.

[変形例3]
なお、上述した変形例2として述べた眼科装置におけるカラーSLO701における対物光学系を反射光学系により構成し、該カラーSLOを超広画角SLOとすることもできる。以下に本変形例で用いる超広画角SLOの光学系の構成について、その光学構成を模式的に示す図8を参照して以下に説明する。なお、表示モニタ、制御部、操作入力部、画像処理部、及び保存用メモリ等の光学系に付随するその他の構成については、実施例1述べた眼底カメラに付随して配置された構成と同様であるため、ここでの説明は割愛する。
[Modification 3]
It is also possible to configure the objective optical system in the color SLO 701 in the ophthalmic apparatus described as the above-mentioned modification 2 by the reflection optical system, and make the color SLO an ultra-wide angle of view SLO. The configuration of the optical system of the ultra-wide angle of view SLO used in this modification will be described below with reference to FIG. 8 which schematically shows the optical configuration. The other configurations attached to the optical system such as the display monitor, the control unit, the operation input unit, the image processing unit, and the storage memory are the same as the configurations arranged along with the fundus camera described in the first embodiment. Therefore, the explanation here is omitted.

本変形例として示す超広画角SLO800は、光源ユニット801、照明光学系、及び受光光学系を有する。光源ユニット801は、赤外光レーザー光源801a、赤色レーザー光源820a、緑色レーザー光源820b、及び青色レーザー光源820cを有する。また、光源ユニット801は、これら光源からの光を光路L1で同軸とするためのダイクロイックミラー823、ダイクロイックミラー821a、及びダイクロイックミラー821bとを有する。照明光学系は、光源ユニット801から被検眼Eに向かって順に配置される、穴あきミラー802、レンズ803、視度補正光学系(804,805)、凹面ミラー(806,808,810)及び走査光学系(807,809)を有する。 The ultra-wide angle of view SLO 800 shown as a modified example includes a light source unit 801, an illumination optical system, and a light receiving optical system. The light source unit 801 includes an infrared light laser light source 801a, a red laser light source 820a, a green laser light source 820b, and a blue laser light source 820c. Further, the light source unit 801 has a dichroic mirror 823, a dichroic mirror 821a, and a dichroic mirror 821b for making the light from these light sources coaxial in the optical path L1. The illumination optical system includes a perforated mirror 802, a lens 803, a diopter correction optical system (804,805), a concave mirror (806,808,810), and scanning, which are arranged in order from the light source unit 801 toward the eye E to be inspected. It has an optical system (807,809).

視度補正光学系はミラー804,805を有し、不図示の駆動系によりこれらミラーを図中矢印方向に移動することで光路長を変化させ、フォーカスの視度補正を行うことができる。走査光学系は、ポリゴンミラー807とガルバノミラー809を有する。ポリゴンミラー807はレーザー光を例えば眼底上を水平方向に走査し、ガルバノミラー809はレーザー光を垂直方向に走査する。受光光学系は、穴あきミラー802の反射方向において、該穴あきミラー802から順に配置される、レンズ812、ピンホール板813、集光レンズ814、及び受光素子815を有する。眼底からの反射光は、穴あきミラー802の穴の周辺部により反射され、これら光学部材を経て受光素子815に導かれる。 The diopter correction optical system has mirrors 804 and 805, and the optical path length can be changed by moving these mirrors in the direction of the arrow in the figure by a drive system (not shown), and the diopter correction of the focus can be performed. The scanning optical system includes a polygon mirror 807 and a galvano mirror 809. The polygon mirror 807 scans the laser beam horizontally, for example, on the fundus of the eye, and the galvano mirror 809 scans the laser beam vertically. The light receiving optical system includes a lens 812, a pinhole plate 813, a condenser lens 814, and a light receiving element 815, which are arranged in order from the perforated mirror 802 in the reflection direction of the perforated mirror 802. The reflected light from the fundus is reflected by the peripheral portion of the hole of the perforated mirror 802 and guided to the light receiving element 815 via these optical members.

光源ユニット801により出射された走査用レーザー光は、ダイクロイックミラー823を経た後、穴あきミラー802の穴を通過し、視度補正光学系、及び凹面ミラー806を介してポリゴンミラー807に導かれる。ポリゴンミラー807により眼底上を水平方向に走査されるレーザー光は、凹面ミラー808を経てガルバノミラー809により更に垂直方向に走査される。ガルバノミラー809を経たレーザー光は、凹面ミラー810により反射された被検眼Eに照射される。眼底から反射されたレーザー光は、これら光学部材を逆に経て、穴あきミラー802により反射されて受光素子815により受光される。このような反射光学系によって対物光学系を構成することにより、眼底における画像を広画角で撮影することができる。以上に述べた超広画角SLO800を用いた眼科装置により得られた眼底画像についても、実施例1で述べた制御部18による処理によって、ユーザーの眼底画像観察の習熟度によらず、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であっても、適切な撮影条件にて自動の再撮影を行うことができ、診断に適切な眼底画像を得ることができる。 The scanning laser light emitted by the light source unit 801 passes through the hole of the perforated mirror 802 after passing through the dichroic mirror 823, and is guided to the polygon mirror 807 via the diopter correction optical system and the concave mirror 806. The laser beam scanned horizontally on the fundus by the polygon mirror 807 is further vertically scanned by the galvano mirror 809 via the concave mirror 808. The laser beam passing through the galvano mirror 809 is applied to the eye E to be inspected reflected by the concave mirror 810. The laser beam reflected from the fundus of the eye passes through these optical members in reverse, is reflected by the perforated mirror 802, and is received by the light receiving element 815. By constructing the objective optical system with such a reflective optical system, it is possible to capture an image on the fundus with a wide angle of view. The fundus image obtained by the ophthalmologic apparatus using the ultra-wide angle of view SLO800 described above is also lost due to the processing by the control unit 18 described in the first embodiment regardless of the user's proficiency in observing the fundus image. It is possible to re-shoot under the shooting conditions according to the situation. As a result, even if the user is immature, automatic re-imaging can be performed under appropriate imaging conditions, and a fundus image suitable for diagnosis can be obtained.

[実施例2]
実施例1では、学習済モデルを用いて再撮影時の撮影条件を出力する眼科装置について説明した。これに対し、本実施例2では、学習済モデルを利用する他の例として、撮影画像から学習済モデルを用いて写損原因を出力する眼科装置について、OCT装置(光干渉断層撮像装置)を例として、図9から図11を用いて説明する。
[Example 2]
In Example 1, an ophthalmic apparatus that outputs imaging conditions at the time of re-imaging using a trained model has been described. On the other hand, in the second embodiment, as another example of using the trained model, an OCT device (optical coherence tomography device) is used for an ophthalmic device that outputs the cause of image loss using the trained model from a captured image. As an example, it will be described with reference to FIGS. 9 to 11.

<装置の光学構成>
本実施例において用いるOCT装置の光学構成について図9を用いて説明する。本実施例で用いるOCT装置は、撮影光学系900、分光器960、制御部980、及び画像表示部である表示モニタ990を備える。なお、撮影光学系900は実施例1において図1に示した撮影光学部C2に対応し、不図示の基台に対して左右方向(X方向)、上下方向(Y方向)、前後方向(Z方向)に移動可能とされている。
<Optical configuration of the device>
The optical configuration of the OCT apparatus used in this embodiment will be described with reference to FIG. The OCT apparatus used in this embodiment includes a photographing optical system 900, a spectroscope 960, a control unit 980, and a display monitor 990 which is an image display unit. The photographing optical system 900 corresponds to the photographing optical unit C2 shown in FIG. 1 in the first embodiment, and has a left-right direction (X direction), a vertical direction (Y direction), and a front-back direction (Z) with respect to a base (not shown). It is said that it can be moved in the direction).

撮影光学系900は、被検眼Eの前眼Eaや、当該被検眼の眼底Erの二次元画像及び断層画像を撮像するための測定光学系で構成される。被検眼Eに対向して対物レンズ901−1が設置されており、その光軸上に設けられた、光路分岐部として機能する第一ダイクロイックミラー902及び第二ダイクロイックミラー903によって光路が分岐される。即ち、被検眼Eからの光路は、これらダイクロイックミラーによって、前眼部観察光路L91、眼底観察光路と固視灯光路との光路L92、及び光路L93(OCT光学系測定光路)に波長帯域毎に分離される。なお、これら光路の分岐の態様、及びダイクロイックミラーの反射方向及び透過方向に配置される構成はここで例示された態様に限られず、公知の種々の態様とすることができる。 The photographing optical system 900 is composed of a measuring optical system for capturing a two-dimensional image and a tomographic image of the anterior eye Ea of the eye to be inspected E and the fundus Er of the eye to be inspected. An objective lens 901-1 is installed facing the eye E to be inspected, and the optical path is branched by a first dichroic mirror 902 and a second dichroic mirror 903 that function as optical path branching portions on the optical axis thereof. .. That is, the optical path from the eye E to be inspected is divided into the anterior segment observation optical path L91, the optical path L92 between the fundus observation optical path and the fixation light optical path, and the optical path L93 (OCT optical system measurement optical path) for each wavelength band by these dichroic mirrors. Be separated. The mode of branching of these optical paths and the configuration arranged in the reflection direction and the transmission direction of the dichroic mirror are not limited to the modes exemplified here, and may be various known modes.

第一ダイクロイックミラー902の透過方向の前眼部観察光路L91上には、該第一ダイクロイックミラーレンズ941及び前眼観察用の撮像素子942が配置される。第二ダイクロイックミラー903の反射方向の光路L92は、更に第三ダイクロイックミラー918によって眼底観察用のAPD(アバランシェフォトダイオード)915及び固視灯916への光路に波長帯域毎に分岐される。光路L92上には、第二ダイクロイックミラー903から順に、レンズ901−2、走査部、フォーカスレンズ911、レンズ912、及び第三ダイクロイックミラー918が配置される。フォーカスレンズ911は固視灯及び眼底観察用のフォーカス調整のために不図示の駆動用モータによって図中矢印で示す光路方向に駆動される。第三ダイクロイックミラー918の透過方向に配置されるAPD915は、不図示の眼底観察用照明光の波長、具体的には780nm付近に感度を持つ。一方、第三ダイクロイックミラー918の反射方向に配置される固視灯916は、可視光を発生して被検者の固視を促す。 The first dichroic mirror lens 941 and an image sensor 942 for front eye observation are arranged on the front eye observation optical path L91 in the transmission direction of the first dichroic mirror 902. The optical path L92 in the reflection direction of the second dichroic mirror 903 is further branched by the third dichroic mirror 918 into an optical path to an APD (avalanche photodiode) 915 and a fixation lamp 916 for observing the fundus of the eye for each wavelength band. On the optical path L92, a lens 901-2, a scanning unit, a focus lens 911, a lens 912, and a third dichroic mirror 918 are arranged in this order from the second dichroic mirror 903. The focus lens 911 is driven in the direction of the optical path indicated by the arrow in the figure by a drive motor (not shown) for adjusting the focus for observing the fixation lamp and the fundus. The APD 915 arranged in the transmission direction of the third dichroic mirror 918 has a sensitivity in the wavelength of the illumination light for fundus observation (not shown), specifically in the vicinity of 780 nm. On the other hand, the fixation lamp 916 arranged in the reflection direction of the third dichroic mirror 918 generates visible light to promote fixation of the subject.

また、光路L92には、不図示の眼底観察用照明光源から発せされた光を被検眼Eの眼底Er上で走査するための走査部として、Xスキャナ917−1及びYスキャナ917−2が配置される。Xスキャナ917−1は測定光の主走査方向の走査に用いられ、Yスキャナ917−2は測定光の主走査方向と交差する副走査方向の走査に用いられる。レンズ901−2は、Xスキャナ917−1及びYスキャナ917−2の中心位置付近を焦点位置として配置される。APD915はシングルディテクターであり、眼底Erから散乱・反射され戻ってきた光を検出する。第三ダイクロイックミラー918は穴あきミラーや、中空のミラーが蒸着されたプリズムであり、照明光と眼底Erからの戻り光を分離する。 Further, in the optical path L92, an X scanner 917-1 and a Y scanner 917-2 are arranged as scanning units for scanning the light emitted from a fundus observation illumination light source (not shown) on the fundus Er of the eye E to be inspected. Will be done. The X scanner 917-1 is used for scanning the main scanning direction of the measurement light, and the Y scanner 917-2 is used for scanning in the sub scanning direction intersecting the main scanning direction of the measurement light. The lens 901-2 is arranged with the vicinity of the center position of the X scanner 917-1 and the Y scanner 917-2 as the focal position. The APD915 is a single detector and detects the light scattered / reflected from the fundus Er and returned. The third dichroic mirror 918 is a prism in which a perforated mirror or a hollow mirror is vapor-deposited, and separates the illumination light and the return light from the fundus Er.

光路L93に配置される光学部材は、OCT光学系を成しており、被検眼の眼底Erの断層画像を撮像するために使用される、具体的には、断層画像を形成するための干渉信号を得るために使用される。光路L93上には、第二ダイクロイックミラー903から順に、レンズ901−3、ミラー921、OCT走査部、OCTフォーカスレンズ923、及びレンズ924が配置される。光を被検眼Eの眼底Er上で走査する走査部は、OCTXスキャナ922−1及びOCTYスキャナ922−2を有する。OCTXスキャナ922−1及びOCTYスキャナ922−2は、当該これらの光路L93上の中心付近がレンズ901−3の焦点位置となるように配置される。更に、当該中心付近と被検眼Eの瞳の位置とは、光学的な共役関係となっている。OCTフォーカスレンズ923は、測定光を眼底Erに合焦させるため、不図示の駆動用モータによって図中矢印で示す光路方向に移動可能とされている。 The optical member arranged in the optical path L93 forms an OCT optical system and is used for capturing a tomographic image of the fundus Er of the eye to be inspected, specifically, an interference signal for forming a tomographic image. Used to obtain. A lens 901-3, a mirror 921, an OCT scanning unit, an OCT focus lens 923, and a lens 924 are arranged on the optical path L93 in order from the second dichroic mirror 903. The scanning unit that scans the light on the fundus Er of the eye E to be inspected has an OCTX scanner 922-1 and an OCTY scanner 922-2. The OCTX scanner 922-1 and the OCTY scanner 922-2 are arranged so that the vicinity of the center on the optical path L93 is the focal position of the lens 901-3. Further, the vicinity of the center and the position of the pupil of the eye E to be inspected have an optical conjugate relationship. In order to focus the measurement light on the fundus Er, the OCT focus lens 923 is movable in the direction of the optical path indicated by the arrow in the figure by a drive motor (not shown).

次に、測定光源930からの光路と参照光学系、分光器960について説明する。測定光源930は、測定光路(光路L93)に入射させる測定光を得るための低コヒーレント光源である。ここで例示するOCT光学系はマイケルソン干渉計を用いており、該干渉計は、測定光源930、光カプラー925、光ファイバー925−1〜4、レンズ951、分散補償用ガラス952、参照ミラー953、及び分光器960を有する。光ファイバー925−1〜4は、光カプラー925に接続されて一体化しているシングルモードの光ファイバーである。 Next, the optical path from the measurement light source 930, the reference optical system, and the spectroscope 960 will be described. The measurement light source 930 is a low coherent light source for obtaining the measurement light incident on the measurement optical path (optical path L93). The OCT optical system illustrated here uses a Michelson interferometer, which includes a measurement light source 930, an optical coupler 925, an optical fiber 925 to 1-4, a lens 951, a dispersion compensation glass 952, and a reference mirror 953. And a spectroscope 960. Optical fibers 925-1 to 925-1 to 4 are single-mode optical fibers connected to and integrated with an optical coupler 925.

測定光源930から出射された光は、光ファイバー925−1を通じ、光カプラー925を介して光ファイバー925−2側に導かれる測定光と、光ファイバー925−3側に導かれる参照光とに分割される。測定光はOCT光学系の光路L93を通じ、観察対象である被検眼Eの眼底Erに照射される。網膜による反射・散乱された測定光は、戻り光として同じ光路L93を逆に辿り光カプラー925に到達する。一方、参照光は、光ファイバー925−3、レンズ951、分散補償用ガラス952を介して参照ミラー953に到達し反射される。そして、同じ光路を逆に辿り光カプラー925に到達する。光カプラー925に到達した戻り光と参照光とは、該光カプラー925により合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となった時に干渉を生じる。参照ミラー953は不図示の駆動用モータ等によって図中矢印で示す光軸方向に位置を調整可能であり、光軸方向に移動されることで光路長の調整が可能となる。得られた干渉光は、光ファイバー925−4を介して分光器960に導かれる。 The light emitted from the measurement light source 930 is divided into measurement light guided to the optical fiber 925-2 side via the optical coupler 925 and reference light guided to the optical fiber 925-3 side through the optical fiber 925-1. The measurement light is applied to the fundus Er of the eye E to be observed through the optical path L93 of the OCT optical system. The measured light reflected / scattered by the retina follows the same optical path L93 in reverse as return light and reaches the optical coupler 925. On the other hand, the reference light reaches the reference mirror 953 through the optical fiber 925-3, the lens 951, and the dispersion compensation glass 952 and is reflected. Then, it follows the same optical path in the opposite direction to reach the optical coupler 925. The return light and the reference light that have reached the optical coupler 925 are combined by the optical coupler 925 to become interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light are almost the same. The position of the reference mirror 953 can be adjusted in the optical axis direction indicated by the arrow in the drawing by a drive motor or the like (not shown), and the optical path length can be adjusted by moving the reference mirror 953 in the optical axis direction. The obtained interference light is guided to the spectroscope 960 via the optical fiber 925-4.

分光器960は、レンズ961、回折格子962、レンズ963、及びラインセンサ964を備える。光ファイバー925−4から出射された干渉光は、レンズ961を介して略平行光となった後、回折格子962で分光され、レンズ963によってラインセンサ964に結像される。ラインセンサ964は複数の画素、すなわち受光エレメントが一列に並んだ構成となっており、所定のクロックによって全画素を一括で読み出すことができる。なお、本実施例では干渉計としてマイケルソン干渉計を用いているが、マッハツェンダー干渉計を用いてもよい。 The spectroscope 960 includes a lens 961, a diffraction grating 962, a lens 963, and a line sensor 964. The interference light emitted from the optical fiber 925-4 becomes substantially parallel light through the lens 961, is separated by the diffraction grating 962, and is imaged on the line sensor 964 by the lens 963. The line sensor 964 has a configuration in which a plurality of pixels, that is, light receiving elements are arranged in a row, and all the pixels can be read out at once by a predetermined clock. Although the Michelson interferometer is used as the interferometer in this embodiment, a Mach-Zehnder interferometer may be used.

次に、本実施例で用いたOCT装置における制御部980の詳細について、図10を参照して説明する。図10は、制御部980の概略構成を示すブロック図である。図10に示すように、制御部980は、駆動制御部1001、表示制御部1002、取得部1010、及び処理部1020を備える。また、制御部980は、OCTフォーカスレンズ923、APD915、固視灯916、表示モニタ990、撮像素子942、走査部(917)、OCT走査部(922)、フォーカスレンズ911、参照ミラー953、及びラインセンサ964等と接続される。 Next, the details of the control unit 980 in the OCT apparatus used in this embodiment will be described with reference to FIG. FIG. 10 is a block diagram showing a schematic configuration of the control unit 980. As shown in FIG. 10, the control unit 980 includes a drive control unit 1001, a display control unit 1002, an acquisition unit 1010, and a processing unit 1020. Further, the control unit 980 includes an OCT focus lens 923, an APD 915, a fixed eye lamp 916, a display monitor 990, an image sensor 942, a scanning unit (917), an OCT scanning unit (922), a focus lens 911, a reference mirror 953, and a line. It is connected to the sensor 964 and the like.

駆動制御部1001は、OCTフォーカスレンズ923、APD915、固視灯916、撮像素子942、走査部(917)、OCT走査部(922)、フォーカスレンズ911、参照ミラー953、及びラインセンサ964等の駆動制御を実行する。表示制御部1002は、表示モニタ990に接続されており、表示モニタ990に表示させる画像や例えば該表示モニタ990に表示される指示画面を介して入力されたユーザー指示等を受け付ける。表示モニタ990は、LCDディスプレイ等の任意のディスプレイであり、OCT装置の各駆動部及び制御部980を操作するためのGUIや生成した画像、任意の処理を施した画像、及び患者情報等の各種の情報を表示することができる。 The drive control unit 1001 drives the OCT focus lens 923, the APD 915, the fixation lamp 916, the image sensor 942, the scanning unit (917), the OCT scanning unit (922), the focus lens 911, the reference mirror 953, the line sensor 964, and the like. Take control. The display control unit 1002 is connected to the display monitor 990, and receives an image to be displayed on the display monitor 990, a user instruction input via an instruction screen displayed on the display monitor 990, or the like. The display monitor 990 is an arbitrary display such as an LCD display, and is a GUI for operating each drive unit and control unit 980 of the OCT device, a generated image, an image subjected to arbitrary processing, various types of patient information, and the like. Information can be displayed.

また、上述したGUIを表示する場合、制御部980に対しては、更に操作入力部を接続し、該操作入力部を介して該GUIを操作したり、情報を入力したりすることで、これを操作することもできる。操作入力部には、例えば、マウスやタッチパッド、トラックボール、タッチパネルディスプレイ、スタイラスペン等のポインティングデバイス及びキーボード等を用いることができる。なお、タッチパネルディスプレイを用いる場合には、表示モニタ990と操作入力部とを一体的に構成できる。なお、本実施例では、撮影光学系900、分光器960、制御部980、及び表示モニタ990は別々の要素とされているが、これらのうちの一部又は全部を一体的に構成してもよい。 Further, when displaying the GUI described above, an operation input unit is further connected to the control unit 980, and the GUI is operated or information is input via the operation input unit. You can also operate. For the operation input unit, for example, a mouse, a touch pad, a trackball, a touch panel display, a pointing device such as a stylus pen, a keyboard, or the like can be used. When a touch panel display is used, the display monitor 990 and the operation input unit can be integrally configured. In this embodiment, the photographing optical system 900, the spectroscope 960, the control unit 980, and the display monitor 990 are separate elements, but even if some or all of them are integrally configured. Good.

取得部1010は、画像取得部1011、情報取得部1012、及び記憶部1013を有する。画像取得部1011は、APD915、及び後述する画像生成部1023と接続されており、これらから出力される画像信号若しくは画像生成部1023により生成される画像を取得する。情報取得部212は、上述した表示モニタ990を介して入力される情報、或いは被検眼Eに付随して予め記憶部1013に保存されている被検眼情報等を取得する。記憶部1013は、取得部1010が取得した各種画像や情報、更には処理部1020より出力される後述する写損原因や補正値等の出力情報を保存する。処理部1020は、出力部1021、及び画像生成部1023を有する。出力部1021は、例えば後述する学習済モデルを用いて、写損原因を出力し、該写損原因を低減するための補正値等を出力する。画像生成部1023は、例えば画像取得部1011が取得したAPD915やラインセンサ964から取得した信号を用いて眼底画像や断層画像を生成する。生成された画像は、画像取得部1011により記憶部1013に記憶される。 The acquisition unit 1010 includes an image acquisition unit 1011, an information acquisition unit 1012, and a storage unit 1013. The image acquisition unit 1011 is connected to the APD 915 and the image generation unit 1023 described later, and acquires an image signal output from these or an image generated by the image generation unit 1023. The information acquisition unit 212 acquires information input via the display monitor 990 described above, or eye examination information previously stored in the storage unit 1013 in association with the eye to be inspected E. The storage unit 1013 stores various images and information acquired by the acquisition unit 1010, as well as output information such as a copying loss cause and a correction value, which will be described later, output from the processing unit 1020. The processing unit 1020 has an output unit 1021 and an image generation unit 1023. The output unit 1021 outputs, for example, a learning model described later to output the cause of the copying loss, and outputs a correction value or the like for reducing the cause of the copying loss. The image generation unit 1023 generates a fundus image or a tomographic image using, for example, a signal acquired from the APD 915 or the line sensor 964 acquired by the image acquisition unit 1011. The generated image is stored in the storage unit 1013 by the image acquisition unit 1011.

なお、制御部980の記憶部1013以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部1013は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Each component of the control unit 980 other than the storage unit 1013 may be composed of a software module executed by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). The processor may be, for example, a GPU (Graphical Processing Unit), an FPGA (Field-Programmable Gate Array), or the like. In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC. The storage unit 1013 may be composed of any storage medium such as an optical disk or a memory.

<SLOフォーカスの概要>
OCT装置では、SLO光学系によりフォーカスの操作を実行し、得られた条件を用いてOCTにおけるフォーカスを行う。ここでは、SLO光学系にて実行されるフォーカスの操作の概要について説明する。制御部980は、撮影光学系900におけるSLO光学系で最適な撮像条件が得られるようにSLO光学系の光学部材を制御する。具体的には、駆動制御部1001により、SLO光学系におけるフォーカスレンズ911のフォーカス制御を行う。
<Overview of SLO Focus>
In the OCT apparatus, the focus operation is executed by the SLO optical system, and the focus in the OCT is performed using the obtained conditions. Here, an outline of the focus operation performed in the SLO optical system will be described. The control unit 980 controls the optical members of the SLO optical system so that the optimum imaging conditions can be obtained in the SLO optical system of the photographing optical system 900. Specifically, the drive control unit 1001 controls the focus of the focus lens 911 in the SLO optical system.

駆動制御部1001は、まず、不図示の駆動用モータ等により、フォーカスレンズ911をディオプターの一番低い位置に対応する光軸上の位置に移動させる。次に、制御部980は、フォーカスレンズ911の移動完了に応じて、APD915を介して得られる信号から画像生成部がSLO画像(眼底画像)を生成する。出力部1021は生成されたSLO画像を解析し、当該SLO画像の焦点評価値を算出する。焦点評価値は、例えば生成された画像のコントラストや鮮鋭度に基づいて得られる。ここで、算出された焦点評価が高いほど、被検眼Eの眼底Erに対するSLO光学系のフォーカス状態が良いと判断される。 The drive control unit 1001 first moves the focus lens 911 to a position on the optical axis corresponding to the lowest position of the diopter by a drive motor or the like (not shown). Next, in the control unit 980, the image generation unit generates an SLO image (fundus image) from the signal obtained via the APD 915 in response to the completion of the movement of the focus lens 911. The output unit 1021 analyzes the generated SLO image and calculates the focus evaluation value of the SLO image. The focus evaluation value is obtained, for example, based on the contrast and sharpness of the generated image. Here, it is judged that the higher the calculated focus evaluation, the better the focus state of the SLO optical system with respect to the fundus Er of the eye E to be inspected.

続いて、駆動制御部1001は、フォーカスレンズ911を再度移動させ、SLO光学系における現状のディオプターに対して更に0.125ディオプターを追加する。制御部980は、フォーカスレンズ911の移動の完了に応じて新たなSLO画像を生成し、当該SLO画像の焦点評価値を算出する。現状での焦点評価値が得られると、出力部1021は、現状における焦点評価値と、直前に取得した焦点評価値である前焦点評価値とを比較する。現状での焦点評価値が前焦点評価値より高い場合、現状での焦点評価値を新たな前焦点評価値として更新する。その後、駆動制御部1001は、更に現状のディオプターに所定量(ここでは0.125)のディオプターを追加し、更なるSLO画像の生成、及びその焦点評価値の取得を行い、新たに得た焦点評価値と前焦点評価値の比較を行う。 Subsequently, the drive control unit 1001 moves the focus lens 911 again, and adds an additional 0.125 diopter to the current diopter in the SLO optical system. The control unit 980 generates a new SLO image according to the completion of the movement of the focus lens 911, and calculates the focus evaluation value of the SLO image. When the current focus evaluation value is obtained, the output unit 1021 compares the current focus evaluation value with the front focus evaluation value which is the focus evaluation value acquired immediately before. If the current focus evaluation value is higher than the prefocus evaluation value, the current focus evaluation value is updated as a new prefocus evaluation value. After that, the drive control unit 1001 further adds a predetermined amount (0.125 in this case) of the diopter to the current diopter, generates a further SLO image, and acquires the focus evaluation value thereof, and newly obtained the focus. Compare the evaluation value and the front focus evaluation value.

現状での焦点評価値と前焦点評価値の比較において、前焦点評価値の方が高く、焦点評価値が上がらなかったと判断された場合、出力部1021は、前焦点評価値を得たディオプターが最適なフォーカス状態に近いと判断する。このようにして、ディオプターの変更、SLO画像の生成、その焦点評価値の算出、得られた焦点評価値と前焦点評価値の比較、及び比較結果に基づくディオプターの変更を繰り返して最適なフォーカス状態を探す。このような制御を通じてSLO画像の焦点評価値が最高になることで、SLO光学系のフォーカス状態、特にフォーカスレンズ911の位置が最適なフォーカス位置にあると判断できる。
なお、本実施例ではフォーカスレンズ911を移動させる際の所定量を0.125ディオプターとしたが、この値に限らず、その他の移動量としてもよい。また、移動単位はディオプターに限る必要はなく、例えばレンズの移動距離や、レンズを移動させるモータの回転数等でもよい。
In the comparison between the current focus evaluation value and the prefocus evaluation value, if it is determined that the prefocal evaluation value is higher and the focus evaluation value does not increase, the output unit 1021 determines that the diopter that obtained the prefocus evaluation value Judge that it is close to the optimum focus state. In this way, the optimum focus state is repeated by changing the diopter, generating an SLO image, calculating the focus evaluation value, comparing the obtained focus evaluation value and the prefocus evaluation value, and changing the diopter based on the comparison result. Look for. When the focus evaluation value of the SLO image becomes the highest through such control, it can be determined that the focus state of the SLO optical system, particularly the position of the focus lens 911, is in the optimum focus position.
In this embodiment, the predetermined amount for moving the focus lens 911 is 0.125 diopter, but the value is not limited to this value, and other movement amounts may be used. Further, the movement unit is not limited to the diopter, and may be, for example, the movement distance of the lens, the rotation speed of the motor for moving the lens, or the like.

<OCT参照ミラーの位置調整の概要>
次に、OCT装置における参照ミラー953の位置調整の概要について説明する。OCT光学系を介して得た干渉光を用いて生成された断層画像は、参照ミラー953により測定光と参照光との光路長差により表示態様が変化する。即ち、参照ミラー953が適切に位置に調整されていない場合、生成される断層画像の中の適当な位置に検査対象部位(所定部位)である例えば網膜等の断層が表示されない場合がある。そのため、駆動制御部1001は、最適なフォーカス状態で得た被検眼Eの断層画像において検査対象部位が適切な位置に表示されるように、撮影光学系900を制御する。具体的には、OCT光学系における参照ミラー953の光軸方向の位置調整を行い、断層画像中での検査対象部位の表示位置の微調整を行う。
<Overview of OCT reference mirror position adjustment>
Next, the outline of the position adjustment of the reference mirror 953 in the OCT apparatus will be described. The display mode of the tomographic image generated by using the interference light obtained through the OCT optical system changes depending on the optical path length difference between the measurement light and the reference light by the reference mirror 953. That is, if the reference mirror 953 is not adjusted to an appropriate position, a tomographic image such as a retina, which is an inspection target site (predetermined site), may not be displayed at an appropriate position in the generated tomographic image. Therefore, the drive control unit 1001 controls the photographing optical system 900 so that the inspection target portion is displayed at an appropriate position in the tomographic image of the eye E to be inspected obtained in the optimum focus state. Specifically, the position of the reference mirror 953 in the OCT optical system is adjusted in the optical axis direction, and the display position of the inspection target portion in the tomographic image is finely adjusted.

駆動制御部1001は、まずOCT光学系の参照光路長が一番長くなるように、不図示の駆動用モータ等を駆動させ、参照ミラー953を移動させる。次に、画像生成部1023は、参照ミラー953の移動完了に応じて、この状態で得られている干渉光を用いて断層画像(OCT画像)を生成する。出力部1021は生成された断層画像を解析し、該断層画像中に例えば網膜等の被検眼Eの検査対象部位が含まれているか否かを出力する。断層画像中に検査対象部位が含まれている場合、駆動制御部1001は、参照ミラー953のこれ以上の調整は不要であるとの判断結果を出力する。 The drive control unit 1001 first drives a drive motor or the like (not shown) so that the reference optical path length of the OCT optical system becomes the longest, and moves the reference mirror 953. Next, the image generation unit 1023 generates a tomographic image (OCT image) using the interference light obtained in this state in response to the completion of the movement of the reference mirror 953. The output unit 1021 analyzes the generated tomographic image and outputs whether or not the tomographic image includes a site to be inspected of the eye E to be inspected, such as the retina. When the tomographic image includes the inspection target portion, the drive control unit 1001 outputs a determination result that further adjustment of the reference mirror 953 is unnecessary.

断層画像中に検査対象部位が含まれていない場合、駆動制御部1001は、参照光路長が現状より0.125mm短くなるように参照ミラー953を移動させる。画像生成部1023は、参照ミラー953の移動完了に応じて、その状態で得られている干渉信号から新たな断層画像を生成する。出力部1021は、生成された断層画像中に検査対象部位が含まれるか否かを出力し、含まれない場合は駆動制御部1001等による参照ミラー953の移動からの一連の処理を必要に応じて繰り返す。これにより、生成される断層画像中において、検査対象部位が適切な位置に表示されることとなる。
なお、本実施例では参照ミラー953の移動量を0.125mmとしたが、この値に限らず、その他の移動量としてもよい。また、移動単位はmmに限る必要はなく、例えば参照ミラーを移動させるモータの回転数等でもよい。
When the tomographic image does not include the inspection target site, the drive control unit 1001 moves the reference mirror 953 so that the reference optical path length is 0.125 mm shorter than the current state. The image generation unit 1023 generates a new tomographic image from the interference signal obtained in that state in response to the completion of the movement of the reference mirror 953. The output unit 1021 outputs whether or not the tomographic image to be inspected is included in the generated tomographic image, and if it is not included, a series of processing from the movement of the reference mirror 953 by the drive control unit 1001 or the like is necessary. And repeat. As a result, the inspection target site is displayed at an appropriate position in the generated tomographic image.
In this embodiment, the movement amount of the reference mirror 953 is 0.125 mm, but the movement amount is not limited to this value, and other movement amounts may be used. Further, the movement unit is not limited to mm, and may be, for example, the rotation speed of the motor for moving the reference mirror.

<断層画像撮像のシーケンス>
次に、被検眼に対する自動撮影を行う際の基本的な撮影シーケンスを、図11のフローチャートを用いて説明する。ユーザーは、例えば表示モニタ990のGUIを介して、被検者と撮影光学系900との大まかな位置合わせ、及びプレビュー動作の開始の指示をOCT装置に対して行う。その際、被検者に不図示の顎受けに顎を乗せさせ、被検眼のY軸方向の位置が所定の高さになるように不図示の顎受け駆動機構により調整する。ユーザーは、大まかな位置の調整が完了したら、例えばGUIに表示されるプレビュー開始ボタンを押下する。制御部980は、プレビュー開始ボタンが押されたことを検出したら、フローをステップS1101に移行させる。
<Sequence of tomographic image imaging>
Next, a basic imaging sequence for performing automatic imaging of the eye to be inspected will be described with reference to the flowchart of FIG. The user gives an instruction to the OCT apparatus to roughly align the subject and the photographing optical system 900 and to start the preview operation, for example, via the GUI of the display monitor 990. At that time, the subject is placed on the jaw support (not shown), and the position of the eye to be inspected in the Y-axis direction is adjusted by the jaw support drive mechanism (not shown) so as to have a predetermined height. When the rough position adjustment is completed, the user presses the preview start button displayed on the GUI, for example. When the control unit 980 detects that the preview start button has been pressed, the control unit 980 shifts the flow to step S1101.

ステップS1101では、アライメント操作を実行して被検眼Eの前眼部と撮影光学系900とのアライメントを行う。なお、前眼部に対するアライメント操作の詳細については、実施例1において実行された、図3を参照して説明した操作と同様な操作であることから、ここでの詳述は省略する。制御部980は、アライメントが完了したと判断されると、フローをステップS1102に移行させる。 In step S1101, an alignment operation is executed to align the anterior segment of the eye E to be inspected with the photographing optical system 900. Since the details of the alignment operation for the anterior segment of the eye are the same as the operation described with reference to FIG. 3 executed in the first embodiment, the details thereof will be omitted here. When the control unit 980 determines that the alignment is completed, the control unit 980 shifts the flow to step S1102.

ステップS1102では、上述したSLO光学系のフォーカス操作を実行して、フォーカス合わせを行う。駆動制御部1001は、フォーカスレンズ911を移動させてディオプターを変更する。画像生成部1023は、APD915が得た信号を用いてSLO画像(眼底画像)を生成する。出力部1021は、生成された眼底画像の焦点評価値の算出し、上述した最適なフォーカス状態を得るための操作を実行する。制御部980は、眼底画像の焦点評価値が最高になり、SLO光学系のフォーカス状態、特にフォーカスレンズ911の光軸上の位置が最適なフォーカス位置にあると判断したら、フローをステップS1103に移行させる。 In step S1102, the focus operation of the SLO optical system described above is executed to perform focusing. The drive control unit 1001 moves the focus lens 911 to change the diopter. The image generation unit 1023 generates an SLO image (fundus image) using the signal obtained by the APD915. The output unit 1021 calculates the focus evaluation value of the generated fundus image and executes the operation for obtaining the optimum focus state described above. When the control unit 980 determines that the focus evaluation value of the fundus image becomes the highest and the focus state of the SLO optical system, particularly the position on the optical axis of the focus lens 911 is in the optimum focus position, the flow shifts to step S1103. Let me.

ステップS1103では、駆動制御部1001は、撮影光学系900におけるOCT光学系で最適な撮像条件が得られるようにOCT光学系の光学部材を制御する。具体的には、OCT光学系におけるOCTフォーカスレンズ923のフォーカス制御を行う。
OCT光学系とSLO光学系とは、フォーカス状態が得られる際の各々のフォーカス用レンズの位置に相関がある。従って、SLO光学系において最適なフォーカス状態が得られたフォーカスレンズ911の光軸上の位置が把握されると、これと関連付けてOCT光学系のOCTフォーカスレンズ923の位置を調整することができる。これにより、OCT光学系においても最適なフォーカス状態が得られる。ステップS1103では、駆動制御部1001は、ステップS1102のSLO光学系のフォーカス処理によって得られたフォーカスレンズ911の光軸上の位置やディオプター値を用いて、OCTフォーカスレンズ923を光軸の対応する位置まで移動させる。制御部980は、当該OCTフォーカスレンズ923の移動が完了したと判断したら、フローをステップS1104に移行させる。
In step S1103, the drive control unit 1001 controls the optical member of the OCT optical system so that the optimum imaging conditions can be obtained in the OCT optical system in the photographing optical system 900. Specifically, the focus of the OCT focus lens 923 in the OCT optical system is controlled.
The OCT optical system and the SLO optical system have a correlation with the position of each focusing lens when a focused state is obtained. Therefore, once the position on the optical axis of the focus lens 911 from which the optimum focus state has been obtained in the SLO optical system is grasped, the position of the OCT focus lens 923 of the OCT optical system can be adjusted in association with this. As a result, an optimum focus state can be obtained even in the OCT optical system. In step S1103, the drive control unit 1001 uses the position on the optical axis of the focus lens 911 and the diopter value obtained by the focus processing of the SLO optical system in step S1102 to position the OCT focus lens 923 at the corresponding position on the optical axis. Move to. When the control unit 980 determines that the movement of the OCT focus lens 923 is completed, the control unit 980 shifts the flow to step S1104.

ステップS1104では、上述したOCT参照ミラーの位置調整の操作を実行して、断層画像中の検査対象部位の表示位置の調整を行う。駆動制御部1001は、参照ミラー953を光軸方向に移動させる。そして、ラインセンサ964で受光した干渉光から取得部1010により干渉信号を取得し、画像生成部1023により該干渉信号から断層画像を生成する。出力部1021は、生成された断層画像中に検査対象部位が含まれるか否かについての判断結果を出力する。制御部980は、断層像中に検査対象部位が含まれ、これ以上の調整は不要であるとの判断結果が出力された場合、フローをステップS1105に移行させる。 In step S1104, the operation of adjusting the position of the OCT reference mirror described above is executed to adjust the display position of the inspection target portion in the tomographic image. The drive control unit 1001 moves the reference mirror 953 in the optical axis direction. Then, the acquisition unit 1010 acquires an interference signal from the interference light received by the line sensor 964, and the image generation unit 1023 generates a tomographic image from the interference signal. The output unit 1021 outputs a determination result as to whether or not the tomographic image to be inspected is included in the generated tomographic image. The control unit 980 shifts the flow to step S1105 when the tomographic image includes the inspection target site and the determination result that further adjustment is unnecessary is output.

ステップS1105では、表示制御部1002の制御によって、図12に例示する画像がプレビューとして表示モニタ990に表示される。プレビューには、前眼画像1201、眼底画像1202、及び断層画像1203が表示される。前眼画像1201は撮像素子942の出力から得られた画像であり、眼底画像1202はAPD915の出力から生成された画像であり、断層画像1203はラインセンサ964の出力から生成された画像である。なお、本実施例では、ステップS1101〜S1104が完了してからプレビュー表示を行っている。しかし、撮像素子942、APD915、及びラインセンサ964はそれぞれ独立して画像取得のための駆動が可能なため、ステップS1101〜S1104中においても生成された画像があればこれらのプレビュー表示を行ってもよい。 In step S1105, the image illustrated in FIG. 12 is displayed as a preview on the display monitor 990 under the control of the display control unit 1002. The anterior eye image 1201, the fundus image 1202, and the tomographic image 1203 are displayed in the preview. The anterior eye image 1201 is an image obtained from the output of the image sensor 942, the fundus image 1202 is an image generated from the output of the APD 915, and the tomographic image 1203 is an image generated from the output of the line sensor 964. In this embodiment, the preview display is performed after steps S1101 to S1104 are completed. However, since the image sensor 942, the APD 915, and the line sensor 964 can be independently driven for image acquisition, even if there is an image generated during steps S1101 to S1104, these preview displays can be performed. Good.

ステップS1106では、出力部1021により、画像生成部1023が生成した眼底画像及び断層画像を入力データとして、学習済モデルを用いて写損原因、及び該写損原因に対応する撮影条件の出力を行う。出力部1021により出力された写損原因が無しの場合は、制御部980はフローをステップS1107に移行させる。ステップS1107では、駆動制御部1001によりプレビュー時の撮影条件にて実際の診断に提供する断層画像の撮影である所謂本撮影を行い、制御部980はフローをステップS1108に移行させる。なお、本撮影では、例えばフォーカスレンズや参照ミラー等に関する条件を変更せず、測定この一走査線での信号取得回数等の条件を変更する。ステップS1108では、制御部980は、撮影により取得した断層画像等を、記憶部1013に保存して終了する。また、ステップS1106で写損原因等が出力された場合、制御部980は、フローをステップS1109に移行させる。 In step S1106, the output unit 1021 uses the fundus image and the tomographic image generated by the image generation unit 1023 as input data to output the cause of the image loss and the imaging conditions corresponding to the cause of the image loss using the trained model. .. If there is no cause of copying loss output by the output unit 1021, the control unit 980 shifts the flow to step S1107. In step S1107, the drive control unit 1001 performs so-called main imaging, which is the imaging of the tomographic image provided for the actual diagnosis under the imaging conditions at the time of preview, and the control unit 980 shifts the flow to step S1108. In the main shooting, for example, the conditions related to the focus lens, the reference mirror, and the like are not changed, but the conditions such as the number of signal acquisitions in this one scanning line are changed. In step S1108, the control unit 980 saves the tomographic image or the like acquired by photographing in the storage unit 1013 and ends the process. Further, when the cause of copying loss or the like is output in step S1106, the control unit 980 shifts the flow to step S1109.

例えば、SLO光学系のフォーカス操作の場合、制御部980は、フォーカスレンズ911を移動させてディオプターを変更し、眼底画像を取得し、その焦点評価値の算出を行う。そして、得られた焦点評価値と前焦点評価値の比較と該比較結果に基づくディオプターの変更を繰り返して行うことで、最適なフォーカス状態を探す。しかし、例えば白内障による眼底不明瞭等により鮮明な眼底画像が取得できない場合、フォーカスレンズ911の位置を調整しても一定の焦点評価値を得られない可能性がある。一定の焦点評価値が得られないとSLO光学系のフォーカス操作が終わらず、一定時間経過後に中断となり、ボケの入った眼底画像及び断層画像が取得されることとなる。 For example, in the case of the focus operation of the SLO optical system, the control unit 980 moves the focus lens 911 to change the diopter, acquires a fundus image, and calculates the focus evaluation value thereof. Then, the optimum focus state is searched for by repeatedly comparing the obtained focus evaluation value and the prefocus evaluation value and changing the diopter based on the comparison result. However, when a clear fundus image cannot be obtained due to unclear fundus due to cataract, for example, a constant focus evaluation value may not be obtained even if the position of the focus lens 911 is adjusted. If a constant focus evaluation value is not obtained, the focus operation of the SLO optical system will not be completed, and it will be interrupted after a certain period of time, and a blurred fundus image and a tomographic image will be acquired.

また、OCT光学系のフォーカス操作では、駆動制御部1001は、ステップS1102で得られたフォーカスレンズ911の位置やディオプター値を用いて、OCTフォーカスレンズ923を光軸上の対応する位置まで移動させる。そのため、SLO光学系のフォーカス操作でフォーカスレンズ911を適切な位置に移動させることができない場合、OCTフォーカスレンズ923も適切な位置に移動させることができなくなる。 Further, in the focus operation of the OCT optical system, the drive control unit 1001 moves the OCT focus lens 923 to a corresponding position on the optical axis by using the position of the focus lens 911 and the diopter value obtained in step S1102. Therefore, if the focus lens 911 cannot be moved to an appropriate position by the focus operation of the SLO optical system, the OCT focus lens 923 cannot be moved to an appropriate position either.

例えば、OCT参照ミラーの位置調整の場合、制御部980は、参照ミラー953を移動させ、断層画像を取得し、当該断層画像中の適切な位置に検査対象部位が配置されるか否かを判断する。しかし、参照ミラー953による参照光の光路長調整が不十分である場合や、眼底の湾曲が大きく測定光の光路長が場所によって大きく異なる場合、断層画像に折り返しが入る可能性がある。断層画像に折り返しが入ると網膜の構造が不明瞭となり、検査精度が低下する。 For example, in the case of adjusting the position of the OCT reference mirror, the control unit 980 moves the reference mirror 953, acquires a tomographic image, and determines whether or not the inspection target site is arranged at an appropriate position in the tomographic image. To do. However, if the optical path length adjustment of the reference light by the reference mirror 953 is insufficient, or if the curvature of the fundus is large and the optical path length of the measurement light varies greatly depending on the location, the tomographic image may be folded. If the tomographic image is folded back, the structure of the retina becomes unclear and the inspection accuracy decreases.

このように、通常の制御では、フォーカスレンズの位置を定めることができない場合や、参照ミラーの位置調整ができない場合では、写損画像を学習済モデルに入力したとしても適切な撮影条件を得ることができない。このような場合、学習済モデルに入力するデータに、SLO光学系のフォーカス操作が未達であること、或いは眼底の湾曲が大きい等の被検眼の構造に関する情報も加えることができる。このような場合への対応として、用いる学習済モデルでは、これらのデータも参照して該学習済モデルでは適当な撮影条件を出力できないことを出力するとよい。従って、ステップS1106で写損原因が出力された場合、表示制御部1002は、表示モニタ990に、写損原因に対応できない写損であることも加えて、出力された写損原因を表示させるとよい。また、その際に、再撮影時に制御される撮影条件、若しくは撮影条件の補正値も併せて表示させることにより、以降のステップS1109でのユーザーの選択時の参照とする情報を増やすことができる。 In this way, if the position of the focus lens cannot be determined or the position of the reference mirror cannot be adjusted with normal control, appropriate shooting conditions can be obtained even if the lost image is input to the trained model. I can't. In such a case, information on the structure of the eye to be inspected, such as the fact that the focus operation of the SLO optical system has not been achieved or the curvature of the fundus is large, can be added to the data input to the trained model. As a response to such a case, it is preferable that the trained model to be used also refers to these data and outputs that the trained model cannot output appropriate shooting conditions. Therefore, when the cause of the image loss is output in step S1106, the display control unit 1002 causes the display monitor 990 to display the output cause of the image loss in addition to the fact that the cause of the image loss cannot be dealt with. Good. Further, at that time, by displaying the shooting conditions controlled at the time of re-shooting or the correction value of the shooting conditions, it is possible to increase the information to be referred to when the user selects in the subsequent step S1109.

ステップS1109では、制御部980は、手動操作が選択されたと判断したら、フローをステップS1110に移行させ、撮影条件の制御を自動制御から手動制御に変更させる。ユーザーは、上述した表示モニタ990のGUIや不図示のその他の各種入力手段を用いて撮影光学系900の各構成を駆動する。そして、制御部980は、手動制御後の条件で得られた断層画像をプレビュー表示させるために、フローをステップS1105に移行させる。 In step S1109, when the control unit 980 determines that the manual operation has been selected, the flow shifts to step S1110, and the control of the shooting condition is changed from the automatic control to the manual control. The user drives each configuration of the photographing optical system 900 by using the GUI of the display monitor 990 described above and various other input means (not shown). Then, the control unit 980 shifts the flow to step S1105 in order to preview the tomographic image obtained under the conditions after the manual control.

ステップS1109において、制御部980は、自動操作が選択されたと判断したら、フローをステップS1111に移行させる。ステップS1111では、出力部1021が出力した、出力した写損条件に対応する撮影条件により眼底画像の再撮影を行うために、制御部980は、自動的に撮影光学部700等を駆動させる。そして、制御部980は、自動制御後の条件で得られた断層画像をプレビュー表示させるために、フローをステップS1105に移行させる。 In step S1109, when the control unit 980 determines that the automatic operation is selected, the control unit 980 shifts the flow to step S1111. In step S1111, the control unit 980 automatically drives the photographing optical unit 700 and the like in order to re-photograph the fundus image under the imaging conditions corresponding to the output imaging loss conditions output by the output unit 1021. Then, the control unit 980 shifts the flow to step S1105 in order to preview the tomographic image obtained under the conditions after the automatic control.

断層画像やフォーカス条件を得るために用いる眼底画像に対する上述したような写損原因の適切な判断は、見識のあるユーザーによる必要がある。しかしながら常に見識のあるユーザーが眼科装置の操作を行うとは限らない。本実施例によれば、プレビュー画像から学習済モデルを用いて写損原因やこれに対処するための補正値を適切に出力することができる。従って、問題となる写損を低減して再撮影が行えるように、適切な撮影条件を得るための制御を自動ですることが可能となる。
なお、本実施例では、制御部980は、ステップS1105におけるプレビュー表示後に該プレビューで表示した画像を用いて写損判断を行っている。しかし、ステップS1107における所謂本撮影後に、得られた本撮影の断層画像を用いて写損判断を行ってもよい。また、ステップS1109における手動選択を行うかどうかについて、事前に選択させてもよい。
Appropriate determination of the cause of image loss as described above for the tomographic image and the fundus image used to obtain the focus condition needs to be made by an knowledgeable user. However, a knowledgeable user does not always operate the ophthalmic device. According to this embodiment, it is possible to appropriately output the cause of the copying loss and the correction value for dealing with the cause of the copying loss from the preview image using the trained model. Therefore, it is possible to automatically control for obtaining appropriate shooting conditions so that the problematic shooting loss can be reduced and re-shooting can be performed.
In this embodiment, the control unit 980 makes a copying loss determination using the image displayed in the preview after the preview is displayed in step S1105. However, after the so-called main imaging in step S1107, a copying loss determination may be made using the obtained tomographic image of the main imaging. In addition, whether or not to perform the manual selection in step S1109 may be selected in advance.

<学習済モデルの生成>
次に、本実施例に係る学習済モデルの生成について説明する。なお、実施例1でも説明したように、本実施例における学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な学習データを用いてトレーニングしたモデルである。
<Generation of trained model>
Next, the generation of the trained model according to this embodiment will be described. As described in Example 1, the trained model in this example is a machine learning model that follows an arbitrary machine learning algorithm such as deep learning, and is trained using appropriate learning data in advance. It is a model that was done.

以下、本実施例に係る学習済モデルを得る際のトレーニングに用いる学習データについて説明する。
本実施例では、学習データの入力データとして、眼底画像及び断層画像を用いる。更に、この入力データには、上述したディオプターも含めることができる。そして、学習データの出力データとして、写損原因と該写損原因に対応する撮影条件或いは該撮影条件の補正値を用いる。学習データの作成方法は上述した実施例1における学習データの作成方法と基本的に同様である。
Hereinafter, the learning data used for training when obtaining the trained model according to this embodiment will be described.
In this embodiment, a fundus image and a tomographic image are used as input data for the learning data. Further, the input data may include the diopter described above. Then, as the output data of the learning data, the cause of the photo loss and the shooting conditions corresponding to the cause of the photo loss or the correction value of the shooting conditions are used. The method of creating the learning data is basically the same as the method of creating the learning data in the above-described first embodiment.

例えば、フォーカスレンズ911の光軸上の位置を一定量だけ眼底Erに対して近づけて或いは遠ざけて眼底画像を撮影する。これより、学習データの入力データとして、写損の一態様であるピンボケを有した眼底画像が得られる。眼底画像はピンボケの態様により、このピンボケがフォーカスレンズ911が眼底Erに近すぎることによるものか遠すぎることによるものであるかの判別ができる。より詳細には、フォーカスレンズ911が眼底Erに近い場合には、得られた眼底画像は、焦点位置となる箇所は暗くなるが、逆に周囲は少し明るくなり、その分だけ可視領域が広がる。更にフォーカスレンズ911が眼底Erに近づくと焦点位置だった箇所から暗くなり、最終的には周辺だけが見える領域として残る。また、フォーカスレンズ911が眼底Erに遠い場合には、得られた眼底画像は全体的に暗くなる。しかし、周辺も暗くなるため、可視領域は広がらない。更にフォーカスレンズ911が眼底Erから遠ざかると周りから暗くなり、最終的には焦点位置だけが見える領域として残る。このため、眼底画像Erの明暗の分布から、フォーカスレンズ911が眼底Erに近いためにピンボケとなっているか、遠いためにピンボケとなっているかを知ることができる。 For example, the fundus image is taken by moving the position of the focus lens 911 on the optical axis closer to or further from the fundus Er by a certain amount. As a result, as the input data of the training data, a fundus image having out-of-focus, which is one aspect of copying loss, can be obtained. Depending on the aspect of the fundus image, it is possible to determine whether the focus lens 911 is due to being too close to or too far from the fundus Er. More specifically, when the focus lens 911 is close to the fundus Er, the obtained fundus image becomes darker at the focal position, but conversely the periphery becomes slightly brighter, and the visible region expands accordingly. Further, when the focus lens 911 approaches the fundus Er, it becomes darker from the position where the focal point was, and finally, only the periphery remains as a visible region. Further, when the focus lens 911 is far from the fundus Er, the obtained fundus image becomes dark as a whole. However, since the periphery is also darkened, the visible region does not expand. Further, when the focus lens 911 moves away from the fundus Er, it becomes dark from the surroundings, and finally, only the focal position remains as a visible region. Therefore, from the distribution of light and darkness of the fundus image Er, it is possible to know whether the focus lens 911 is out of focus because it is close to the fundus Er and is out of focus because it is far from it.

以上より、これら眼底画像に対応するフォーカスレンズのフォーカス位置からのずれ量(補正値)を出力データとすることで、この写損原因とその補正値を出力する学習済モデルが得られる。また、同様の態様の写損画像として、例えば網膜の深さ方向のフォーカス位置が所定位置にない断層画像も入力データとすることができる。このような断層画像についても、眼底画像と同様の学習データを用いることで、ピンボケに対応できる学習済モデルを得ることができる。 From the above, by using the amount of deviation (correction value) from the focus position of the focus lens corresponding to these fundus images as the output data, it is possible to obtain a learned model that outputs the cause of this copying loss and the correction value. Further, as a loss image of the same aspect, for example, a tomographic image in which the focus position in the depth direction of the retina is not at a predetermined position can be used as input data. For such a tomographic image, a trained model that can deal with out-of-focus can be obtained by using the same training data as the fundus image.

また、例えば、参照ミラー953の光軸上の位置を、参照光の光路長が所定の光路長となる所望の位置から、光路長を短くして或いは長くして断層画像を撮影する。これにより、写損の一態様である検査対象部位が断層画像中の所望の位置からずれた断層画像が得られる。断層画像中の検査対象部位の上下方向の位置は、参照光の光路長の長短と対応づけることができることから、撮影された断層画像から参照光の光路長をどのように変化させればよいかが判別できる。また、これら断層画像に対する参照ミラーの光軸上の位置の所定位置からのずれ量(補正値)を出力データとすることで、この写損原因とその補正値を出力する学習済モデルが得られる。 Further, for example, a tomographic image is taken by shortening or lengthening the optical path length of the reference mirror 953 from a desired position where the optical path length of the reference light becomes a predetermined optical path length. As a result, a tomographic image in which the inspection target site, which is one aspect of photo loss, is deviated from a desired position in the tomographic image can be obtained. Since the vertical position of the inspection target part in the tomographic image can be associated with the length of the optical path length of the reference light, how should the optical path length of the reference light be changed from the captured tomographic image? Can be identified. Further, by using the amount of deviation (correction value) of the position on the optical axis of the reference mirror with respect to these tomographic images from a predetermined position as output data, a learned model that outputs the cause of this copying loss and the correction value can be obtained. ..

また、本実施例における学習済モデルは、写損無しという出力も出力可能である。そのため、適切な位置から移動させずに撮影した画像とその写損原因(写損無し)も学習データペアとして用いる。当該学習データペアを用いてトレーニングすることにより、学習精度を上げることができる。また、実施例1でも説明したように、例えば疾患眼における学習データは上述した態様では作成することができない。そのため、疾患眼を撮影した眼画像と、その時の写損原因を、学習データペアとして用いるとよい。なお、上述した写損原因は例示であり、その他の、露光不足等の公知の種々の写損原因とその補正値についても、同様に写損を有する画像を生成し、これらを入力データとして用いることでこの写損原因に対応した学習済モデルを得ることができる。 In addition, the trained model in this embodiment can output an output that there is no copying loss. Therefore, the image taken without moving from an appropriate position and the cause of the copying loss (no copying loss) are also used as the learning data pair. By training using the learning data pair, the learning accuracy can be improved. Further, as described in Example 1, for example, learning data in a diseased eye cannot be created in the above-described manner. Therefore, it is advisable to use the eye image obtained by photographing the diseased eye and the cause of the image loss at that time as a learning data pair. It should be noted that the above-mentioned causes of image loss are examples, and for other known causes of image loss such as underexposure and their correction values, images having image loss are similarly generated and used as input data. Therefore, a trained model corresponding to the cause of this copying loss can be obtained.

なお、入力データの数は1つ以上であればよく、適宜選択可能である。例えば、学習データの入力データとして焦点評価値等を追加することもできる。また、画像毎に、例えば前眼画像、眼底画像、断層画像毎に適用可能な学習済モデルや、その他のディオプター等の追加するデータに応じた学習済モデルを予め用意しておいてもよい。この場合、学習済モデルに入力するデータに応じて、適切な学習済モデルが選択されるとよい。また、上述した変形例1でも述べたように、まず取得した画像から写損原因のみを出力する学習済モデルを用いて写損原因の判別を行い、該写損原因と取得した画像とから撮影条件或いは補正値を出力する学習済モデルを用いる態様とすることもできる。 The number of input data may be one or more, and can be appropriately selected. For example, a focus evaluation value or the like can be added as input data for learning data. Further, a trained model applicable to each image, for example, an anterior eye image, a fundus image, and a tomographic image, or a trained model corresponding to additional data such as other diopters may be prepared in advance. In this case, it is preferable that an appropriate trained model is selected according to the data to be input to the trained model. Further, as described in the above-described modification 1, first, the cause of the photo loss is determined using a learned model that outputs only the cause of the photo loss from the acquired image, and the image is photographed from the cause of the photo loss and the acquired image. It is also possible to use a trained model that outputs a condition or a correction value.

更に、学習済モデルは、事前にOCT装置を用いて学習させたものをそのまま用いてもよいし、使用しながら学習済モデルの更新(追加学習)をしてもよい。具体的には、写損と判断された撮影画像を学習データの入力データ、その時の写損原因と撮影条件とを学習データの出力データとする。そして、当該学習データペアを用いて追加学習を行う。また、追加学習は被検者毎に行ってもよく、その場合、当該被検者用の学習済モデルが生成される。なお、本実施例における機械学習モデルであるCNNについは、実施例1及び図6で説明している内容と同様であるためここでの説明を割愛する。本実施例では、前述した学習データによってトレーニングされた学習済モデルに撮影画像を入力すると、写損原因と該写損原因を低減して再撮影を行うための撮影条件とが出力される。 Further, as the trained model, the one trained in advance using the OCT device may be used as it is, or the trained model may be updated (additional learning) while using it. Specifically, the captured image determined to be a copying loss is used as the input data of the learning data, and the cause of the copying loss and the shooting conditions at that time are used as the output data of the learning data. Then, additional learning is performed using the learning data pair. Further, additional learning may be performed for each subject, in which case a trained model for the subject is generated. The CNN, which is a machine learning model in this embodiment, is the same as the contents described in Examples 1 and 6, and thus the description thereof is omitted here. In this embodiment, when a captured image is input to the trained model trained by the training data described above, the cause of the copying loss and the shooting conditions for reducing the cause of the shooting loss and performing re-shooting are output.

上述した実施例2では、写損原因として、断層画像中の検査対象部位の配置のずれについて述べた。本実施例2では、撮影光学部は、測定光源930からの光を分割して得た測定光が照射された被検眼Eからの戻り光と、測定光源930からの光を分割して得た参照光とを干渉させる干渉光学系を有する。この場合の参照光は、測定光に対応する。写損原因が検査対象部位の配置のずれであると判定された場合、この配置のずれは、例えば参照光の光路長と測定光の光路長との光路長差に起因する。このことから、再撮影時にはこの光路長差が調整される。具体的には、出力部1021は、補正値(制御値)として、光路長差を、最初の撮影時の光路長差(第一の差)から再撮影時の光路長差(第二の差)とする変更量を出力する。より具体的には、参照ミラー953の光路上の位置の変更量が出力される。なお、実施例2では参照ミラー953を移動させて参照光の光路長を変更したが、測定光の光路長を変更することで光路長差を変更してもよい。なお、光路長差を変更する際に、光路長差を大きくすべきか小さくすべきかについては、撮影された被検眼Eの断層画像における検査対象部位の配置(画像中の上側によっているか下側によっているか)によって判定できる。これにより、出力部1021は、差の変更量の正負を出力することができる。 In Example 2 described above, the misalignment of the inspection target site in the tomographic image was described as the cause of the copying loss. In the second embodiment, the photographing optical unit is obtained by dividing the return light from the eye E to be irradiated and the light from the measurement light source 930, which is obtained by dividing the light from the measurement light source 930. It has an interference optical system that interferes with the reference light. The reference light in this case corresponds to the measurement light. When it is determined that the cause of the image loss is the deviation of the arrangement of the inspection target portion, the deviation of the arrangement is caused by, for example, the optical path length difference between the optical path length of the reference light and the optical path length of the measurement light. Therefore, this optical path length difference is adjusted at the time of re-shooting. Specifically, the output unit 1021 sets the optical path length difference as a correction value (control value) from the optical path length difference (first difference) at the time of the first shooting to the optical path length difference (second difference) at the time of re-shooting. ) Is output. More specifically, the amount of change in the position of the reference mirror 953 on the optical path is output. In the second embodiment, the reference mirror 953 is moved to change the optical path length of the reference light, but the optical path length difference may be changed by changing the optical path length of the measurement light. When changing the optical path length difference, whether the optical path length difference should be increased or decreased depends on the arrangement of the inspection target part (depending on the upper side or the lower side in the image) in the tomographic image of the eye E to be inspected. ) Can be determined. As a result, the output unit 1021 can output the positive and negative of the change amount of the difference.

[変形例4]
上述した実施例2では、眼底を撮影する構成としてSLO光学系を用いた場合について説明した。しかし、眼底を撮影する構成は例示した態様に限られず、眼底をカラー撮影することができる。例えば、実施例2で述べたSLO光学系に換えて、上述した変形例2で述べたカラーSLOを用いてもよい。この場合、図9の光路L92において、例示したSLO光学系の諸構成に換えて、例えば図7に示したカラーSLO701を配置することができる。また、カラーSLO701における対物光学系を上述した実施例3でも述べたような反射光学系により構成し、該カラーSLOを例えば図8に示した超広画角SLO800とすることもできる。また、上述した実施例2におけるSLO光学系に換えて、上述した実施例1で述べたような図2(a)の眼底カメラCの光学構成を採用することも可能である。
[Modification example 4]
In Example 2 described above, the case where the SLO optical system is used as the configuration for photographing the fundus of the eye has been described. However, the configuration for photographing the fundus is not limited to the illustrated embodiment, and the fundus can be photographed in color. For example, the color SLO described in the above-described modification 2 may be used instead of the SLO optical system described in the second embodiment. In this case, in the optical path L92 of FIG. 9, for example, the color SLO701 shown in FIG. 7 can be arranged instead of the various configurations of the illustrated SLO optical system. Further, the objective optical system in the color SLO 701 may be configured by the reflection optical system as described in Example 3 described above, and the color SLO may be, for example, the ultra-wide angle of view SLO 800 shown in FIG. Further, instead of the SLO optical system in the above-mentioned Example 2, it is also possible to adopt the optical configuration of the fundus camera C of FIG. 2A as described in the above-mentioned Example 1.

以上に述べた実施例によれば、学習済モデルを用いて写損時の適切な補正値を出力することが可能である。また、以上に述べた実施例によれば、学習済モデルを用いて適切な写損原因を出力することが可能である。従って、再撮影時の写損の発生率を低減することができ、惹いては、被検者及びユーザーの負担を軽減することもできる。 According to the above-described embodiment, it is possible to output an appropriate correction value at the time of copying loss using the trained model. Further, according to the above-described embodiment, it is possible to output an appropriate cause of copying loss by using the trained model. Therefore, it is possible to reduce the occurrence rate of photo loss at the time of re-shooting, and it is also possible to reduce the burden on the subject and the user.

なお、本発明は、以上に述べた実施例で例示した眼科装置に限定されるものではない。例えば、眼圧測定装置、眼屈折測定装置、眼底カメラ、OCT装置等、眼科分野において使用可能な任意の機能を有する装置に対して、本発明を適用することができる。 The present invention is not limited to the ophthalmic apparatus exemplified in the above-described examples. For example, the present invention can be applied to devices having arbitrary functions that can be used in the field of ophthalmology, such as an intraocular pressure measuring device, an ocular refraction measuring device, a fundus camera, and an OCT device.

[変形例5]
上述した様々な実施例及び変形例では、OCT装置として、SLDを光源として用いたスペクトラルドメインOCT(SD−OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS−OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine−OCT装置(或いはSS−Line−OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field−OCT装置(或いはSS−Full Field−OCT装置)にも本発明を適用することもできる。
[Modification 5]
In the various examples and modifications described above, the spectral domain OCT (SD-OCT) device using the SLD as the light source has been described as the OCT device, but the configuration of the OCT device according to the present invention is not limited to this. For example, the present invention can be applied to any other type of OCT device such as a wavelength sweep type OCT (SS-OCT) device using a wavelength sweep light source capable of sweeping the wavelength of emitted light. The present invention can also be applied to a Line-OCT device (or SS-Line-OCT device) using line light. The present invention can also be applied to a Full Field-OCT device (or SS-Full Field-OCT device) using area light.

上述した様々な実施例及び変形例では、分割手段としてカプラーを使用した光ファイバー光学系を用いているが、コリメータとビームスプリッタを使用した空間光学系を用いてもよい。また、撮影光学系900の構成は、上記の構成に限られず、撮影光学系900に含まれる構成の一部を撮影光学系900と別体の構成としてもよい。 In the various examples and modifications described above, an optical fiber optical system using a coupler is used as the dividing means, but a spatial optical system using a collimator and a beam splitter may be used. Further, the configuration of the photographing optical system 900 is not limited to the above configuration, and a part of the configuration included in the photographing optical system 900 may be a configuration separate from the photographing optical system 900.

また、上述した様々な実施例及び変形例では、取得部1010は、撮影光学系900で取得された干渉信号や画像生成部1023で生成された断層画像等を取得した。しかしながら、取得部1010がこれらの信号や画像を取得する構成はこれに限られない。例えば、取得部1010は、制御部980とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号を取得してもよい。 Further, in the various examples and modifications described above, the acquisition unit 1010 acquired the interference signal acquired by the photographing optical system 900, the tomographic image generated by the image generation unit 1023, and the like. However, the configuration in which the acquisition unit 1010 acquires these signals and images is not limited to this. For example, the acquisition unit 1010 may acquire these signals from a server or an imaging device connected to the control unit 980 via a LAN, WAN, the Internet, or the like.

また、各種学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 Further, the training data of various trained models is not limited to the data obtained by using the ophthalmologic device itself that actually performs the imaging, and the data obtained by using the same type of ophthalmic device or the same type according to the desired configuration. It may be data obtained by using an ophthalmic apparatus or the like.

なお、上述した様々な実施例及び変形例では、被検眼の眼底部分に関する断層画像について説明したが、被検眼の前眼部に関する断層画像について上記画像処理を行ってもよい。この場合、断層画像において異なる画像処理が施されるべき領域には、水晶体、角膜、虹彩、及び前眼房等の領域が含まれる。なお、当該領域に前眼部の他の領域が含まれてもよい。また、眼底部分に関する断層画像についての領域は、硝子体部、網膜部、及び脈絡膜部に限られず、眼底部分に関する他の領域を含んでもよい。ここで、眼底部分に関する断層画像については、前眼部に関する断層画像よりも階調が広くなるため、上記実施例及び変形例に係る画像処理による高画質化がより効果的に行われることができる。 In the various examples and modifications described above, the tomographic image relating to the fundus portion of the eye to be inspected has been described, but the above image processing may be performed on the tomographic image relating to the anterior segment of the eye to be inspected. In this case, the regions to be subjected to different image processing in the tomographic image include regions such as the crystalline lens, cornea, iris, and anterior chamber of eye. The region may include another region of the anterior segment of the eye. Further, the region of the tomographic image relating to the fundus portion is not limited to the vitreous portion, the retinal portion, and the choroidal portion, and may include other regions relating to the fundus portion. Here, since the tomographic image relating to the fundus portion has a wider gradation than the tomographic image relating to the anterior segment portion, it is possible to more effectively improve the image quality by the image processing according to the above-described embodiment and the modified example. ..

また、上述した様々な実施例及び変形例では、被検体として被検眼を例に説明したが、被検体はこれに限定されない。例えば、被検体は皮膚や他の臓器等でもよい。この場合、上記実施例及び変形例に係るOCT装置は、眼科装置以外に、内視鏡等の医療機器に適用することができる。 Further, in the various examples and modifications described above, the subject to be examined has been described as an example, but the subject is not limited thereto. For example, the subject may be skin, other organs, or the like. In this case, the OCT device according to the above embodiment and the modified example can be applied to a medical device such as an endoscope in addition to the ophthalmic device.

[変形例6]
また、上述した様々な実施例及び変形例による画像処理装置又は画像処理方法によって処理される画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された医用画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や、上記実施例及び変形例による画像処理装置又は画像処理方法によって作成された眼底画像や断層画像等の画像を含むことができる。
[Modification 6]
Further, the image processed by the image processing apparatus or the image processing method according to the various examples and modifications described above includes a medical image acquired by using an arbitrary modality (imaging apparatus, imaging method). The medical image to be processed may include a medical image acquired by an arbitrary imaging device or the like, an image processing device according to the above examples and modifications, or an image such as a fundus image or a tomographic image created by an image processing method. it can.

更に、処理される医用画像は、被検者(被検体)の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。更に医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。 Further, the medical image to be processed is an image of a predetermined part of the subject (subject), and the image of the predetermined part includes at least a part of the predetermined part of the subject. In addition, the medical image may include other parts of the subject. Further, the medical image may be a still image or a moving image, and may be a black-and-white image or a color image. Further, the medical image may be an image showing the structure (morphology) of a predetermined part or an image showing the function thereof. The image showing the function includes, for example, an OCTA image, a Doppler OCT image, an fMRI image, and an image showing blood flow dynamics (blood flow volume, blood flow velocity, etc.) such as an ultrasonic Doppler image. The predetermined part of the subject may be determined according to the subject to be imaged, and the human eye (eye to be examined), brain, lung, intestine, heart, pancreas, kidney, liver and other organs, head, chest, etc. Includes any part such as legs and arms.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底正面画像や、前眼部の正面画像、蛍光撮影された眼底画像、OCTで取得したデータ(三次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn−Face画像を含む。En−Face画像は、三次元のOCTAデータ(三次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn−Face画像(モーションコントラスト正面画像)でもよい。また、三次元のOCTデータや三次元のモーションコントラストデータは、三次元の医用画像データの一例である。 Further, the medical image may be a tomographic image of the subject or a frontal image. The frontal image is, for example, a frontal image of the fundus, a frontal image of the anterior segment of the eye, a fundus image photographed by fluorescence, and data acquired by OCT (three-dimensional OCT data) in at least a part range in the depth direction of the imaged object. Includes En-Face images generated using the data from. The En-Face image is an OCTA En-Face image (motion contrast front image) generated by using at least a part of the data in the depth direction of the shooting target for the three-dimensional OCTA data (three-dimensional motion contrast data). ) May be. Further, three-dimensional OCT data and three-dimensional motion contrast data are examples of three-dimensional medical image data.

ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn−Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。 Here, the motion contrast data is data indicating a change between a plurality of volume data obtained by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data showing changes between a plurality of tomographic images obtained at substantially the same position at different positions. The motion contrast frontal image is also referred to as an OCTA frontal image (OCTA En-Face image) relating to OCTA angiography (OCTA) for measuring the movement of blood flow, and the motion contrast data is also referred to as OCTA data. The motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a maximum value divided by a minimum value (maximum value / minimum value) between two tomographic images or corresponding interference signals. , It may be obtained by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected.

また、En−Face画像は、例えば、2つの層境界の間の範囲のデータをXY方向に投影して生成した正面画像である。このとき、正面画像は、光干渉を用いて得たボリュームデータ(三次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影又は積算して生成される。En−Face画像は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲に対応するデータを二次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を二次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 The En-Face image is, for example, a front image generated by projecting data in the range between two layer boundaries in the XY directions. At this time, the front image is at least a part of the depth range of the volume data (three-dimensional tomographic image) obtained by using optical interference, and is the data corresponding to the depth range determined based on the two reference planes. Is projected or integrated on a two-dimensional plane. The En-Face image is a frontal image generated by projecting the data corresponding to the depth range determined based on the detected retinal layer of the volume data onto a two-dimensional plane. As a method of projecting data corresponding to a depth range determined based on two reference planes on a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. Techniques can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Further, the depth range related to the En-Face image is, for example, a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries relating to the detected retinal layer. May be good. Further, the depth range related to the En-Face image may be, for example, a range changed (offset) according to an operator's instruction from a range between two layer boundaries related to the detected retinal layer. Good.

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、上述した様々な実施例及び変形例に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。 The imaging device is a device for capturing an image used for diagnosis. The photographing device detects, for example, a device that obtains an image of a predetermined part by irradiating a predetermined part of the subject with radiation such as light or X-rays, electromagnetic waves, ultrasonic waves, or the like, or radiation emitted from the subject. This includes a device for obtaining an image of a predetermined part. More specifically, the imaging devices according to the various examples and modifications described above include at least an X-ray imaging device, a CT device, an MRI device, a PET device, a SPECT device, an SLO device, an OCT device, an OCTA device, and a fundus. Includes cameras, endoscopes, etc.

なお、OCT装置としては、タイムドメインOCT(TD−OCT)装置やフーリエドメインOCT(FD−OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD−OCT)装置や波長掃引型OCT(SS−OCT)装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS−SLO)装置や偏光OCT(PS−OCT)装置等を含んでよい。 The OCT apparatus may include a time domain OCT (TD-OCT) apparatus and a Fourier domain OCT (FD-OCT) apparatus. Further, the Fourier domain OCT apparatus may include a spectral domain OCT (SD-OCT) apparatus and a wavelength sweep type OCT (SS-OCT) apparatus. Further, the SLO device and the OCT device may include a wave surface compensation SLO (AO-SLO) device using a wave surface compensation optical system, a wave surface compensation OCT (AO-OCT) device, and the like. Further, the SLO device and the OCT device may include a polarized SLO (PS-SLO) device, a polarized OCT (PS-OCT) device, and the like for visualizing information on polarization phase difference and polarization elimination.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。該コンピュータは、1又は複数のプロセッサー又は回路を有し、コンピュータが実行可能命令を読み出して実行するために、分離した複数のコンピュータまたは分離した複数のプロセッサーまたは回路のネットワークを含みうる。プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention can also be realized by supplying a program that realizes one or more functions of the above-described embodiment to a system or device via a network or a storage medium, and a process in which a computer of the system or device reads and executes the program. is there. The computer may have one or more processors or circuits and may include a plurality of separate computers or a network of separate processors or circuits for the computers to read and execute executable instructions. The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU). It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

C2,900:撮影光学系、 18,980:制御部、 201,1001:駆動制御部、 202,1002:表示制御部、 210,1010:取得部、 220,1020:制御部、 221,1021:出力部、 222:選択部、 1023:画像生成部 C2,900: Imaging optical system, 18,980: Control unit, 201,1001: Drive control unit, 202,1002: Display control unit, 210,1010: Acquisition unit, 220,1020: Control unit, 221,1021: Output Unit, 222: Selection unit, 1023: Image generation unit

Claims (24)

被検体を撮影する撮影光学部を駆動する第一の駆動手段と、
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、
前記撮影光学部により被検体を撮影して得た医用画像から、学習済モデルを用いて、前記撮影して得た医用画像における写損に関する情報を出力する出力手段と、
を備えることを特徴とする撮影装置。
The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A control means for controlling the first drive means and the second drive means,
An output means for outputting information on copying loss in the medical image obtained by photographing the subject using the trained model from the medical image obtained by photographing the subject by the photographing optical unit.
A photographing device characterized by being provided with.
前記出力手段は、前記学習済モデルを用いて、前記写損に関する情報として、前記撮影して得た医用画像が写損を有する場合には前記撮影して得た医用画像における写損の原因を出力し、前記撮影して得た医用画像が写損を有さない場合には前記撮影して得た医用画像が写損を有していないことを出力することを特徴とする請求項1に記載の撮影装置。 Using the trained model, the output means uses the trained model as information regarding the copying loss, and when the medical image obtained by taking the picture has a copying loss, the cause of the copying loss in the medical image obtained by taking the picture is determined. The first aspect of claim 1 is to output and output that the medical image obtained by taking a picture does not have a picture loss when the medical image obtained by taking the picture does not have a picture loss. The imaging device described. 前記学習済モデルは、被検体の医用画像を入力データとし、該医用画像における写損に関する情報を出力データとする学習データを用いて得られることを特徴とする請求項1又は2に記載の撮影装置。 The imaging according to claim 1 or 2, wherein the trained model is obtained by using training data in which a medical image of a subject is used as input data and information on copying loss in the medical image is used as output data. apparatus. 前記出力データは、複数の写損に関する情報の何れかであり、
前記出力手段は、前記学習済モデルを用いて得た前記複数の写損に関する情報に対応する複数の値を用いて、前記写損に関する情報を出力することを特徴とする請求項3に記載の撮影装置。
The output data is any one of a plurality of information regarding copying loss, and is
The third aspect of claim 3, wherein the output means outputs information on the copying loss by using a plurality of values corresponding to the information on the plurality of copying loss obtained by using the trained model. Shooting device.
前記出力手段は、更に、前記撮影して得た医用画像が写損を有する場合には、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を出力することを特徴とする請求項1又は2に記載の撮影装置。 The output means further obtains the first medical image in which the image loss in the photographed medical image is reduced when the photographed medical image has a copy loss. The imaging device according to claim 1 or 2, wherein a control value of at least one of the driving means and the second driving means is output. 被検体を撮影する撮影光学部を駆動する第一の駆動手段と、
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、
前記撮影光学部により被検体を撮影して得た医用画像における写損に関する情報を入力する入力手段と、
前記撮影して得た医用画像から、複数の写損の原因に対応する複数の学習済モデルのうち前記入力された写損に関する情報に対応する学習済モデルを用いて、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を出力する出力手段と、
を備えることを特徴とする撮影装置。
The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A control means for controlling the first drive means and the second drive means,
An input means for inputting information on copying loss in a medical image obtained by photographing a subject by the photographing optical unit, and an input means.
From the medical image obtained by taking the picture, the image was taken using the learned model corresponding to the input information about the picture loss among a plurality of learned models corresponding to the causes of the picture loss. An output means that outputs a control value of at least one of the first driving means and the second driving means for acquiring a medical image with reduced copying loss in the medical image, and an output means.
A photographing device characterized by being provided with.
前記複数の学習済モデルは、被検体の医用画像を入力データとし、被検体を撮影する撮影光学部を駆動する第一の駆動手段と該撮影光学部に含まれる光学部材を駆動する第二の駆動手段との少なくとも何れかの制御値を出力データとする学習データを用いて得られることを特徴とする請求項6に記載の撮影装置。 In the plurality of trained models, the medical image of the subject is used as input data, and the first driving means for driving the photographing optical unit for photographing the subject and the second driving means for driving the optical member included in the photographing optical unit are driven. The photographing apparatus according to claim 6, wherein the photographing apparatus is obtained by using learning data having at least one control value of the driving means as output data. 前記出力データは、複数の制御値の何れかであり、
前記出力手段は、前記入力された写損に関する情報に対応する学習済モデルを用いて得た前記複数の制御値に対応する複数の値を用いて、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を出力することを特徴とする請求項7に記載の撮影装置。
The output data is one of a plurality of control values, and is
The output means uses a plurality of values corresponding to the plurality of control values obtained by using the trained model corresponding to the input information regarding the copying loss, and the copying loss in the medical image obtained by photographing the image. The imaging apparatus according to claim 7, wherein a control value of at least one of the first driving means and the second driving means for acquiring a medical image in which is reduced is output.
前記出力手段は、前記撮影して得た医用画像における写損が前記撮影光学部により撮影された被検体の状態を原因とする写損である場合には、前記撮影して得た医用画像から、前記学習済モデルを用いずに、前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値としてゼロを出力することができることを特徴とする請求項5乃至8の何れか1項に記載の撮影装置。 When the copying loss in the medical image obtained by the photographing is the copying loss caused by the state of the subject photographed by the photographing optical unit, the output means is taken from the medical image obtained by the photographing. The method according to any one of claims 5 to 8, wherein zero can be output as a control value of at least one of the first driving means and the second driving means without using the trained model. The imaging device according to item 1. 前記制御手段による前記第一の駆動手段及び前記第二の駆動手段の少なくとも何れかの制御を、前記制御値に基づいて実行するか、ユーザーからの指示に応じて実行するかを選択する選択手段を更に備えることを特徴とする請求項5乃至9の何れか1項に記載の撮影装置。 A selection means for selecting whether to control at least one of the first driving means and the second driving means by the control means based on the control value or according to an instruction from the user. The photographing apparatus according to any one of claims 5 to 9, further comprising. 前記制御手段による前記第一の駆動手段及び前記第二の駆動手段の少なくとも何れかの制御を、ユーザーからの指示に応じて実行することが選択された場合に、前記撮影して得た医用画像と、該制御後の前記第一の駆動手段及び前記第二の駆動手段の少なくとも何れかの制御値とを用いて、前記学習済モデルの追加学習を行う手段を更に備えることを特徴とする請求項10に記載の撮影装置。 A medical image obtained by taking a picture when it is selected to control at least one of the first driving means and the second driving means by the control means in response to an instruction from a user. The claim is further provided with a means for performing additional learning of the trained model by using at least one of the control values of the first driving means and the second driving means after the control. Item 10. The photographing apparatus according to item 10. 前記光学部材は、前記撮影光学部における光路上に配置される合焦部材を有し、
前記撮影して得た医用画像における写損の原因が前記合焦部材の前記光路上の位置に関係する場合、前記出力手段は、前記制御値として、前記第二の駆動手段が前記合焦部材を前記光路上の第一の位置から第二の位置へ移動させる移動量を出力することを特徴とする請求項5乃至11の何れか1項に記載の撮影装置。
The optical member has a focusing member arranged on the optical path in the photographing optical unit.
When the cause of the copying loss in the medical image obtained by the imaging is related to the position of the focusing member on the optical path, the output means has the control value, and the second driving means has the focusing member. The photographing apparatus according to any one of claims 5 to 11, wherein the moving amount for moving the image from the first position to the second position on the optical path is output.
前記写損に関する情報が前記撮影光学部と被検体との距離に関係する場合、前記出力手段は、前記制御値として、前記撮影光学部と被検体との距離を、前記第一の駆動手段が第一の距離から第二の距離に変える際の、前記第一の駆動手段による前記撮影光学部の移動量を出力することを特徴とする請求項5乃至12の何れか1項に記載の撮影装置。 When the information regarding the copying loss is related to the distance between the photographing optical unit and the subject, the output means sets the distance between the photographing optical unit and the subject as the control value, and the first driving means uses the first driving means. The imaging according to any one of claims 5 to 12, characterized in that the amount of movement of the photographing optical unit by the first driving means when changing from the first distance to the second distance is output. apparatus. 前記出力手段は、前記撮影された被検体の画像が赤みを含むか青みを含むかに基づいて、前記移動量の光路に沿った方向の正負を出力することを特徴とする請求項13に記載の眼科装置。 13. The output means according to claim 13, wherein the output means outputs positive and negative directions along the optical path of the movement amount based on whether the captured image of the subject contains redness or bluishness. Ophthalmic equipment. 前記撮影光学部は、光源からの光を分割して得た測定光が照射された被検体からの戻り光と、前記光源からの光を分割して得た参照光であって、前記測定光に対応する参照光とを干渉させる干渉光学系を有し、
前記撮影して得た医用画像における写損の原因が前記測定光の光路長と前記参照光の光路長との光路長差に関係する場合、前記出力手段は、前記制御値として、前記第二の駆動手段が前記光路長差を第一の差から前第二の差に変える際の、前記光路長差の変更量を出力することを特徴とする請求項5乃至14の何れか1項に記載の撮影装置。
The photographing optical unit is the return light from the subject irradiated with the measurement light obtained by dividing the light from the light source and the reference light obtained by dividing the light from the light source. Has an interfering optical system that interferes with the reference light corresponding to
When the cause of the image loss in the medical image obtained by the imaging is related to the optical path length difference between the optical path length of the measurement light and the optical path length of the reference light, the output means uses the second control value as the control value. The method according to any one of claims 5 to 14, wherein when the driving means of the above changes the optical path length difference from the first difference to the front second difference, the change amount of the optical path length difference is output. The imaging device described.
前記出力手段は、前記撮影された被検体の断層画像における所定部位の位置に応じて、前記光路長差の変更量の正負を出力することを特徴とする請求項15に記載の撮影装置。 The imaging device according to claim 15, wherein the output means outputs positive and negative of the amount of change in the optical path length difference according to the position of a predetermined portion in the tomographic image of the photographed subject. 前記出力された制御値を保存する保存手段を更に備え、
前記撮影光学部により前記被検体を再撮影する際に、前記制御手段は、前記保存された制御値を用いて、前記第一の駆動手段及び前記第二の駆動手段を制御することを特徴とする請求項5乃至16の何れか1項に記載の撮影装置。
Further provided with a storage means for storing the output control value,
When the subject is re-photographed by the photographing optical unit, the control means controls the first driving means and the second driving means by using the stored control value. The photographing apparatus according to any one of claims 5 to 16.
前記制御手段は、前記出力された制御値を用いて前記第一の駆動手段及び前記第二の駆動手段の少なくとも何れかを制御した後に、前記撮影された被検体の再撮影を行うことを特徴とする請求項5乃至17の何れか1項に記載の撮影装置。 The control means is characterized in that after controlling at least one of the first driving means and the second driving means by using the output control value, the photographed subject is re-photographed. The photographing apparatus according to any one of claims 5 to 17. 前記撮影して得た医用画像における写損に関する情報を表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項1乃至18の何れか1項に記載の撮影装置。 The imaging apparatus according to any one of claims 1 to 18, further comprising a display control means for displaying information on image loss in the medical image obtained by photographing the image on the display means. 前記表示制御手段は、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を、前記写損に関する情報に対応させた状態で前記表示手段に表示させることを特徴とする請求項19に記載の撮影装置。 The display control means controls at least one of the first drive means and the second drive means for acquiring a medical image in which the copying loss in the photographed medical image is reduced. The photographing apparatus according to claim 19, wherein the display means displays the image in a state corresponding to the information regarding the copying loss. 前記被検体は、被検眼であり、
前記写損に関する情報は、アライメント不良と、フォーカス不良と、露光不足と、疾病に伴う不明瞭と、前記被検眼の瞬きと、の少なくとも何れかを含むことを特徴とする請求項1乃至20の何れか1項に記載の撮影装置。
The subject is an eye to be inspected and
The information regarding the image loss includes at least one of misalignment, poor focus, underexposure, ambiguity associated with a disease, and blinking of the eye to be inspected. The photographing apparatus according to any one item.
被検体を撮影する撮影光学部を駆動する第一の駆動手段と、
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、を備える撮影装置の制御方法であって、
前記撮影光学部により被検体を撮影して得た医用画像から、学習済モデルを用いて、前記撮影して得た医用画像における写損に関する情報を出力する工程を含むことを特徴とする撮影装置の制御方法。
The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A method for controlling an imaging device including the first driving means and the controlling means for controlling the second driving means.
A photographing apparatus including a step of outputting information on copying loss in the photographed medical image by using a learned model from a medical image obtained by photographing the subject by the photographing optical unit. Control method.
被検体を撮影する撮影光学部を駆動する第一の駆動手段と、
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、を備える撮影装置の制御方法であって、
前記撮影光学部により被検体を撮影して得た医用画像における写損に関する情報を入力する工程と、
前記撮影された被検体の医用画像とから、複数の写損の原因に対応する複数の学習済モデルのうち前記入力された写損に関する情報に対応する学習済モデルを用いて、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を出力する工程を含むことを特徴とする撮影装置の制御方法。
The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A method for controlling an imaging device including the first driving means and the controlling means for controlling the second driving means.
A step of inputting information on copying loss in a medical image obtained by photographing a subject by the photographing optical unit, and
From the medical image of the photographed subject, the image was taken using the trained model corresponding to the input information on the image loss among the plurality of learned models corresponding to the causes of the plurality of image loss. It is characterized by including a step of outputting at least one control value of the first driving means and the second driving means for acquiring a medical image with reduced copying loss in the obtained medical image. How to control the imaging device.
プロセッサーによって実行されると、該プロセッサーに請求項22又は23に記載の撮影装置の制御方法の各工程を実行させる、プログラム。 A program that, when executed by a processor, causes the processor to perform each step of the imaging device control method according to claim 22 or 23.
JP2019199453A 2019-10-31 2019-10-31 Imaging device, imaging device control method, and program Active JP7314020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019199453A JP7314020B2 (en) 2019-10-31 2019-10-31 Imaging device, imaging device control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199453A JP7314020B2 (en) 2019-10-31 2019-10-31 Imaging device, imaging device control method, and program

Publications (2)

Publication Number Publication Date
JP2021069818A true JP2021069818A (en) 2021-05-06
JP7314020B2 JP7314020B2 (en) 2023-07-25

Family

ID=75711971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199453A Active JP7314020B2 (en) 2019-10-31 2019-10-31 Imaging device, imaging device control method, and program

Country Status (1)

Country Link
JP (1) JP7314020B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016077337A (en) * 2014-10-10 2016-05-16 キヤノン株式会社 Ophthalmologic apparatus and control method for ophthalmologic apparatus
JP2018130206A (en) * 2017-02-14 2018-08-23 株式会社トプコン Ophthalmologic apparatus
JP2019054992A (en) * 2017-09-21 2019-04-11 株式会社トプコン Ophthalmologic device and program
JP2020103433A (en) * 2018-12-26 2020-07-09 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic imaging apparatus, ophthalmologic information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016077337A (en) * 2014-10-10 2016-05-16 キヤノン株式会社 Ophthalmologic apparatus and control method for ophthalmologic apparatus
JP2018130206A (en) * 2017-02-14 2018-08-23 株式会社トプコン Ophthalmologic apparatus
JP2019054992A (en) * 2017-09-21 2019-04-11 株式会社トプコン Ophthalmologic device and program
JP2020103433A (en) * 2018-12-26 2020-07-09 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic imaging apparatus, ophthalmologic information processing method, and program

Also Published As

Publication number Publication date
JP7314020B2 (en) 2023-07-25

Similar Documents

Publication Publication Date Title
US7980697B2 (en) Fundus oculi observation device and ophthalmic image display device
JP6367563B2 (en) Ophthalmic equipment
US10561311B2 (en) Ophthalmic imaging apparatus and ophthalmic information processing apparatus
JP6899632B2 (en) Ophthalmologic imaging equipment
WO2021029231A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
WO2019021512A1 (en) Ophthalmic system and ophthalmic information processing device
JP6100027B2 (en) Image pickup apparatus control apparatus, image pickup apparatus control method, and program
JP7348374B2 (en) Ophthalmology information processing device, ophthalmology imaging device, ophthalmology information processing method, and program
WO2019176974A1 (en) Slit-lamp microscope and ophthalmic system
JP6411728B2 (en) Ophthalmic observation device
JP2018051391A (en) Ophthalmologic apparatus
JP2022105634A (en) Slit lamp microscope and ophthalmic system
JP6407631B2 (en) Ophthalmic equipment
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
JP6736734B2 (en) Ophthalmic photographing device and ophthalmic information processing device
WO2022145129A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP2022060588A (en) Ophthalmologic apparatus and control method of ophthalmologic apparatus
JP7314020B2 (en) Imaging device, imaging device control method, and program
JP2018023818A (en) Ophthalmological observation device
JP2018023816A (en) Ophthalmological observation device
JP7201855B2 (en) Ophthalmic device and ophthalmic information processing program
WO2023074517A1 (en) Fundus information acquisition method and fundus information acquisition device
JP6404431B2 (en) Ophthalmic observation device
JP2022069734A (en) Ophthalmic imaging device and ophthalmic imaging device control method
JP2023006633A (en) Optical interference tomographic device, control method of optical interference tomographic device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R151 Written notification of patent or utility model registration

Ref document number: 7314020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151