JP2021069818A - Imaging apparatus, imaging apparatus control method, and program - Google Patents
Imaging apparatus, imaging apparatus control method, and program Download PDFInfo
- Publication number
- JP2021069818A JP2021069818A JP2019199453A JP2019199453A JP2021069818A JP 2021069818 A JP2021069818 A JP 2021069818A JP 2019199453 A JP2019199453 A JP 2019199453A JP 2019199453 A JP2019199453 A JP 2019199453A JP 2021069818 A JP2021069818 A JP 2021069818A
- Authority
- JP
- Japan
- Prior art keywords
- image
- photographing
- loss
- output
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims description 41
- 230000003287 optical effect Effects 0.000 claims abstract description 327
- 238000012549 training Methods 0.000 claims description 38
- 230000033001 locomotion Effects 0.000 claims description 28
- 238000003860 storage Methods 0.000 claims description 26
- 238000005259 measurement Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 10
- 230000004397 blinking Effects 0.000 claims description 9
- 201000010099 disease Diseases 0.000 claims description 6
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 claims 1
- 210000001508 eye Anatomy 0.000 description 136
- 210000000695 crystalline len Anatomy 0.000 description 130
- 238000012014 optical coherence tomography Methods 0.000 description 72
- 238000012937 correction Methods 0.000 description 66
- 238000012545 processing Methods 0.000 description 61
- 238000011156 evaluation Methods 0.000 description 32
- 238000005286 illumination Methods 0.000 description 25
- 238000012986 modification Methods 0.000 description 23
- 230000004048 modification Effects 0.000 description 23
- 238000007689 inspection Methods 0.000 description 15
- 238000010801 machine learning Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 210000001747 pupil Anatomy 0.000 description 11
- 238000003745 diagnosis Methods 0.000 description 10
- 239000013307 optical fiber Substances 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000004907 flux Effects 0.000 description 6
- 208000002177 Cataract Diseases 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 4
- 230000002207 retinal effect Effects 0.000 description 4
- 230000004323 axial length Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 210000004087 cornea Anatomy 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004410 intraocular pressure Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- YOBPSXOHCHDCMU-VKZZUTNHSA-M sodium;(6r,7r)-7-[[(2z)-2-(2-amino-1,3-thiazol-4-yl)-2-methoxyiminoacetyl]amino]-3-[(2-methyl-5,6-dioxo-1h-1,2,4-triazin-3-yl)sulfanylmethyl]-8-oxo-5-thia-1-azabicyclo[4.2.0]oct-2-ene-2-carboxylate Chemical compound [Na+].S([C@@H]1[C@@H](C(N1C=1C([O-])=O)=O)NC(=O)\C(=N/OC)C=2N=C(N)SC=2)CC=1CSC1=NC(=O)C(=O)NN1C YOBPSXOHCHDCMU-VKZZUTNHSA-M 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000002583 angiography Methods 0.000 description 1
- 210000002159 anterior chamber Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000000799 fluorescence microscopy Methods 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Abstract
Description
本発明は、被検体を撮影する撮影装置、撮影装置の制御方法、及びプログラムに関する。 The present invention relates to a photographing device for photographing a subject, a control method of the photographing device, and a program.
従来から、例えば眼科分野においては、被検眼の診断のための医用画像の取得を目的として、様々な撮影装置によって被検眼の撮影が行われている。例えば、被検眼の眼底を診断するための撮影装置の一つである眼科装置として、眼底カメラが使用される。また、例えば、被検眼の断層を診断するための眼科装置として低コヒーレント光による干渉を利用した光干渉診断撮影法(OCT:Optical Coherence Tomography)を用いる装置(以下、これをOCT装置と記す)が使用される。 Conventionally, for example, in the field of ophthalmology, an image of an eye to be inspected has been taken by various imaging devices for the purpose of acquiring a medical image for diagnosing the eye to be inspected. For example, a fundus camera is used as an ophthalmologic device, which is one of the imaging devices for diagnosing the fundus of the eye to be inspected. Further, for example, an apparatus using an optical coherence tomography (OCT) using interference by low coherent light as an ophthalmic apparatus for diagnosing a tomography of an eye to be inspected (hereinafter, this is referred to as an OCT apparatus). used.
一般的に、眼科装置の設計では、様々な被検眼モデルを想定し、それに対して十分なマージンを持った設計が行われている。しかし、実際の被検眼においては、疾病等の影響により、モデルとした目に対して想定以上のばらつきを有していることがある。この場合、通常の撮影方法では、診断に適当な眼画像を得られない可能性がある。 Generally, in the design of an ophthalmic apparatus, various eye models to be inspected are assumed, and the design is performed with a sufficient margin. However, in the actual eye to be inspected, there may be more variation than expected with respect to the modeled eye due to the influence of diseases and the like. In this case, there is a possibility that an eye image suitable for diagnosis cannot be obtained by a normal imaging method.
例えば、眼底カメラによる撮影では、操作者が撮影スイッチを押下してから撮影光源が撮影光としての閃光を発生するまでの間には時間的なずれがある。被検者がその間に瞬きをすると、その瞬きによって眼底への撮影光の照射が遮られ、該撮影光の前眼部からの過大な反射光が得られることがある。また、撮影の瞬間に被検眼が適切なアライメント位置から移動していわゆるアライメントがずれた状態となると、眼底画像の周辺部にフレアが発生する。このように、適切とはいえない状態で取得された眼底画像は写損を有する画像とされ、診断には適さない眼底画像となる。このように、例えばアライメント不良、フォーカス不良、露光不足等の状態が現れた眼底画像は写損を有する画像とされ、これらアライメント不良、フォーカス不良、露光不足等は写損原因となる。 For example, in shooting with a fundus camera, there is a time lag between the time when the operator presses the shooting switch and the time when the shooting light source generates a flash as shooting light. If the subject blinks in the meantime, the blinking may block the irradiation of the fundus with the photographing light, and excessive reflected light from the anterior segment of the photographing light may be obtained. Further, if the eye to be inspected moves from an appropriate alignment position at the moment of photographing and the so-called misalignment occurs, flare occurs in the peripheral portion of the fundus image. As described above, the fundus image acquired in an unsuitable state is regarded as an image having photo loss, and is not suitable for diagnosis. In this way, for example, a fundus image in which a state such as poor alignment, poor focus, or underexposure appears is regarded as an image having photo loss, and such poor alignment, poor focus, or underexposure causes photo loss.
この時、画像の良否及び写損原因を検者に判断させ、得られた眼画像が瞬きやフレア等による写損を有すると判断された場合に自動で眼画像の再撮影を行う方法が、特許文献1に開示されている。また、特許文献1に開示される方法では、写損がフレアにより生じたと判断された場合には、アライメントの再調整のために、自動で再撮影時の眼底カメラの位置が算出されている。 At this time, a method of having the examiner judge the quality of the image and the cause of the image loss, and automatically re-shooting the eye image when it is determined that the obtained eye image has image loss due to blinking or flare, is It is disclosed in Patent Document 1. Further, in the method disclosed in Patent Document 1, when it is determined that the copying loss is caused by flare, the position of the fundus camera at the time of re-imaging is automatically calculated for readjustment of the alignment.
特許文献1に開示されている、検者に写損原因を判断させる方法においては、検者が写損原因を間違えると、適切ではない撮影条件で再撮影してしまうため、再撮影時においても画像上に同様の写損が生じてしまう可能性がある。この写損原因には、上述したアライメント不良、フォーカス不良、或いは露光不足に加え、疾病に伴う眼底の不明瞭等の様々なものが存在する。このため、見識のある検者が判断し、写損原因に応じた適当な撮影条件で再撮影を実行することが望ましい。しかしながら、例えば集団健診によるスクリーニング等の際に、見識のある検者が眼科装置を操作できない場合もおこり得る。この場合、再撮影を実施しても、得られた画像上に同様の写損が生じてしまう可能性がある。 In the method disclosed in Patent Document 1 in which the examiner determines the cause of the copying loss, if the examiner makes a mistake in the cause of the copying loss, the image is re-photographed under inappropriate shooting conditions. Similar image loss may occur on the image. In addition to the above-mentioned misalignment, poor focus, and underexposure, there are various causes of this image loss, such as unclear fundus due to disease. For this reason, it is desirable that a discerning examiner makes a judgment and perform re-imaging under appropriate imaging conditions according to the cause of the image loss. However, there may be cases where a knowledgeable examiner cannot operate the ophthalmologic device, for example, during screening by group medical examination. In this case, even if re-imaging is performed, the same image loss may occur on the obtained image.
本発明は、上述した課題に鑑みたものであって、被検体を再撮影することにより写損が低減された医用画像を取得可能とすることをその目的の一つとする。 In view of the above-mentioned problems, one of the objects of the present invention is to make it possible to obtain a medical image in which copying loss is reduced by re-imaging a subject.
上記課題を解決するために、本発明の一実施態様に係る撮影装置は、
被検体を撮影する撮影光学部を駆動する第一の駆動手段と、
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、
前記撮影光学部により被検体を撮影して得た医用画像から、学習済モデルを用いて、前記撮影して得た医用画像における写損に関する情報を出力する出力手段と、
を備えることを特徴とする。
In order to solve the above problems, the photographing apparatus according to one embodiment of the present invention is provided.
The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A control means for controlling the first drive means and the second drive means,
An output means for outputting information on copying loss in the medical image obtained by photographing the subject using the trained model from the medical image obtained by photographing the subject by the photographing optical unit.
It is characterized by having.
本発明の一つによれば、被検体を再撮影することにより写損が低減された医用画像を取得可能とすることができる。 According to one of the present inventions, it is possible to obtain a medical image with reduced copying loss by re-imaging the subject.
本発明の例示的な実施例として、撮影装置の一態様として眼科装置を例示し、図面を参照して以下に詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成または様々な条件に応じて変更可能である。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 As an exemplary embodiment of the present invention, an ophthalmic apparatus is illustrated as an aspect of the imaging apparatus, and will be described in detail below with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.
本実施例では、機械学習モデルに関する学習済モデルを用いる。機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。ディープラーニング(深層学習)では、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する。また、ディープラーニング以外の機械学習アルゴリズムとしては、サポートベクターマシン、最近傍法、線形回帰、平均法、ニューラルネットワーク等が例示される。これらのアルゴリズムのうち、適宜、利用できるものを用いて本発明に適用することができる。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングすることで得られた(学習を行った)モデルである。ただし、学習済モデルは、事前に適切な学習データを用いて得られているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできる。追加学習は、眼科装置が使用先に設置された後も行うことができる。なお、以下において、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、学習データ(教師データ)の出力データは、正解データとも称される。 In this embodiment, a trained model related to a machine learning model is used. A machine learning model is a learning model based on a machine learning algorithm such as deep learning. In deep learning, a neural network is used to generate features and coupling weighting coefficients for learning. Examples of machine learning algorithms other than deep learning include support vector machines, nearest neighbor methods, linear regression, averaging methods, neural networks, and the like. Of these algorithms, any available algorithm can be applied to the present invention as appropriate. The trained model is a model obtained (trained) by training a machine learning model by an arbitrary machine learning algorithm using appropriate learning data in advance. However, although the trained model is obtained by using appropriate training data in advance, it does not mean that no further training is performed, and additional training can be performed. Additional learning can be performed even after the ophthalmic device has been installed at the site of use. In the following, the teacher data refers to learning data and is composed of a pair of input data and output data. The output data of the learning data (teacher data) is also referred to as correct answer data.
なお、以下の実施例において、アライメント不良、フォーカス不良、露光不足、疾病に伴う眼底の不明瞭性、被検眼の瞬き、等の撮影に対して不適切な現象や状態が反映されてしまった画像を、写損を有する画像とする。例えばアライメント不良は画像中に所謂フレアを生じさせ、フォーカス不良は所謂ピンボケを生じさせる。即ち、写損を有する画像とは、例えばフレアがある或いはピンボケといった診断に不適切な状態の画像のことを指す。また、写損原因には、例えば上述したアライメント不良、フォーカス不良、露光不足、疾病に伴う眼底の不明瞭性、被検眼の瞬き、等が考えられる。以下では、写損を有する画像を得たために再撮影を行う場合に、再撮影時において写損が低減された画像が取得可能となるように眼科装置を制御する実施例について説明する。 In the following examples, images that reflect inappropriate phenomena and conditions for imaging such as poor alignment, poor focus, underexposure, indistinct fundus due to illness, blinking of the eye to be inspected, etc. Is an image having photo loss. For example, poor alignment causes so-called flare in the image, and poor focus causes so-called out-of-focus. That is, an image having photo loss refers to an image in a state inappropriate for diagnosis, such as flare or out-of-focus. In addition, the causes of image loss may be, for example, the above-mentioned misalignment, poor focus, underexposure, indistinctness of the fundus due to disease, blinking of the eye to be inspected, and the like. In the following, an example will be described in which the ophthalmic apparatus is controlled so that an image with reduced photo loss can be acquired at the time of re-imaging when re-imaging is performed because an image having photo loss is obtained.
[実施例1]
本実施例では、眼科装置として眼底カメラを例示し、本発明を眼底カメラに適用した実施例について、図1乃至6を用いて説明する。本実施例では、撮影した眼底画像と後述する学習済モデルとを用いて、写損を低減する撮影条件で再撮影を実行するための撮影条件における補正値を出力する。そして出力された補正値を用いて、眼科装置による再撮影を実行する。これにより、検者が写損に関する十分な見識を有していない場合であっても、再撮影時において写損が生じる可能性を低減できる。以下、本実施例について詳述する。
[Example 1]
In this embodiment, a fundus camera is illustrated as an ophthalmic apparatus, and examples in which the present invention is applied to a fundus camera will be described with reference to FIGS. 1 to 6. In this embodiment, the photographed fundus image and the learned model described later are used to output the correction value under the imaging conditions for executing reimaging under the imaging conditions that reduce the imaging loss. Then, the output correction value is used to perform reimaging with an ophthalmic apparatus. As a result, even if the examiner does not have sufficient insight into the copying loss, it is possible to reduce the possibility of the copying loss occurring at the time of re-shooting. Hereinafter, this embodiment will be described in detail.
<装置の概略構成>
本実施例において用いる眼底カメラの一例の概略構成について図1を用いて説明する。眼底カメラCは、基台C1、撮影光学部C2、及びジョイスティックC3を備える。撮影光学部C2には、基台C1に対して左右方向(X方向)、上下方向(Y方向)、前後方向(Z方向)に移動可能な光学系が収納されている。撮影光学部C2は、基台C1に設けられたパルスモータ等からなる駆動部C4(図2(b)参照)によって、被検眼に対して三次元(XYZ)方向に移動可能とされている。また、駆動部C4は、ジョイスティックC3の操作によっても、撮影光学部C2を三次元(XYZ)方向に移動可能とされている。
<Outline configuration of the device>
The schematic configuration of an example of the fundus camera used in this embodiment will be described with reference to FIG. The fundus camera C includes a base C1, a photographing optical unit C2, and a joystick C3. The photographing optical unit C2 houses an optical system that can move in the left-right direction (X direction), the up-down direction (Y direction), and the front-back direction (Z direction) with respect to the base C1. The photographing optical unit C2 is movable in the three-dimensional (XYZ) direction with respect to the eye to be inspected by a driving unit C4 (see FIG. 2B) composed of a pulse motor or the like provided on the base C1. Further, the drive unit C4 can move the photographing optical unit C2 in the three-dimensional (XYZ) direction by operating the joystick C3.
<装置の光学構成>
本実施例に係る眼底カメラCの光学構成について図2(a)を用いて説明する。当該光学系は、被検眼を観察、撮像、或いは撮影する撮影光学系に対応する。なお、当該光学系の構成について、光学要素が各種配置される複数の光路L1からL5に分け、その各々について順に説明する。
<Optical configuration of the device>
The optical configuration of the fundus camera C according to this embodiment will be described with reference to FIG. 2 (a). The optical system corresponds to a photographing optical system for observing, imaging, or photographing an eye to be inspected. The configuration of the optical system is divided into a plurality of optical paths L1 to L5 in which various optical elements are arranged, and each of them will be described in order.
光路L1は、眼底の観察或いは撮影のための照明光を発する光源及び関連する構成が配置され、光源から射出された照明光の光路に沿って配置される。光路L1上には、ハロゲンランプ等の定常光を発する観察用光源1から順に、コンデンサレンズ2、赤外光を透過して可視光を遮断するフィルタ3、ストロボ等の撮影用光源4、レンズ5、及びミラー6が配置される。光路L2は、ミラー6の反射方向に配置される。光路L2上には、ミラー6から順に、リング状開口を有するリング絞り7、水晶体バッフル31、リレーレンズ8、角膜バッフル32、及び中央部開口を有する穴あきミラー9が配置される。
The optical path L1 is arranged with a light source that emits illumination light for observing or photographing the fundus and related configurations, and is arranged along the optical path of the illumination light emitted from the light source. On the optical path L1, in order from the observation light source 1 that emits constant light such as a halogen lamp, the condenser lens 2, the filter 3 that transmits infrared light and blocks visible light, the photographing light source 4 such as a strobe, and the lens 5 , And the mirror 6 is arranged. The optical path L2 is arranged in the reflection direction of the mirror 6. On the optical path L2, a ring diaphragm 7 having a ring-shaped opening, a crystalline lens baffle 31, a
光路L3は、穴あきミラー9の反射方向に配置される。光路L3上には、穴あきミラーから順に、ダイクロイックミラー24、及び被検眼Eに対向する対物レンズ10が配置される。ダイクロイックミラー24は、光路L3に対して挿脱可能となっている。穴あきミラー9の穴部には撮影絞り11が配置され、更にその後方には、フォーカスレンズ12、撮影レンズ13、及びハーフミラー100がこの順で配置される。フォーカスレンズ12は、図中矢印で示される光路L3方向に駆動されることにより、眼底Erに対する合焦状態が調整される。また、ハーフミラー100の先には、動画観察と静止画撮影を兼ねた撮像素子14が配置され、ハーフミラー100の反射方向である光路L4の先には内部固視灯101が配置される。内部固視灯101は、被検眼Eの固視を促し、これにより眼底Er上での所望位置の撮影を可能とする。
The optical path L3 is arranged in the reflection direction of the perforated mirror 9. On the optical path L3, the dichroic mirror 24 and the
ここで、位置合わせ(以下、これをアライメントと記す)と合焦状態の調整(以下、これをフォーカスと記す)とに用いられる光学系の構成について説明する。まず、アライメントのための前眼部観察光学系の構成について説明する。 Here, the configuration of the optical system used for alignment (hereinafter, this is referred to as alignment) and adjustment of the in-focus state (hereinafter, this is referred to as focus) will be described. First, the configuration of the anterior segment observation optical system for alignment will be described.
ダイクロイックミラー24の反射方向の光路L5には、レンズ61、絞り62、プリズム63、レンズ64、及び赤外域の感度を持つ二次元撮像素子65が配置される。これらの構成によって、前眼部の観察を行うための前眼部観察光学系を形成している。ここで、プリズム63に入射した光は、プリズム63の上半分と下半分で相反する左右方向に屈折して分離される。そのため、被検眼Eと撮影光学部C2との距離が適正作動距離よりも長い場合は、前眼部の観察像はレンズ61によってプリズム63よりもレンズ61に近い側に結像し、観察像の上半分は右側に、下半分は左側にずれて撮像される。被検眼Eと撮影光学部C2との距離が適正作動距離よりも短い場合は、観察像は上下が逆にずれて撮像される。
A lens 61, an aperture 62, a
光路L3から見た対物レンズ10の外側には、前眼部観察用光源105が設けられている。被検眼Eの前眼部は、可視光を遮断するフィルタ3を透過する波長とは異なる赤外域の光を発する前眼部観察用光源105により照明される。以上の前眼部観察光学系によって、被検眼Eの前眼部とのアライメント状態の検出が可能になっている。当該構成と、基台C1に配されて撮影光学部C2を三軸方向に駆動する駆動部とにより、本実施例において撮影光学系の被検眼に対するアライメントの制御を行うアライメント手段が構成される。なお、上述した眼底カメラCに設けられる各光路の配置、及び各種構成の配置は例示であり、必要に応じて公知の種々の配置に置き換えることができる。
A
次に、フォーカス光学系の構成について説明する。
光路L2上のリング絞り7とリレーレンズ8との間には、フォーカス指標投影部22が配置される。フォーカス指標投影部22は、被検眼Eの瞳Ep上に、分割されたスプリット指標を投影するためのものであり、光路L2に対して挿脱可能とされている。そして、フォーカス指標投影部22とフォーカスレンズ12とは、制御部18(駆動制御部201)からの制御に基づいて、それぞれ図中矢印で示す光路L2、光路L3方向に連動して移動するようになっている。この時、フォーカス指標投影部22と撮像素子14が光学的に共役関係になっている。これらのフォーカス光学系によって、被検眼Eの眼底Erのフォーカス状態が検出可能となっている。
Next, the configuration of the focus optical system will be described.
A focus
当該構成は、本実施例において、被検眼Eの眼底Erに対する撮像光学系のフォーカス状態を得るフォーカス手段を構成する。当該フォーカス手段におけるフォーカス部(フォーカスレンズ12を駆動する不図示のレンズ駆動部)は駆動制御部201により駆動される。次に、これらフォーカス手段等の動作について、図3と図4を用いて詳細に説明する。なお、以下に記述する手動制御は、操作入力部21として例えばジョイスティックC3の傾き角度や傾き方向によって、ユーザーが上述した駆動部等を制御することにより実行することができる。また、手動撮影は、前述したジョイスティックC3を例とすれば、該ジョイスティックC3に設けられた撮影釦の押下げによって実行することができる。
In this embodiment, the configuration constitutes a focusing means for obtaining the focus state of the imaging optical system with respect to the fundus Er of the eye E to be inspected. The focus unit (lens drive unit (not shown) that drives the focus lens 12) in the focus means is driven by the
次に、本実施例で用いた眼底カメラCにおける制御部18の詳細について、図2(b)を参照して説明する。図2(b)は、制御部18の概略構成を示すブロック図である。図2(b)に示すように、制御部18は、駆動制御部201、表示制御部202、取得部210、及び処理部220を備える。また、制御部18は、フォーカスレンズ12、撮像素子14、画像処理部17、操作入力部21、フォーカス指標投影部22、保存用メモリ41、二次元撮像素子65、及び駆動部C4等と接続される。操作入力部21は、上述したジョイスティックC3を含む。
Next, the details of the
駆動制御部201は、フォーカスレンズ12、撮像素子14、画像処理部17、フォーカス指標投影部22、二次元撮像素子65、及び駆動部C4等の駆動制御を実行する。表示制御部202は、画像処理部17を介して表示モニタ15に接続されており、表示モニタ15に表示させる画像や例えば該表示モニタ15に表示される指示画面を介して入力されたユーザー指示等を受け付ける。表示モニタ15は、LCDディスプレイ等の任意のディスプレイであり、撮影光学部C2及び制御部18を操作するためのGUIや生成した画像、任意の処理を施した画像、及び患者情報等の各種の情報を表示することができる。撮像素子14からの出力画像は、画像処理部17を通して予め用意されたキャラクタ画像と合成され、表示モニタ15に表示される。
The
また、上述したGUIを表示する場合、操作入力部21は、該GUIを操作したり、情報を入力したりすることで、制御部18を操作するために用いられる。操作入力部21は、例えば、マウスやタッチパッド、トラックボール、タッチパネルディスプレイ、スタイラスペン等のポインティングデバイス及びキーボード等を含む。なお、タッチパネルディスプレイを用いる場合には、表示モニタ15と操作入力部21を一体的に構成できる。なお、本実施例では、撮影光学部C2、制御部18、操作入力部21、及び表示モニタ15は別々の要素とされているが、これらのうちの一部又は全部を一体的に構成してもよい。
Further, when displaying the GUI described above, the
取得部210は、画像取得部211、情報取得部212、及び記憶部213を有する。画像取得部211は、撮像素子14、及び二次元撮像素子65と接続されており、これらから出力される画像信号若しくは該画像信号から得られる画像を取得する。情報取得部212は、上述したジョイスティックや表示モニタ15を介して入力される情報、或いは被検眼Eに付随して予め保存用メモリ41に保存されている被検眼情報等を取得する。記憶部213は、取得部210が取得した各種画像や情報、更には処理部220より出力される後述する写損原因や補正値等の出力情報を保存する。処理部220は、出力部221、及び選択部222を有する。出力部221は、例えば後述する学習済モデルを用いて、写損原因や補正値等を出力し、これらを出力する。選択部222は、例えば情報取得部212が取得したユーザーにより入力された写損原因や撮影条件等に応じて、記憶部213に複数種類が記憶されている学習済モデルから、出力部221で用いる学習済モデルの選択を行う。
The
なお、制御部18の記憶部213以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部213は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。
Each component of the
<前眼部アライメントの概要>
次に、実際の撮影時に行われる被検眼Eに対する撮影光学部C2等のアライメントについて述べる。図3は、図2(a)で説明した前眼部観察光学系の二次元撮像素子65上で得られる観察像であって、画像取得部211が取得して表示制御部202が表示モニタ15に表示する画像を模式的に示している。図2(a)中の前眼部観察用光源105により照明された被検眼Eの前眼部は、プリズム63により上下に分割され、二次元撮像素子65上で図3(a)に示されるような像として観察される。同図に示すように、瞳孔部以外の部分は前眼部観察用光源105の反射光が多く反射して入ってくるために白く映る。一方、瞳孔部Pは反射光が入らないので黒く映る。
<Outline of anterior segment alignment>
Next, the alignment of the photographing optical unit C2 and the like with respect to the eye to be inspected E performed at the time of actual photographing will be described. FIG. 3 is an observation image obtained on the two-
画像処理部17は、このコントラスト差から瞳孔部Pを抽出可能であり、瞳孔位置を決定することができる。図3(a)では、上下に分割された瞳孔部Pのうち、下部の瞳孔部Pから、瞳孔中心POを検出している。制御部18は、画像処理部17により検出された瞳孔中心POが、図3(b)に示している二次元撮像素子65の画像中心Oに位置するように、駆動部C4を動かす。この操作によって、被検眼Eの前眼部と撮影光学部C2とのアライメントである前眼部アライメントを行うことができる。なお、二次元撮像素子65の観察画像は、制御部18を介してそのまま表示モニタ15にも表示可能である。
The
<眼底部フォーカスの概要>
次に、図4は、図2(a)で説明した動画観察と静止画撮影を兼ねた撮像素子14上で得られる観察像であって、画像取得部211が取得して表示制御部202が表示モニタ15に表示する画像を模式的に示している。同図において、スプリット指標22a及び22bは、フォーカス光学系のフォーカス指標投影部22によって被検眼Eの瞳上に投影された指標を示している。
図3(b)の状態となるように、被検眼Eの前眼部に対して撮影光学部C2のアライメントを行う際には、撮像素子14では図4(a)に示す画像が観察される。上述したように、フォーカス指標投影部22とフォーカスレンズ12とは、制御部18からの制御に基づいて、各々に対応して設けられるモータ等からなる不図示の駆動部により、光路L2、光路L3方向に連動して駆動される。また、撮像素子14は、フォーカス指標投影部22と光学的に共役関係になっている。そのため、フォーカス指標投影部22を光路L2方向に移動させることで、スプリット指標22aと22bが撮像素子14上の観察像として移動するとともに、フォーカスレンズ12が光路L3方向に連動して移動する。
<Outline of fundus focus>
Next, FIG. 4 is an observation image obtained on the
When the photographing optical unit C2 is aligned with the anterior eye portion of the eye E to be inspected so as to be in the state of FIG. 3B, the image shown in FIG. 4A is observed on the
画像処理部17は、このスプリット指標22aと22bからフォーカス状態とフォーカスレンズ12の移動方向及び移動量を求める。画像処理部17から得られたフォーカスレンズ12の移動に関する情報に基づいて、駆動制御部201は、撮像素子14上で図4(a)の状態から図4(b)の状態(一直線)になるように駆動部を制御する。これにより、被検眼Eの眼底Erに対するフォーカスを行うことが可能となる。
The
以上説明したように、本実施例による眼底カメラでは、アライメントとフォーカスが実行可能となっている。また、例えば、前述のアライメント操作とフォーカス操作とを自動的に行い、アライメント操作とフォーカス操作とが終了したことを検出したのち、撮影用光源4を発光させ、撮像素子14による眼底の撮影動作を実行できる。以上の操作を自動で行うことで、ユーザーは、操作入力部21(ジョイスティックC3)の撮影開始釦を押すだけで、眼底カメラCにより眼底を自動撮影することができる。ここで、アライメント操作とフォーカス操作とが終了とする判断基準としては、モデルとした複数の被検眼を用いたアライメント位置及びフォーカス精度に基づいて設定される。即ち、最適となるアライメント位置とフォーカス精度とが確保される状態から指標等が所定の許容範囲内のずれとなることで当該操作が終了するよう設定されている。撮影された眼底静止画像は、画像処理部17によりキャラクタ画像と合成され、表示モニタ15に表示される。
As described above, in the fundus camera according to this embodiment, alignment and focusing can be performed. Further, for example, the above-mentioned alignment operation and focus operation are automatically performed, and after detecting that the alignment operation and the focus operation are completed, the light source 4 for photographing is emitted to emit light, and the
<眼底撮影のシーケンス>
次に、被検眼に対する自動撮影を行う際の基本的な撮影シーケンスを、図5のフローチャートを用いて説明する。ユーザーは、操作入力部21に構成される各種入力手段を用いて、被検者と装置の大まかな位置合わせ及び撮影動作の開始の指示を眼底カメラCに対して行う。その際、被検者に不図示の顎受けに顎を乗せさせ、被検眼のY軸方向の位置が所定の高さになるように不図示の顎受け駆動機構により調整する。ユーザーは、表示モニタ15に映されている被検眼Eの瞳孔が表示される位置までジョイスティックC3により撮影光学部C2を駆動し、駆動終了後に撮影開始釦を押下する。制御部18は、撮影開始ボタンの押下を検出したら、フローをステップS501に移行させる。
<Fundus photography sequence>
Next, a basic imaging sequence for performing automatic imaging of the eye to be inspected will be described with reference to the flowchart of FIG. The user gives an instruction to the fundus camera C to roughly align the subject and the device and to start the photographing operation by using various input means configured in the
ステップS501では、駆動制御部201により、図3を用いて説明したアライメント操作が実行され、被検眼Eの前眼部と撮影光学部C2とのアライメントが行われる。具体的には、制御部18は、プリズム63により分割された前眼部観察像により、撮影光学部C2における前後方向(Z方向)のアライメント状態を判定する。図3(a)のように観察像の上半分と下半分がずれて結像している場合は、アライメントが必要と判断される。この場合、図3(b)に示すように観察像がずれない像となる方向に撮影光学部C2が移動するように、駆動制御部201が駆動部を制御する。また、上下左右方向のアライメントは、前眼部観察像から画像処理部17が瞳孔中心P0を検出し、二次元撮像素子65の画像中心Oにこれが位置するように、駆動制御部201が駆動部を制御する。制御部18は、前眼部観察像の上下及び中心位置と画像中心とが一致し、或いは一致状態から所定の範囲内のずれ状態が得られ、アライメントが完了したと判断されると、フローをステップS502に移行させる。なお、二次元撮像素子65と撮像素子14とはそれぞれ独立して画像解析が可能なため、ステップS502以降においても、ここで述べた自動アライメントの操作は継続されている。
In step S501, the
ステップS502では、図4を用いて説明したフォーカス操作を実行してフォーカス合わせを行う。ステップS501でアライメントが終了した後、画像処理部17は、撮像素子14からの出力信号の解析を開始する。通常アライメントのみが終了した状態ではフォーカス合わせが最適ではないため、撮像素子14には、図4(a)に示すようにスプリット指標22a,22bが不一致状態の眼底画像が撮像される。そこで、駆動制御部201は、図4(b)に示すように、撮像素子14に撮像されるスプリット指標22a,22bが一直線になるようにフォーカスレンズ12を駆動制御する。制御部18は、アライメント及びフォーカス合わせが終了状態にあると判断したら、フローをS503に移行させる。
In step S502, the focus operation described with reference to FIG. 4 is executed to perform focusing. After the alignment is completed in step S501, the
ステップS503では、駆動制御部201は、フォーカス指標投影部22を不図示の制御部モータにより光路L2上から退避させる。退避が完了した後、駆動制御部201は撮影用光源4を発行させる。これにより、被検眼Eの眼底Erの撮影が実行される。制御部18は、撮影が完了したと判断したら、フローをS504に移行させる。ステップS504では、表示制御部202により、撮影された眼底Erの画像が表示モニタ15に表示され、制御部18はフローをステップS505に移行させる。
In step S503, the
ステップS505では、後述する処理部220による撮影画像の写損の判断を行うことができる。しかし、本実施例では、表示モニタ15上に表示される撮影画像を観察したユーザーにより写損であるか否かが判断される。ユーザーは更に、操作入力部21等を介してその判断結果を制御部18に入力し、該判断結果は取得部210(情報取得部212)に取得される。具体的には、表示モニタ15上に撮影画像と複数の写損原因とを表示させ、ユーザーは例えばカーソル等を写損原因と思われる項目に合わせてマウスをクリックする等の操作を行うことでこの判断結果の入力を行うことができる。制御部18は、ユーザーによる写損でないと判断した際の入力を検出したら、フローをステップS506に移行させる。ステップS506では、制御部18は、撮影画像を保存用メモリ41に保存し、撮影処理を終了する。
In step S505, it is possible to determine the copying loss of the captured image by the
また、制御部18は、ユーザーによる写損であると判断した際の入力を検出したら、フローをステップS507に移行させる。なお、上述したように、本実施例では、ユーザーは、写損と判断する場合には想定される写損原因についても操作入力部21を介して入力する。ここでは、表示モニタ15に例えば複数の写損原因が表示されることとし、ユーザーは表示モニタ15上に表示されるカーソル等を操作して写損原因を選択している。しかし、写損原因の選択方法はここに例示したものに限られず、複数の写損原因の中からユーザーが任意の写損原因を選択することができれば、その他の公知の方法を適用することができる。
Further, when the
ユーザーは、写損原因に応じて撮影条件を変更して再撮影を行う。本実施例では、その際に、操作入力部21等を用いて手動で撮影条件を変更して再撮影を行うか、自動的に補正値を得て該補正値を用いて再撮影を行うかをユーザーが選択できる。ステップS507では、制御部18は、ユーザーにより手動操作の選択が入力されると、フローをステップS508に移行させ、再撮影時の撮影条件の設定を自動から手動で実行できるようにする。この場合、ユーザーは、例えば操作入力部21やジョイスティックC3を含めた各種入力手段を用いて撮影光学部C2を駆動し、駆動終了後に撮影開始釦を押下げて再撮影を開始させる。制御部18は、ユーザーにより撮影開始釦が押下されたことを検出したら、フローをステップS509に移行させる。ステップS509では、駆動制御部201により撮影用光源4を発光させて被検眼Eの眼底Erの撮影を行う。そして、制御部18は、撮影の完了に応じて、フローをステップS504に移行させる。
The user changes the shooting conditions according to the cause of the shooting loss and reshoots. In this embodiment, at that time, whether to manually change the shooting conditions using the
ステップS507において、制御部18は、自動操作の選択が入力されると、フローをステップS510に移行させる。ステップS510では、制御部18は、写損と判断された画像(以下、これを写損画像と記す)を入力データとして、学習済モデルを用いて補正値の出力を行う。より詳細には、選択部222が、ユーザーより入力された写損原因に応じて、記憶部213に記憶されている写損原因に応じた複数の学習済モデルから用いる学習済モデルを選択し、該学習済モデルに対して写損画像が入力される。出力部221は、選択された学習済モデルを用いて、写損画像から補正値を出力する。補正値が得られた後、制御部18はフローをS511に移行させる。
In step S507, when the selection of the automatic operation is input, the
例えば、ユーザーにより写損原因が所謂フレアであると判断された場合には、撮影条件としてはWD(作動距離:撮影光学部C2と被検眼Eとの距離)が近すぎる或いは遠すぎることが考えられる。そのため、同じ被検眼を同じアライメント条件で再撮影すると、得られた画像には同じようにフレアが入ってしまう。このため、自動アライメントを行う際に、アライメントの状態の補正が必要になる。図3の説明で示したように、プリズム63により上下に分割された前眼像が一致することを、アライメント終了の判断条件としている。そこで、写損原因がフレアの場合は、この判断条件に対する補正値を出力部221が出力することで、写損とならない自動アライメントを可能にすることができる。
For example, when the user determines that the cause of the image loss is so-called flare, it is considered that the WD (operating distance: the distance between the imaging optical unit C2 and the eye E to be inspected) is too close or too far as the imaging condition. Be done. Therefore, if the same eye to be inspected is re-photographed under the same alignment conditions, the obtained image will have the same flare. Therefore, when performing automatic alignment, it is necessary to correct the alignment state. As shown in the description of FIG. 3, it is a condition for determining the end of alignment that the front eye images divided vertically by the
また、例えば、ユーザーにより写損原因が所謂ピンボケであると判断された場合、フォーカスレンズ12が眼底Erに対して近すぎる或いは遠すぎることが考えられる。そのため、同じ被検眼を同じフォーカス条件で再撮影すると、得られた画像は同じようにピンボケの画像となってしまう。このため、自動フォーカスを行う際に、フォーカス状態の補正が必要になる。図4の説明で示したように、フォーカス指標投影部22によって被検眼の瞳上に投影されたスプリット指標22a,22bが一直線に並ぶことを、フォーカス操作終了の判断条件としている。そこで、写損原因がピンボケの場合は、この判断条件に対する補正値を出力部221が出力することで、写損とならない自動フォーカスを可能にすることができる。
Further, for example, when the user determines that the cause of the image loss is so-called out-of-focus, it is conceivable that the
ステップS511では、制御部18は、出力された補正値に従って、自動的に撮影光学部C2或いはフォーカスレンズ12を駆動させる。制御部18は、駆動が完了したと判断したら、撮影用光源4を発光させて被検眼Eの眼底Erの撮影を行う。そして、フローをステップS504に移行させる。以降、ユーザーにより、再撮影して得られた画像が写損を有するか否かについての判断が、ステップS505において実行される。
In step S511, the
以上に説明したように、本実施例では、撮影された画像が写損を有するか否かと更には写損原因をユーザーが判断する。そして、写損画像を入力データとした学習済モデルを用いて、写損原因に対応した撮影光学部C2における撮影条件の補正値を出力している。これにより、ユーザーがある程度まで写損原因が判別可能であれば、熟練者ではなくとも写損状況に合わせた適切な補正値を導き出すことが可能となる。 As described above, in the present embodiment, the user determines whether or not the captured image has a copying loss and further, the cause of the copying loss. Then, using the trained model using the captured image as input data, the correction value of the photographing condition in the photographing optical unit C2 corresponding to the cause of the photographed loss is output. As a result, if the user can determine the cause of the photo loss to a certain extent, it is possible to derive an appropriate correction value according to the photo loss situation even if the user is not an expert.
なお、本実施例では、ステップS505における写損原因を含む写損判断を、ユーザーによる入力によって決定している。しかし、得られた画像のコントラスト等の画質を評価することにより、該写損判断を装置が自動で行ってもよい。また、ステップS507における手動選択を行うかどうかを事前に選択させてもよい。
また、ステップS510における学習済モデルから出力される補正値を、被検者毎に保存用メモリ41に保存し、当該被検者の次の撮影時に利用してもよい。
In this embodiment, the copying loss determination including the cause of the copying loss in step S505 is determined by input by the user. However, the apparatus may automatically perform the copying loss determination by evaluating the image quality such as the contrast of the obtained image. Further, it may be allowed to select in advance whether or not to perform the manual selection in step S507.
Further, the correction value output from the trained model in step S510 may be stored in the
<学習済モデルの生成>
次に、本実施例に係る学習済モデルの生成について説明する。なお、上述したように、本実施例における学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った学習モデルに対して、事前に適切な学習データを用いてトレーニングしたモデルである。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて実施例に係る学習モデルに適用することができる。学習済モデルとは、任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。教師データは、一つ以上の、入力データと出力データとのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。
<Generation of trained model>
Next, the generation of the trained model according to this embodiment will be described. As described above, the trained model in this embodiment is a model in which a learning model according to an arbitrary machine learning algorithm such as deep learning is trained in advance using appropriate learning data. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, a decision tree, and a support vector machine. In addition, deep learning (deep learning) in which features and coupling weighting coefficients for learning are generated by themselves using a neural network can also be mentioned. As appropriate, any of the above algorithms that can be used can be applied to the learning model according to the embodiment. The trained model is a model in which training (learning) is performed in advance using appropriate teacher data (learning data) for a machine learning model according to an arbitrary machine learning algorithm. However, the trained model does not require further learning, and additional learning can be performed. The teacher data is composed of one or more pairs of input data and output data. The format and combination of the input data and output data of the pair group that composes the teacher data may be one of which is an image and the other of which is a numerical value, or one of which is composed of multiple image groups and the other of which is a character string. May be an image or the like, which is suitable for a desired configuration.
以下、本実施例に係る学習済モデルを得る際のトレーニングに用いる学習データについて説明する。学習データは、実際に学習済モデルに入力されるデータに対応する入力データと、学習済モデルによって生成・出力されるデータに対応する出力データ(正解データ或いは教師データ)とのペアからなる。なお、学習データを教師データと称し、該教師データが入力データと出力データとのペアから構成されると称する場合もある。
本実施例では、学習データの入力データとして撮影画像を用いる。そして、学習データの出力データとして補正値を用いる。
Hereinafter, the learning data used for training when obtaining the trained model according to this embodiment will be described. The training data consists of a pair of input data corresponding to the data actually input to the trained model and output data (correct answer data or teacher data) corresponding to the data generated and output by the trained model. The training data may be referred to as teacher data, and the teacher data may be referred to as being composed of a pair of input data and output data.
In this embodiment, the captured image is used as the input data of the learning data. Then, the correction value is used as the output data of the learning data.
例えば、写損原因が所謂フレアである場合には、フレアが発生する理由として、WDが近すぎる或いは遠すぎることが考えられる。より詳細には、WDが近くなると照明光束が撮影光束と重なってしまう領域に角膜が入り、照明光の一部が角膜により反射し、この反射光が撮影光束に入り込んで角膜フレアが発生する。この角膜フレアは、照明光束の長波長側が撮影光束と重なるため、赤色となる。これに対し、WDが遠くなると照明光束が撮影光束と重なってしまう領域に水晶体後面が入り、照明光の一部が水晶体後面により反射し、この反射光が撮影光束に入り込んで水晶体フレアが発生する。この水晶体フレアは、照明光束の短波長側が撮影光束と重なるため、青色となる。このため、フレアの色に基づいて、WDが近すぎるために写損となったか、遠すぎるために写損となったかの判断ができる。 For example, when the cause of photo loss is so-called flare, the reason why flare occurs may be that the WD is too close or too far. More specifically, when the WD is approached, the cornea enters the region where the illumination light flux overlaps with the photographing light beam, a part of the illumination light is reflected by the cornea, and this reflected light enters the photographing light beam to generate corneal flare. This corneal flare turns red because the long wavelength side of the illumination luminous flux overlaps with the imaging luminous flux. On the other hand, when the WD is far away, the rear surface of the crystalline lens enters the region where the illumination light flux overlaps with the shooting light beam, and a part of the illumination light is reflected by the rear surface of the crystal body, and this reflected light enters the shooting light beam to cause lens flare. .. This crystalline lens flare becomes blue because the short wavelength side of the illumination luminous flux overlaps with the photographing luminous flux. Therefore, based on the color of the flare, it is possible to determine whether the WD is too close to cause a photo loss or the WD is too far to cause a photo loss.
そこで、WDが適切な位置(プリズム63により上下に分割された前眼像が一致している位置)から一定量だけWDを近づけて或いは遠ざけて撮影し、この撮影条件で、写損であるフレアを有した眼底画像を取得する。これによって撮影されたフレアを有した眼底画像を学習データの入力データ、適切な位置から撮影光学部C2を一定量だけ光路方向に移動させた位置の差分を補正値として、学習データの出力データとすることができる。また、更に撮影光学部C2の位置を一定量、変化させて複数の写損画像を得ることにより、複数の学習データの入力データと学習データの出力データのペア(以下、これを学習データペアと記す)を作成することができる。そして、作成した複数の学習データペアを用いてトレーニングすることにより、写損原因がフレアの場合用の学習済モデルが生成できる。
Therefore, the WD is photographed by moving the WD closer to or further away from an appropriate position (the position where the anterior eye images divided vertically by the
例えば、写損原因が所謂ピンボケである場合には、ピンボケが発生する理由として、フォーカスレンズ12が眼底Erに近すぎる或いは遠すぎることが考えられる。しかし、眼底画像からは、フォーカスレンズ12が眼底Erに近いためにピンボケとなったか遠いためにピンボケになったかの判断は容易ではない。ここで、眼底Erが遠い例として、被検眼Eの眼軸長が長い場合が例示される。この場合、フォーカスレンズ12の位置により被検眼EのディオプターDを知ることで、眼軸長の推測を行うことができる。
For example, when the cause of the image loss is so-called out-of-focus, it is conceivable that the
そこで、フォーカスレンズ12が適切な位置から一定量だけフォーカスレンズ12を近づける或いは遠ざけて撮影する。これにより写損であるピンボケを有した眼底画像と、その際のフォーカスレンズ12の光路上の適切な位置からのずれ量が取得できる。また、眼底Erが近いために生じたピンボケであるか遠いために生じたピンボケであるかは、ボケの態様において相違がある。より詳細には、フォーカスレンズ12が眼底Erに近い場合には、得られた眼底画像は、焦点位置となる箇所は暗くなるが、逆に周囲は少し明るくなり、その分だけ可視領域が広がる。更にフォーカスレンズ12が眼底Erに近づくと焦点位置だった箇所から暗くなり、最終的には周辺だけが見える領域として残る。また、フォーカスレンズ12が眼底Erに遠い場合には、得られた眼底画像は全体的に暗くなる。しかし、周辺も暗くなるため、可視領域は広がらない。更にフォーカスレンズ12が眼底Erから遠ざかると周りから暗くなり、最終的には焦点位置だけが見える領域として残る。このため、眼底画像Erの明暗の分布から、フォーカスレンズ12が眼底Erに近いためにピンボケとなっているか、遠いためにピンボケとなっているかを知ることができる。
Therefore, the
以上のことから、眼底画像を学習データの入力データ、フォーカスレンズ12を適切な位置から一定量だけ移動させた位置の差分である補正値を学習データの出力データとすることができる。また、更に、フォーカスレンズ12の光路上の位置を一定量、変化させることにより、複数の学習データペアを作成することができる。そして、作成した複数の学習データペアを用いてトレーニングすることにより、写損原因がピンボケの場合用の学習済モデルが生成できる。なお、眼底カメラの場合、最初の眼底撮影時のフォーカスレンズ12の位置から被検眼EのディオプターDを知ることができる。このディオプターDを参照することにより、眼底Erが近いために生じたピンボケであるか遠いために生じたピンボケであるかを確認することができる。
From the above, it is possible to use the fundus image as the input data of the learning data and the correction value which is the difference between the positions where the
なお、上述した例では、撮影光学部C2或いはフォーカスレンズ12を一定量だけ移動させて場合についてのみ補正値を算出している。しかし、適切な位置から移動させずに撮影した画像とその補正値(差分=0)とを学習データペアとして用いることもできる。当該学習データペアを用いて学習済モデルをトレーニングすることにより、学習精度を上げることが可能である。また、白内障による眼底不明瞭等、疾患眼における学習データペアは上述した方法では作成することができない。そのため、このような写損を有する画像に対応するための学習済モデルの生成には、疾患眼を撮影して写損と判断された眼画像と、その時の再撮影位置から算出される補正値とを、学習データペアとして用いる。
In the above-mentioned example, the correction value is calculated only when the photographing optical unit C2 or the
なお、上述した実施例では、写損原因をユーザーが入力することとし、入力データには写損画像のみを用いることとしている。しかし、入力データの数は1つ以上であればよく、適宜選択可能である。例えば、学習データの入力データとして前眼部の画像、眼圧値、眼軸長等の被検眼に関する更なるデータを追加することもできる。ただし、学習済モデル作成時の入力データ(学習データの入力データ)の数及び種類と、学習済モデル使用時の入力データの数及び種類は同一である必要がある。また、例えば上述した疾患眼等の場合、用いた眼科装置では適切な画像が得られない場合も想定される。このような画像の場合、学習済モデルの出力として、例えば補正不可、若しくは補正無しといった出力を設定しておいてもよい。 In the above-described embodiment, the user inputs the cause of the copy loss, and only the copy loss image is used as the input data. However, the number of input data may be one or more and can be appropriately selected. For example, further data related to the eye to be inspected such as an image of the anterior segment of the eye, an intraocular pressure value, and an axial length can be added as input data of training data. However, the number and type of input data (input data of training data) at the time of creating the trained model and the number and type of input data at the time of using the trained model must be the same. Further, for example, in the case of the above-mentioned diseased eye, it is assumed that an appropriate image cannot be obtained by the ophthalmic apparatus used. In the case of such an image, as the output of the trained model, for example, an output such as no correction or no correction may be set.
学習済モデルは、事前に眼底カメラCを用いて学習させたものをそのまま用いてもよいし、使用しながら学習済モデルの更新(追加学習)をしてもよい。具体的には、撮影画像が写損と判断され、手動で位置調整、再撮影を行った場合、写損と判断された撮影画像を学習データの入力データとする。また、例えば写損時のフォーカスレンズ12の撮影時の光路上の位置と、再撮影時の光路上の位置から算出した補正値を学習データの出力データとする。そして、当該学習データペアを用いて追加学習を行う。また、追加学習は被検者毎に行ってもよく、その場合、当該被検者用の学習済モデルが生成される。
As the trained model, the one trained in advance using the fundus camera C may be used as it is, or the trained model may be updated (additional learning) while using it. Specifically, when the captured image is determined to be a copy loss and the position is manually adjusted and re-photographed, the captured image determined to be a copy loss is used as the input data of the learning data. Further, for example, the correction value calculated from the position on the optical path of the
ここで、本実施例における機械学習モデルであるCNN(Convolutional Neural Network)について説明する。図6は、CNNの構造を示す概略図である。CNNは入力データを加工して出力する複数の層群によって構成される。複数の層群の種類としては、Convolution(畳み込み)層601、Activation(活性化)層602、Pooling(ダウンサンプリング)層603、全結合層604、及び出力層605がある。
Here, a CNN (Convolutional Neural Network), which is a machine learning model in this embodiment, will be described. FIG. 6 is a schematic view showing the structure of CNN. CNN is composed of a plurality of layers that process and output input data. Types of the plurality of groups include
Convolution層601は、設定されたフィルタのカーネルサイズ、フィルタ数、ストライド値、およびダイレーション値等のパラメータに従い、入力群に対いて畳み込み処理を行う層である。なお、フィルタのカーネルサイズを入力画像の次元数に応じて変更する構成にしてもよい。Activation層602は、入力信号の総和の活性化について決定し、ステップ関数、シグモイド関数、ReLU(Rectified Linear Unit)等で構成される。Pooling層603は、例えばMax Pooling処理等、入力値群を間引いたり合成したりすることによって、出力値群の数を入力値群の数より少なくする処理を行う層である。全結合層604は、これまでの処理を通して特徴部分が取り出された画像のデータを一つに結合し、活性化関数によって変換された値を出力する層である。
The
学習済モデルの生成に際しては、入力データとしての画像と、出力データとしての補正値とからなる学習データが用いられる。そして、実際に学習済モデルに画像を入力した場合、出力層605からは、入力された画像について、先の出力データで用いた複数の補正値の各々の値となる確率が出力される。より詳細には、学習データにおいて出力データとして用いた複数の補正値の各々について、学習済モデルに入力された画像に対応する補正値となる可能性が各々の補正値の例えば確率として出力される。出力部221は、これら出力された確率を参照して、最終的に出力する補正値を決定する。例えば、出力される補正値は、個々の補正値となる確率の相対的な大きさに基づき、最も確率の大きくなる補正値が最終的に出力される補正値として決定され、出力部221より出力される。或いは、例えば出力層605から出力された各補正値について、その確率により重み付けをして加算平均する等の演算を実行して得られた補正値を、最終的な補正値として出力部221から出力することもできる。本実施例の場合、出力部221において、このような処理を実行することにより、画像を入力データとした場合であっても数値としての出力データを得ることが可能となる。なお、最終的に出力層605から出力される補正値は、全結合層604を補正値出力のための最適値演算を行う構成にすることもできる。
When generating the trained model, training data consisting of an image as input data and a correction value as output data is used. Then, when an image is actually input to the trained model, the
学習済モデルにデータを入力すると、学習済モデルの設計に従ったデータが出力される。例えば、学習データを用いてトレーニングされた傾向に従って、入力されたデータに対応する可能性の高いデータが出力される。本実施例では、上述した学習データによってトレーニングされた学習済モデルに写損時の画像を入力すると、写損を低減できる可能性の高い補正値が出力される。 When data is input to the trained model, the data according to the design of the trained model is output. For example, data that is likely to correspond to the input data is output according to the tendency trained using the training data. In this embodiment, when an image at the time of copying loss is input to the trained model trained by the training data described above, a correction value having a high possibility of reducing copying loss is output.
なお、本実施例において出力部221で用いられる学習済モデルは、処理部220或いは制御部18において用いられてもよい。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、処理部220或いは制御部18と接続される別のサーバの装置等で用いられてもよい。この場合には、処理部220或いは制御部18は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。
The trained model used in the
なお、本実施例において、処理部220は予め得られている学習済モデルを用いる出力部221を有する態様について述べている。しかし、処理部220において、学習済モデルを生成するための学習部を設けることもできる。該学習部は、上述した入力データ及び出力データを入力することにより、処理部で用いる学習済モデルを生成できる。また、この場合、該学習部は、誤差検出部と、更新部と、を備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算するようにしてもよい。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
In this embodiment, the
また、本実施例では、眼底カメラCに含まれる制御部18として、制御部18について説明している。しかし、これら構成、更には制御部18に含まれる諸構成が相互に通信が可能な2以上の装置によって構成されてもよいし、単一の装置によって構成されてもよい。また、制御部18の各構成要素は、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、他の任意のハードウェアと任意のソフトウェアとの組み合わせにより構成されてもよい。なお、GPUはデータをより多く並列処理することで効率的な演算を行うことができることから、ディープラーニングのような学習データを用いて複数回にわたり学習を行う場合にこれを用いることが有効である。
Further, in this embodiment, the
上述したように、本実施例1に係る眼科装置は、撮影光学部C2と、駆動手段(駆動部C4)と、制御手段(制御部18)と、入力手段(操作入力部21)と、該制御部18における出力手段(出力部221)とを備える。撮影光学部C2は、被検眼Eの眼底画像を撮影する構成として、上述した各種光学部材を有する。駆動制御部201は、撮影光学部C2が有するフォーカスレンズ12等の各種の駆動制御される光学部材を駆動する第二の駆動部を制御する。駆動部C4(第一の駆動部)は、例えばパルスモータ等から構成されて撮影光学部C2の位置を被検眼Eに対してXYZの3軸方向に駆動させる。入力手段は、例えば表示モニタ15に表示されるGUI等から構成されることができ、ユーザーによる撮影画像における写損の有無や写損原因の入力を受け付ける。制御部18は、撮影光学部C2に含まれるフォーカスレンズ12等の光学部材及び駆動部C4と接続されてこれらを制御する。出力部221は、入力された写損の原因(或いは写損の有無を含めた写損に関する情報)に基づいて、複数の学習済モデルの内から、入力された写損に関する情報に対応する学習済モデルを選択する。そして、出力部221は撮影された被検眼Eの眼底画像から、選択された学習済モデルを用いて、写損が低減された眼底画像を再撮影するためのフォーカスレンズ12等と駆動部C4との少なくとも何れかの制御値(補正値)を出力できる。なお、出力部221が行う工程は、例えば制御値を出力する工程として、眼科装置の制御方法の一工程(写損原因を入力する工程、及び制御値を出力する工程)を構成することもできる。
As described above, the ophthalmic apparatus according to the first embodiment includes a photographing optical unit C2, a driving means (driving unit C4), a control means (control unit 18), an input means (operation input unit 21), and the like. It includes an output means (output unit 221) in the
なお、上述した眼科装置においては、図5のフローチャートのように、再撮影を行う際のフォーカスレンズ12等と駆動部C4との少なくとも何れかの制御を、自動制御で実行するか、ユーザーからの指示に応じて実行するかを選択できる。この選択は、選択手段を構成する操作入力部21、例えば表示モニタ15に表示されるGUI等を介して実行することができる。また、ユーザーからの指示に応じた再撮影を選択した場合、GUI等を介して入力されたフォーカスレンズ12等と駆動部C4との新たな補正値を得ることができる。なお、再撮影前の画像とその際に判定された写損原因とを入力データとし、得られた補正値を出力データとする学習データを用いることによって、得られている学習済モデルに対して追加学習を行ってもよい。この追加学習は、例えば出力部221内に学習モデルを生成する手段としての構成(GPU等)を更に設け、当該構成によって実行されることができる。
In the above-mentioned ophthalmic apparatus, as shown in the flowchart of FIG. 5, at least one of the control of the
また、写損原因として、上述した実施例ではその一態様としてピンボケについて述べた。写損原因がピンボケであると判定された場合、ピンボケは、例えば合焦部材として例示しているフォーカスレンズ12の光路上(光路L4上)の配置に起因する。このことから、再撮影時には該フォーカスレンズ12の光路L4上の配置が調整される。具体的には、出力部221は、補正値(制御値)として、最初の撮影時の光路L4上の位置(第一の位置)から再撮影時の位置(第二の位置)へフォーカスレンズ12を移動させる移動量を出力する。なお、上述したように、ピンボケの態様によってフォーカスレンズ12を移動させる光路L4上の方向を判定することができる。その際、被検眼Eの形状情報や過去の診断情報、例えばディオプターを参照することで、フォーカスレンズ12が眼底Erに対して近すぎるためにピンボケとなっているか遠すぎるからピンボケになっているかを確認することもできる。
Further, as a cause of copying loss, out-of-focus was described as one aspect of the above-described embodiment. When it is determined that the cause of the image loss is out-of-focus, the out-of-focus is caused by, for example, the arrangement of the
また、写損原因がフレアと判定された場合、フレアは、例えば撮影光学部C2と被検眼Eとの距離であるWDに起因する。このことから、再撮影時には、撮影光学部C2と被検眼Eとの光路L3上の距離が調整される。具体的には、出力部221は、補正値(制御値)として、最初の撮影時の光路L3上の位置(第一の位置)から再撮影時の位置(第二の位置)へ撮影光学部C2を移動させる移動量を出力する。また、上述したように、フォーカスレンズ12の位置が被検眼Eに近すぎるか遠すぎるかは、フレアが赤みを帯びている(含む)か青みを帯びている(含む)かで判断できる。従って、出力部221は、入力された眼底画像のこの色に基づいて、第一の位置から第二の位置に移動させる際の移動量の正負の判定を行うことができる。
When the cause of the image loss is determined to be flare, the flare is caused by, for example, WD, which is the distance between the photographing optical unit C2 and the eye E to be inspected. Therefore, at the time of re-imaging, the distance between the photographing optical unit C2 and the eye E to be examined on the optical path L3 is adjusted. Specifically, the
なお、上述した実施例では、写損原因としてフレアとピンボケとを例として述べている、しかし、写損原因には、例えば撮影時の被検眼の瞬きによるものや、白内障等の疾病によるものや、露光不足等も含まれる。瞬きにより撮影画像が写損となった場合には、撮影条件としては適切であるが、撮影のタイミング的に問題があっただけであることから、同じ条件で撮影することが好ましい。従って、写損が瞬きに起因すると判断される、或いはこの判断結果が出力された場合には、再撮影の制御値としてゼロ(被検眼Eを撮影した際の制御状態に対する補正値がゼロ)が出力されるとよい。また、白内障等の疾病に起因して撮影画像が写損となった場合には、被検眼の曇り等によって撮影条件を変えても適当な画像を撮影することが困難な場合もおこり得る。このように、写損の原因は、眼科装置の被検眼に対する制御状態によるものではなく、瞬きや白内障等の被検眼の状態に起因する場合もある。このように、写損が被検眼の状態に起因する場合、学習済モデルは制御値を出力せずに、適当な制御値が存在しないとの情報を出力する、或いは元の撮影条件での撮影が適当であるとして制御値ゼロを出力するとよい。更に、写損原因として、被検眼の状態が入力された場合、制御部18は、学習済モデルを用いずに、直接制御値としてゼロを出力する態様とすることもできる。また、露光不足等による場合には、学習済モデルは露光時間や撮影用光源4の光量に関する制御値を出力することができる。
In the above-described embodiment, flare and out-of-focus are described as examples of the causes of the image loss. However, the causes of the image loss include, for example, blinking of the eye to be inspected at the time of photographing, or a disease such as cataract. , Underexposure, etc. are also included. When the photographed image is lost due to blinking, it is appropriate as an imaging condition, but it is preferable to photograph under the same conditions because there is only a problem in the timing of photographing. Therefore, when it is determined that the image loss is caused by blinking, or when this determination result is output, the control value for re-imaging is zero (the correction value for the control state when the eye E to be inspected is photographed is zero). It should be output. In addition, when the captured image is lost due to a disease such as cataract, it may be difficult to capture an appropriate image even if the imaging conditions are changed due to cloudiness of the eye to be inspected or the like. As described above, the cause of the image loss is not due to the control state of the ophthalmic apparatus for the eye to be inspected, but may be due to the state of the eye to be inspected such as blinking or cataract. In this way, when the image loss is caused by the condition of the eye to be inspected, the trained model does not output the control value, but outputs the information that an appropriate control value does not exist, or shoots under the original shooting conditions. Is appropriate, and the control value of zero should be output. Further, when the state of the eye to be inspected is input as the cause of image loss, the
なお、上述した写損原因に対処するためには、これら写損原因の各々に対応した学習済モデルを予め生成しておくとよい。この学習済モデルの生成に際しては、写損原因に対応する写損を有する画像を入力データとし、例えば同じ条件での撮影や制御値を出力しないといった結果を出力データに加えるとよい。制御部18は、出力部221により出力された制御値を用いて、撮影された被検眼Eについての再撮影を行うことができる。また、再撮影時において、ユーザーが手動操作によって撮影条件の変更を行う可能性がある。このことから、出力部221が出力した制御値は、表示モニタ15(表示手段)に写損原因と対応させて表示されるように、表示制御部202(表示制御手段)が表示形態を制御するとよい。更に、例えばこの被検者の被検眼Eを後日撮影する場合においては、この制御値を再度用いることが好ましいことが想定される。このため、出力された制御値は制御部18に配される記憶部213や外部記憶装置等の、出力された制御値を保存する保存手段に保存或いは記憶されることが望ましい。そして、眼底カメラCにより該被検眼Eの再撮影を行う際には、制御部18は、この保存された制御値を用いて、撮影光学部C2に含まれる光学部材及び駆動部C4を制御する。
In order to deal with the above-mentioned causes of copying loss, it is advisable to generate a trained model corresponding to each of these causes of copying loss in advance. When generating this trained model, it is advisable to use an image having a copying loss corresponding to the cause of the copying loss as input data, and add a result such as shooting under the same conditions or not outputting a control value to the output data. The
以上の構成を有することにより、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であって仮に写損原因がある程度まで判別できるが適切な再撮影の条件を設定できない場合であっても、自動の再撮影を行うことで診断に適切な眼底画像を得ることができる。なお、上述した写損原因は例示であり、その他の、露光不足等の公知の種々の写損原因とその補正値についても、同様に写損を有する画像を生成し、これらを入力データとして用いることでこの写損原因に対応した学習済モデルを得ることができる。 With the above configuration, re-shooting can be performed under shooting conditions according to the situation of shooting loss. As a result, even if the user is immature and the cause of the image loss can be determined to some extent, but appropriate re-imaging conditions cannot be set, automatic re-imaging is performed to obtain a fundus image suitable for diagnosis. be able to. It should be noted that the above-mentioned causes of image loss are examples, and for other known causes of image loss such as underexposure and their correction values, images having image loss are similarly generated and used as input data. Therefore, a trained model corresponding to the cause of this copying loss can be obtained.
[変形例1]
上述した実施例1では、写損原因をユーザーが選択し、入力している。そして、処理部220において選択部222が入力された写損原因に応じた学習済モデルを選択し、該学習済モデルに対して写損画像を入力する場合について述べた。しかし、例えば集団検診等ではユーザーの熟練度が低く、写損原因を判別しきれないことも考えられる。本変形例では、そのような場合についての対応を目的としている。なお、本変形例では、眼底カメラCの構成については処理部220において選択部222が除かれる以外には実施例1で説明した構成と差異がないため、ここでの更なる構成についての説明は割愛する。以下では、処理部220で実行される処理、及びその際に用いられる学習済モデルについて説明する。
[Modification 1]
In the first embodiment described above, the user selects and inputs the cause of the copying loss. Then, the case where the
本実施例で用いる学習済モデルは、撮影された眼底画像を入力データとし、該眼底画像が写損を有するか否かと、写損を有する場合にはその写損原因とを出力データとしたペアからなる学習データによりトレーニングされる。また、実施例1で述べた処理部は、本変形例では選択部222を有さず、出力部221のみを有する。実際の眼底撮影時において、本変形例では、撮影された眼底画像が学習済モデルに入力されて、該学習済モデルから写損を有するか否か、及び写損を有する場合にはその写損原因が出力される。これにより、ユーザーが眼底画像の撮影に未熟であっても、撮影された眼底画像についての写損の有無やその原因を知ることが可能となる。
The trained model used in this embodiment is a pair in which the captured fundus image is used as input data, and whether or not the fundus image has photo loss and, if so, the cause of the photo loss is used as output data. It is trained by learning data consisting of. Further, the processing unit described in the first embodiment does not have the
本変形例は、集団検診等において、例えば図5に示した撮影処理のフローにおいて、ステップS505でユーザーにより判断及び入力が行われた写損の判断を、処理部220により実行することができる。実際の眼底画像の撮影時では、例えば図5に示したステップS504で表示された眼底画像が処理部220における学習済モデルに入力されることができる。出力部221は、この学習済モデルから、撮影した眼底画像の写損の有無や写損原因についての情報を出力する。この場合、上述した出力層605(図6参照)からは、画像に対応する写損原因となる割合等の値が出力され、出力部221は、出力層605から出力された値を用いて決定された写損原因を出力する。また、本実施例において、学習済モデルは、撮影された眼底画像が写損を有していないことを出力できる。これにより、未熟なユーザーは写損の有無の判断を自身で行う必要が無くなり、診断に適切な画像が得られているか否かを眼科装置から知ることができ、不用な再撮影を行わずに画像を保存することができる。なお、上述した処理部220による写損の判断は、ステップS505の代わりに、ステップS505でユーザーにより判断された後に実行されてもよい。これにより、例えば、ユーザーが写損ありと判断したとしても、処理部220が写損なしと判断した場合には、無駄な再撮影を避けることができる。また、例えば、ユーザーが写損なしと判断したとしても、処理部220が写損ありと判断した場合には、効率的に再撮影を実行することができる。このとき、ユーザーの判断結果と処理部220の判断結果とが異なる場合に、処理部220の判断結果が表示されることで、例えば、効率的に撮影処理を進めることができる。また、ユーザーは、眼底画像が写損を有するものであるか判別できない場合、ステップS505において写損を有するとして、学習済モデルによる上述した写損の有無の判定を行ってもよい。或いは、フローをステップS510に移行させて補正無しとの判定(補正値=0)を出力させることもできる。これらの場合、フローを更にステップS506に移行する処理順序とすることにより、ユーザーが写損の有無の判断に迷った場合であっても、該写損の有無の判断を的確に行い、不要な再撮影を避けて被検者の負担を低減することができる。
In this modified example, in a mass examination or the like, for example, in the flow of the photographing process shown in FIG. 5, the
より詳細には、学習データにおける出力データは、複数の写損に関する情報として、写損の原因や写損の有無といった情報を含む。出力データは、入力データとして用いた眼底画像が、これら写損に関する情報の何れかに対応するであろう割合、或いは何れかに割り振られる確率等の値が含まれる。従って、該学習済モデルからは、入力された画像から、例えば写損の原因の各々について、該入力された画像に対応する例えば割合等の値が出力される。出力部221は、これら出力された値を参照して、最終的に出力する写損原因を決定する。例えば、出力される写損原因として、個々の値となる割合の相対的な大きさから、最も割合の大きくなる写損原因が決定され、出力部221より出力される。例えば、上述した実施例1における以降の処理を行おうとした場合、写損であるとの情報が出力されると、制御部18によりフローをステップS507に移行することが考えられる。これにより、以降上述したステップS508〜S511の処理を実行することができる。
More specifically, the output data in the training data includes information such as the cause of the copying loss and the presence / absence of the copying loss as information on a plurality of copying losses. The output data includes a value such as the ratio at which the fundus image used as the input data will correspond to any of the information regarding the copying loss, or the probability that the image is allocated to any of them. Therefore, from the trained model, values such as a ratio corresponding to the input image are output from the input image, for example, for each of the causes of copying loss. The
本変形例に係る眼科装置は、撮影光学部C2と、駆動部C4と、制御部18と、該制御部18における出力手段(出力部221)とを備える。撮影光学部C2は、被検眼Eの眼底画像を撮影する構成として、上述した各種光学部材を有する。この各種光学部材のうち、撮影時に駆動制御される例えばフォーカスレンズ12は、駆動制御部201と該フォーカスレンズ12の駆動用の不図示のモータ等から構成される第二の駆動手段により駆動される。駆動部C4は、第一の駆動手段として、例えばパルスモータ等から構成されて撮影光学部C2の位置を被検眼Eに対してXYZの3軸方向に駆動させる。制御部18は、撮影光学部C2及び駆動部C4と接続されてこれらを制御する。出力部221は、撮影された被検眼Eの眼底画像から、学習済モデルを用いて、写損の原因を出力できる。また、出力部221は、学習済モデルにより、眼底画像が写損と有していないことを判定し、その判定結果を出力することもできる。即ち、該出力部221は、学習済モデルにより、撮影された被検眼Eの画像から、写損の原因に関する情報(写損原因、写損の有無等)を出力することができる。なお、この出力部221は、更に写損原因各々に対応して、各々の写損の原因を低減できる可能性のある制御値を出力できる複数の更なる学習済モデルを有することもできる。即ち、出力部221は、複数の学習済モデルを用いることで、写損を低減するための撮影光学部C2が有する光学部材と駆動部C4との少なくとも何れかの制御値(補正値)を出力できる。なお、表示制御部202は、出力部221により出力された写損原因を表示モニタ15に表示させることができる。その際、写損原因と対応させて、更に出力された制御値も表示モニタ15に表示させることができる。出力部221が行う工程は、例えば制御値を出力する工程として、眼科装置の制御方法の一工程を構成することもできる。
The ophthalmic apparatus according to this modification includes a photographing optical unit C2, a driving unit C4, a
以上の構成を有することにより、撮影された眼底画像が写損を有するか否かや、写損を有する場合にはその写損原因を知ることができる。これにより、ユーザーが未熟であっても、撮影された眼底画像を適切に判別し且つ写損の場合にはその原因を的確に知ることができる。また、実施例1の構成と組み合わせることにより、ユーザーの眼底画像観察の習熟度によらず、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であっても、適切な撮影条件にて自動の再撮影を行うことができ、診断に適切な眼底画像を得ることができる。なお、上述した学習済モデルは、被検眼Eの画像を入力データとし、該画像に対応する写損の原因に関する情報を出力データとするペアからなる学習データを用いることで得られる。また、この学習済モデルは、出力層605から、入力された画像が、該学習済モデル生成時に出力データとして用いられた複数の写損に関する情報に対応する値が出力される。出力部221は、これら複数の写損に関する情報の何れかに対応する値に基づいて、入力された画像に対応する写損に関する情報、より詳細には写損の原因に関する情報を出力する。なお、学習データの生成に用いる被検眼は、実際に撮影されて写損を有するとされた画像が得られた被検眼と同じであってもよく、異なっていてもよい。異なった被検眼に関する画像や写損に関する情報も学習データとして用いることで、より多くの学習データを用いて精度のよい学習済モデルを得ることができる。また、制御値を出力できる学習済モデルを得るための学習データにおいても、実際に撮影されて写損を有するとされた画像と、該画像を得る際に用いた眼科装置の制御値とからなる学習データ以外も用いることができる。即ち、実際に撮影に用いた眼科装置ではなく、異なる眼科装置により得た写損を有する画像と、該眼科装置において該画像が有する写損を低減する該眼科装置の駆動手段の制御値とからなる学習でデータも用いることができる。
With the above configuration, it is possible to know whether or not the photographed fundus image has a copying loss, and if there is a copying loss, the cause of the copying loss. As a result, even if the user is immature, it is possible to appropriately discriminate the captured fundus image and accurately know the cause in the case of loss of image. Further, by combining with the configuration of the first embodiment, it is possible to perform re-imaging under the imaging conditions according to the situation of image loss regardless of the user's proficiency in observing the fundus image. As a result, even if the user is immature, automatic re-imaging can be performed under appropriate imaging conditions, and a fundus image suitable for diagnosis can be obtained. The trained model described above can be obtained by using training data consisting of a pair in which the image of the eye E to be inspected is used as input data and information on the cause of copying loss corresponding to the image is used as output data. Further, in this trained model, a value corresponding to a plurality of information regarding copying loss used as output data when the input image is generated from the trained model is output from the
[変形例2]
上述した実施例1では、眼底を撮影する装置の例として眼底カメラを用いた場合について説明した。しかし、眼底を撮影する構成は例示した眼底カメラに限られず、眼底をカラー撮影することができる所謂カラー走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope:以下カラーSLOと称する)を用いてもよい。以下に本変形例で用いるカラーSLOの光学系の構成について、その光学構成を模式的に示す図7を参照して以下に説明する。なお、表示モニタ、制御部、操作入力部、画像処理部、及び保存用メモリ等の光学系に付随するその他の構成については、実施例1述べた眼底カメラに付随して配置された構成と同様であるため、ここでの説明は割愛する。
[Modification 2]
In Example 1 described above, a case where a fundus camera is used as an example of a device for photographing the fundus of the eye has been described. However, the configuration for photographing the fundus is not limited to the illustrated fundus camera, and a so-called color scanning laser ophthalmoscope (hereinafter referred to as color SLO) capable of color photographing the fundus may be used. The configuration of the optical system of the color SLO used in this modification will be described below with reference to FIG. 7, which schematically shows the optical configuration. The other configurations attached to the optical system such as the display monitor, the control unit, the operation input unit, the image processing unit, and the storage memory are the same as the configurations arranged along with the fundus camera described in the first embodiment. Therefore, the explanation here is omitted.
本変形例として示すカラーSLO701は、照明光学系710、及び受光光学系720を備える。照明光学系710は光路L1と光路L3に配置される光学部材等から構成される。具体的には、照明光学系710は、レーザー光源711から被検眼Eに向かって順に配置される、レンズ712、穴あきミラー713、フォーカスレンズ714、レンズ715、走査部716、及び対物レンズ717を有する。レーザー光源711は、青、緑、赤、及び赤外の4つの波長域の光(以下照明光と称する。)を出射可能であり、カラー撮影時には青、緑、及び赤の光の眼底Erからの反射光が用いられる。また、これら照明光は、例えば可視蛍光撮影や赤外蛍光撮影に用いることもできる。フォーカスレンズ714は駆動系714aにより光路L1に沿って図中矢印方向に駆動可能とされ、出射光を眼底Er上の任意の位置に合焦可能とされる。
The
レーザー光源711から出射された照明光は、穴あきミラー713の開口部713aを通り、フォーカスレンズ714、レンズ715を経て走査部716に至り、更に対物レンズ717を経て眼底Erに照射される。眼底Erにより反射された照明光は、この経路を逆に辿り、穴あきミラー713によって受光光学系720の光路L2に導かれる。走査部716は、例えば一対のガルバノミラー716a,716bから構成することができる。この時、一方のミラーにより、レーザー光源711から出射された照明光を例えばX方向に走査し、他方のミラーにより該照明光をY方向に走査することで、該照明光で眼底Er上をラスタスキャンすることができる。レーザー光源711、駆動系714a、及び走査部716は、制御部18(図1及び2参照)により制御される。
The illumination light emitted from the
受光光学系720は、光路L2において、穴あきミラー713から順に配置される、レンズ721、ピンホール板722、及び光分離部730を有する。光分離部730は、眼底Erからの反射光を上述した青、緑、赤(及び赤外)の波長帯域の光に分離する。そのため、光分離部730は、波長に応じて照明光を分離可能なダイクロイックミラー731,732を有する。これらダイクロイックミラー731,732の透過方向及び反射方向には、各々の波長帯域の光に対応した受光素子724,726,728が配置される。これら構成により、眼底Erからの青、緑、及び赤の光の反射光を分離して受光することができ、これら各々の受光素子から得た画像を合成することで眼底Erのカラー画像が得られる。
The light receiving
なお、ダイクロイックミラーと受光素子との間には、各々の波長域の光を受光素子に集光させるためのレンズ723,725,727、及び蛍光撮影時に眼底反射光を除去するためのフィルタ733,734,735が配置される。また、受光光学系720は、ピンホール板722及びフィルタ挿脱部740を有する。ピンホール板722は、眼底Erと共役内地に配置されており、共焦点絞りとして利用される。また、上述した受光光学系720は、対物レンズ717から穴あきミラー713までに配置される各部材を、照明光学系710と共用している。以上に述べたカラーSLO701を用いた眼科装置により得られた眼底画像についても、実施例1で述べた制御部18による処理によって、ユーザーの眼底画像観察の習熟度によらず、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であっても、適切な撮影条件にて自動の再撮影を行うことができ、診断に適切な眼底画像を得ることができる。
Between the dichroic mirror and the light receiving element, there are a lens 723,725,727 for condensing light in each wavelength range on the light receiving element, and a
[変形例3]
なお、上述した変形例2として述べた眼科装置におけるカラーSLO701における対物光学系を反射光学系により構成し、該カラーSLOを超広画角SLOとすることもできる。以下に本変形例で用いる超広画角SLOの光学系の構成について、その光学構成を模式的に示す図8を参照して以下に説明する。なお、表示モニタ、制御部、操作入力部、画像処理部、及び保存用メモリ等の光学系に付随するその他の構成については、実施例1述べた眼底カメラに付随して配置された構成と同様であるため、ここでの説明は割愛する。
[Modification 3]
It is also possible to configure the objective optical system in the
本変形例として示す超広画角SLO800は、光源ユニット801、照明光学系、及び受光光学系を有する。光源ユニット801は、赤外光レーザー光源801a、赤色レーザー光源820a、緑色レーザー光源820b、及び青色レーザー光源820cを有する。また、光源ユニット801は、これら光源からの光を光路L1で同軸とするためのダイクロイックミラー823、ダイクロイックミラー821a、及びダイクロイックミラー821bとを有する。照明光学系は、光源ユニット801から被検眼Eに向かって順に配置される、穴あきミラー802、レンズ803、視度補正光学系(804,805)、凹面ミラー(806,808,810)及び走査光学系(807,809)を有する。
The ultra-wide angle of view SLO 800 shown as a modified example includes a
視度補正光学系はミラー804,805を有し、不図示の駆動系によりこれらミラーを図中矢印方向に移動することで光路長を変化させ、フォーカスの視度補正を行うことができる。走査光学系は、ポリゴンミラー807とガルバノミラー809を有する。ポリゴンミラー807はレーザー光を例えば眼底上を水平方向に走査し、ガルバノミラー809はレーザー光を垂直方向に走査する。受光光学系は、穴あきミラー802の反射方向において、該穴あきミラー802から順に配置される、レンズ812、ピンホール板813、集光レンズ814、及び受光素子815を有する。眼底からの反射光は、穴あきミラー802の穴の周辺部により反射され、これら光学部材を経て受光素子815に導かれる。
The diopter correction optical system has
光源ユニット801により出射された走査用レーザー光は、ダイクロイックミラー823を経た後、穴あきミラー802の穴を通過し、視度補正光学系、及び凹面ミラー806を介してポリゴンミラー807に導かれる。ポリゴンミラー807により眼底上を水平方向に走査されるレーザー光は、凹面ミラー808を経てガルバノミラー809により更に垂直方向に走査される。ガルバノミラー809を経たレーザー光は、凹面ミラー810により反射された被検眼Eに照射される。眼底から反射されたレーザー光は、これら光学部材を逆に経て、穴あきミラー802により反射されて受光素子815により受光される。このような反射光学系によって対物光学系を構成することにより、眼底における画像を広画角で撮影することができる。以上に述べた超広画角SLO800を用いた眼科装置により得られた眼底画像についても、実施例1で述べた制御部18による処理によって、ユーザーの眼底画像観察の習熟度によらず、写損の状況に応じた撮影条件で再撮影を行うことができる。これにより、ユーザーが未熟であっても、適切な撮影条件にて自動の再撮影を行うことができ、診断に適切な眼底画像を得ることができる。
The scanning laser light emitted by the
[実施例2]
実施例1では、学習済モデルを用いて再撮影時の撮影条件を出力する眼科装置について説明した。これに対し、本実施例2では、学習済モデルを利用する他の例として、撮影画像から学習済モデルを用いて写損原因を出力する眼科装置について、OCT装置(光干渉断層撮像装置)を例として、図9から図11を用いて説明する。
[Example 2]
In Example 1, an ophthalmic apparatus that outputs imaging conditions at the time of re-imaging using a trained model has been described. On the other hand, in the second embodiment, as another example of using the trained model, an OCT device (optical coherence tomography device) is used for an ophthalmic device that outputs the cause of image loss using the trained model from a captured image. As an example, it will be described with reference to FIGS. 9 to 11.
<装置の光学構成>
本実施例において用いるOCT装置の光学構成について図9を用いて説明する。本実施例で用いるOCT装置は、撮影光学系900、分光器960、制御部980、及び画像表示部である表示モニタ990を備える。なお、撮影光学系900は実施例1において図1に示した撮影光学部C2に対応し、不図示の基台に対して左右方向(X方向)、上下方向(Y方向)、前後方向(Z方向)に移動可能とされている。
<Optical configuration of the device>
The optical configuration of the OCT apparatus used in this embodiment will be described with reference to FIG. The OCT apparatus used in this embodiment includes a photographing
撮影光学系900は、被検眼Eの前眼Eaや、当該被検眼の眼底Erの二次元画像及び断層画像を撮像するための測定光学系で構成される。被検眼Eに対向して対物レンズ901−1が設置されており、その光軸上に設けられた、光路分岐部として機能する第一ダイクロイックミラー902及び第二ダイクロイックミラー903によって光路が分岐される。即ち、被検眼Eからの光路は、これらダイクロイックミラーによって、前眼部観察光路L91、眼底観察光路と固視灯光路との光路L92、及び光路L93(OCT光学系測定光路)に波長帯域毎に分離される。なお、これら光路の分岐の態様、及びダイクロイックミラーの反射方向及び透過方向に配置される構成はここで例示された態様に限られず、公知の種々の態様とすることができる。
The photographing
第一ダイクロイックミラー902の透過方向の前眼部観察光路L91上には、該第一ダイクロイックミラーレンズ941及び前眼観察用の撮像素子942が配置される。第二ダイクロイックミラー903の反射方向の光路L92は、更に第三ダイクロイックミラー918によって眼底観察用のAPD(アバランシェフォトダイオード)915及び固視灯916への光路に波長帯域毎に分岐される。光路L92上には、第二ダイクロイックミラー903から順に、レンズ901−2、走査部、フォーカスレンズ911、レンズ912、及び第三ダイクロイックミラー918が配置される。フォーカスレンズ911は固視灯及び眼底観察用のフォーカス調整のために不図示の駆動用モータによって図中矢印で示す光路方向に駆動される。第三ダイクロイックミラー918の透過方向に配置されるAPD915は、不図示の眼底観察用照明光の波長、具体的には780nm付近に感度を持つ。一方、第三ダイクロイックミラー918の反射方向に配置される固視灯916は、可視光を発生して被検者の固視を促す。
The first
また、光路L92には、不図示の眼底観察用照明光源から発せされた光を被検眼Eの眼底Er上で走査するための走査部として、Xスキャナ917−1及びYスキャナ917−2が配置される。Xスキャナ917−1は測定光の主走査方向の走査に用いられ、Yスキャナ917−2は測定光の主走査方向と交差する副走査方向の走査に用いられる。レンズ901−2は、Xスキャナ917−1及びYスキャナ917−2の中心位置付近を焦点位置として配置される。APD915はシングルディテクターであり、眼底Erから散乱・反射され戻ってきた光を検出する。第三ダイクロイックミラー918は穴あきミラーや、中空のミラーが蒸着されたプリズムであり、照明光と眼底Erからの戻り光を分離する。
Further, in the optical path L92, an X scanner 917-1 and a Y scanner 917-2 are arranged as scanning units for scanning the light emitted from a fundus observation illumination light source (not shown) on the fundus Er of the eye E to be inspected. Will be done. The X scanner 917-1 is used for scanning the main scanning direction of the measurement light, and the Y scanner 917-2 is used for scanning in the sub scanning direction intersecting the main scanning direction of the measurement light. The lens 901-2 is arranged with the vicinity of the center position of the X scanner 917-1 and the Y scanner 917-2 as the focal position. The APD915 is a single detector and detects the light scattered / reflected from the fundus Er and returned. The third
光路L93に配置される光学部材は、OCT光学系を成しており、被検眼の眼底Erの断層画像を撮像するために使用される、具体的には、断層画像を形成するための干渉信号を得るために使用される。光路L93上には、第二ダイクロイックミラー903から順に、レンズ901−3、ミラー921、OCT走査部、OCTフォーカスレンズ923、及びレンズ924が配置される。光を被検眼Eの眼底Er上で走査する走査部は、OCTXスキャナ922−1及びOCTYスキャナ922−2を有する。OCTXスキャナ922−1及びOCTYスキャナ922−2は、当該これらの光路L93上の中心付近がレンズ901−3の焦点位置となるように配置される。更に、当該中心付近と被検眼Eの瞳の位置とは、光学的な共役関係となっている。OCTフォーカスレンズ923は、測定光を眼底Erに合焦させるため、不図示の駆動用モータによって図中矢印で示す光路方向に移動可能とされている。
The optical member arranged in the optical path L93 forms an OCT optical system and is used for capturing a tomographic image of the fundus Er of the eye to be inspected, specifically, an interference signal for forming a tomographic image. Used to obtain. A lens 901-3, a
次に、測定光源930からの光路と参照光学系、分光器960について説明する。測定光源930は、測定光路(光路L93)に入射させる測定光を得るための低コヒーレント光源である。ここで例示するOCT光学系はマイケルソン干渉計を用いており、該干渉計は、測定光源930、光カプラー925、光ファイバー925−1〜4、レンズ951、分散補償用ガラス952、参照ミラー953、及び分光器960を有する。光ファイバー925−1〜4は、光カプラー925に接続されて一体化しているシングルモードの光ファイバーである。
Next, the optical path from the
測定光源930から出射された光は、光ファイバー925−1を通じ、光カプラー925を介して光ファイバー925−2側に導かれる測定光と、光ファイバー925−3側に導かれる参照光とに分割される。測定光はOCT光学系の光路L93を通じ、観察対象である被検眼Eの眼底Erに照射される。網膜による反射・散乱された測定光は、戻り光として同じ光路L93を逆に辿り光カプラー925に到達する。一方、参照光は、光ファイバー925−3、レンズ951、分散補償用ガラス952を介して参照ミラー953に到達し反射される。そして、同じ光路を逆に辿り光カプラー925に到達する。光カプラー925に到達した戻り光と参照光とは、該光カプラー925により合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となった時に干渉を生じる。参照ミラー953は不図示の駆動用モータ等によって図中矢印で示す光軸方向に位置を調整可能であり、光軸方向に移動されることで光路長の調整が可能となる。得られた干渉光は、光ファイバー925−4を介して分光器960に導かれる。
The light emitted from the
分光器960は、レンズ961、回折格子962、レンズ963、及びラインセンサ964を備える。光ファイバー925−4から出射された干渉光は、レンズ961を介して略平行光となった後、回折格子962で分光され、レンズ963によってラインセンサ964に結像される。ラインセンサ964は複数の画素、すなわち受光エレメントが一列に並んだ構成となっており、所定のクロックによって全画素を一括で読み出すことができる。なお、本実施例では干渉計としてマイケルソン干渉計を用いているが、マッハツェンダー干渉計を用いてもよい。
The
次に、本実施例で用いたOCT装置における制御部980の詳細について、図10を参照して説明する。図10は、制御部980の概略構成を示すブロック図である。図10に示すように、制御部980は、駆動制御部1001、表示制御部1002、取得部1010、及び処理部1020を備える。また、制御部980は、OCTフォーカスレンズ923、APD915、固視灯916、表示モニタ990、撮像素子942、走査部(917)、OCT走査部(922)、フォーカスレンズ911、参照ミラー953、及びラインセンサ964等と接続される。
Next, the details of the
駆動制御部1001は、OCTフォーカスレンズ923、APD915、固視灯916、撮像素子942、走査部(917)、OCT走査部(922)、フォーカスレンズ911、参照ミラー953、及びラインセンサ964等の駆動制御を実行する。表示制御部1002は、表示モニタ990に接続されており、表示モニタ990に表示させる画像や例えば該表示モニタ990に表示される指示画面を介して入力されたユーザー指示等を受け付ける。表示モニタ990は、LCDディスプレイ等の任意のディスプレイであり、OCT装置の各駆動部及び制御部980を操作するためのGUIや生成した画像、任意の処理を施した画像、及び患者情報等の各種の情報を表示することができる。
The
また、上述したGUIを表示する場合、制御部980に対しては、更に操作入力部を接続し、該操作入力部を介して該GUIを操作したり、情報を入力したりすることで、これを操作することもできる。操作入力部には、例えば、マウスやタッチパッド、トラックボール、タッチパネルディスプレイ、スタイラスペン等のポインティングデバイス及びキーボード等を用いることができる。なお、タッチパネルディスプレイを用いる場合には、表示モニタ990と操作入力部とを一体的に構成できる。なお、本実施例では、撮影光学系900、分光器960、制御部980、及び表示モニタ990は別々の要素とされているが、これらのうちの一部又は全部を一体的に構成してもよい。
Further, when displaying the GUI described above, an operation input unit is further connected to the
取得部1010は、画像取得部1011、情報取得部1012、及び記憶部1013を有する。画像取得部1011は、APD915、及び後述する画像生成部1023と接続されており、これらから出力される画像信号若しくは画像生成部1023により生成される画像を取得する。情報取得部212は、上述した表示モニタ990を介して入力される情報、或いは被検眼Eに付随して予め記憶部1013に保存されている被検眼情報等を取得する。記憶部1013は、取得部1010が取得した各種画像や情報、更には処理部1020より出力される後述する写損原因や補正値等の出力情報を保存する。処理部1020は、出力部1021、及び画像生成部1023を有する。出力部1021は、例えば後述する学習済モデルを用いて、写損原因を出力し、該写損原因を低減するための補正値等を出力する。画像生成部1023は、例えば画像取得部1011が取得したAPD915やラインセンサ964から取得した信号を用いて眼底画像や断層画像を生成する。生成された画像は、画像取得部1011により記憶部1013に記憶される。
The
なお、制御部980の記憶部1013以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部1013は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。
Each component of the
<SLOフォーカスの概要>
OCT装置では、SLO光学系によりフォーカスの操作を実行し、得られた条件を用いてOCTにおけるフォーカスを行う。ここでは、SLO光学系にて実行されるフォーカスの操作の概要について説明する。制御部980は、撮影光学系900におけるSLO光学系で最適な撮像条件が得られるようにSLO光学系の光学部材を制御する。具体的には、駆動制御部1001により、SLO光学系におけるフォーカスレンズ911のフォーカス制御を行う。
<Overview of SLO Focus>
In the OCT apparatus, the focus operation is executed by the SLO optical system, and the focus in the OCT is performed using the obtained conditions. Here, an outline of the focus operation performed in the SLO optical system will be described. The
駆動制御部1001は、まず、不図示の駆動用モータ等により、フォーカスレンズ911をディオプターの一番低い位置に対応する光軸上の位置に移動させる。次に、制御部980は、フォーカスレンズ911の移動完了に応じて、APD915を介して得られる信号から画像生成部がSLO画像(眼底画像)を生成する。出力部1021は生成されたSLO画像を解析し、当該SLO画像の焦点評価値を算出する。焦点評価値は、例えば生成された画像のコントラストや鮮鋭度に基づいて得られる。ここで、算出された焦点評価が高いほど、被検眼Eの眼底Erに対するSLO光学系のフォーカス状態が良いと判断される。
The
続いて、駆動制御部1001は、フォーカスレンズ911を再度移動させ、SLO光学系における現状のディオプターに対して更に0.125ディオプターを追加する。制御部980は、フォーカスレンズ911の移動の完了に応じて新たなSLO画像を生成し、当該SLO画像の焦点評価値を算出する。現状での焦点評価値が得られると、出力部1021は、現状における焦点評価値と、直前に取得した焦点評価値である前焦点評価値とを比較する。現状での焦点評価値が前焦点評価値より高い場合、現状での焦点評価値を新たな前焦点評価値として更新する。その後、駆動制御部1001は、更に現状のディオプターに所定量(ここでは0.125)のディオプターを追加し、更なるSLO画像の生成、及びその焦点評価値の取得を行い、新たに得た焦点評価値と前焦点評価値の比較を行う。
Subsequently, the
現状での焦点評価値と前焦点評価値の比較において、前焦点評価値の方が高く、焦点評価値が上がらなかったと判断された場合、出力部1021は、前焦点評価値を得たディオプターが最適なフォーカス状態に近いと判断する。このようにして、ディオプターの変更、SLO画像の生成、その焦点評価値の算出、得られた焦点評価値と前焦点評価値の比較、及び比較結果に基づくディオプターの変更を繰り返して最適なフォーカス状態を探す。このような制御を通じてSLO画像の焦点評価値が最高になることで、SLO光学系のフォーカス状態、特にフォーカスレンズ911の位置が最適なフォーカス位置にあると判断できる。
なお、本実施例ではフォーカスレンズ911を移動させる際の所定量を0.125ディオプターとしたが、この値に限らず、その他の移動量としてもよい。また、移動単位はディオプターに限る必要はなく、例えばレンズの移動距離や、レンズを移動させるモータの回転数等でもよい。
In the comparison between the current focus evaluation value and the prefocus evaluation value, if it is determined that the prefocal evaluation value is higher and the focus evaluation value does not increase, the
In this embodiment, the predetermined amount for moving the
<OCT参照ミラーの位置調整の概要>
次に、OCT装置における参照ミラー953の位置調整の概要について説明する。OCT光学系を介して得た干渉光を用いて生成された断層画像は、参照ミラー953により測定光と参照光との光路長差により表示態様が変化する。即ち、参照ミラー953が適切に位置に調整されていない場合、生成される断層画像の中の適当な位置に検査対象部位(所定部位)である例えば網膜等の断層が表示されない場合がある。そのため、駆動制御部1001は、最適なフォーカス状態で得た被検眼Eの断層画像において検査対象部位が適切な位置に表示されるように、撮影光学系900を制御する。具体的には、OCT光学系における参照ミラー953の光軸方向の位置調整を行い、断層画像中での検査対象部位の表示位置の微調整を行う。
<Overview of OCT reference mirror position adjustment>
Next, the outline of the position adjustment of the
駆動制御部1001は、まずOCT光学系の参照光路長が一番長くなるように、不図示の駆動用モータ等を駆動させ、参照ミラー953を移動させる。次に、画像生成部1023は、参照ミラー953の移動完了に応じて、この状態で得られている干渉光を用いて断層画像(OCT画像)を生成する。出力部1021は生成された断層画像を解析し、該断層画像中に例えば網膜等の被検眼Eの検査対象部位が含まれているか否かを出力する。断層画像中に検査対象部位が含まれている場合、駆動制御部1001は、参照ミラー953のこれ以上の調整は不要であるとの判断結果を出力する。
The
断層画像中に検査対象部位が含まれていない場合、駆動制御部1001は、参照光路長が現状より0.125mm短くなるように参照ミラー953を移動させる。画像生成部1023は、参照ミラー953の移動完了に応じて、その状態で得られている干渉信号から新たな断層画像を生成する。出力部1021は、生成された断層画像中に検査対象部位が含まれるか否かを出力し、含まれない場合は駆動制御部1001等による参照ミラー953の移動からの一連の処理を必要に応じて繰り返す。これにより、生成される断層画像中において、検査対象部位が適切な位置に表示されることとなる。
なお、本実施例では参照ミラー953の移動量を0.125mmとしたが、この値に限らず、その他の移動量としてもよい。また、移動単位はmmに限る必要はなく、例えば参照ミラーを移動させるモータの回転数等でもよい。
When the tomographic image does not include the inspection target site, the
In this embodiment, the movement amount of the
<断層画像撮像のシーケンス>
次に、被検眼に対する自動撮影を行う際の基本的な撮影シーケンスを、図11のフローチャートを用いて説明する。ユーザーは、例えば表示モニタ990のGUIを介して、被検者と撮影光学系900との大まかな位置合わせ、及びプレビュー動作の開始の指示をOCT装置に対して行う。その際、被検者に不図示の顎受けに顎を乗せさせ、被検眼のY軸方向の位置が所定の高さになるように不図示の顎受け駆動機構により調整する。ユーザーは、大まかな位置の調整が完了したら、例えばGUIに表示されるプレビュー開始ボタンを押下する。制御部980は、プレビュー開始ボタンが押されたことを検出したら、フローをステップS1101に移行させる。
<Sequence of tomographic image imaging>
Next, a basic imaging sequence for performing automatic imaging of the eye to be inspected will be described with reference to the flowchart of FIG. The user gives an instruction to the OCT apparatus to roughly align the subject and the photographing
ステップS1101では、アライメント操作を実行して被検眼Eの前眼部と撮影光学系900とのアライメントを行う。なお、前眼部に対するアライメント操作の詳細については、実施例1において実行された、図3を参照して説明した操作と同様な操作であることから、ここでの詳述は省略する。制御部980は、アライメントが完了したと判断されると、フローをステップS1102に移行させる。
In step S1101, an alignment operation is executed to align the anterior segment of the eye E to be inspected with the photographing
ステップS1102では、上述したSLO光学系のフォーカス操作を実行して、フォーカス合わせを行う。駆動制御部1001は、フォーカスレンズ911を移動させてディオプターを変更する。画像生成部1023は、APD915が得た信号を用いてSLO画像(眼底画像)を生成する。出力部1021は、生成された眼底画像の焦点評価値の算出し、上述した最適なフォーカス状態を得るための操作を実行する。制御部980は、眼底画像の焦点評価値が最高になり、SLO光学系のフォーカス状態、特にフォーカスレンズ911の光軸上の位置が最適なフォーカス位置にあると判断したら、フローをステップS1103に移行させる。
In step S1102, the focus operation of the SLO optical system described above is executed to perform focusing. The
ステップS1103では、駆動制御部1001は、撮影光学系900におけるOCT光学系で最適な撮像条件が得られるようにOCT光学系の光学部材を制御する。具体的には、OCT光学系におけるOCTフォーカスレンズ923のフォーカス制御を行う。
OCT光学系とSLO光学系とは、フォーカス状態が得られる際の各々のフォーカス用レンズの位置に相関がある。従って、SLO光学系において最適なフォーカス状態が得られたフォーカスレンズ911の光軸上の位置が把握されると、これと関連付けてOCT光学系のOCTフォーカスレンズ923の位置を調整することができる。これにより、OCT光学系においても最適なフォーカス状態が得られる。ステップS1103では、駆動制御部1001は、ステップS1102のSLO光学系のフォーカス処理によって得られたフォーカスレンズ911の光軸上の位置やディオプター値を用いて、OCTフォーカスレンズ923を光軸の対応する位置まで移動させる。制御部980は、当該OCTフォーカスレンズ923の移動が完了したと判断したら、フローをステップS1104に移行させる。
In step S1103, the
The OCT optical system and the SLO optical system have a correlation with the position of each focusing lens when a focused state is obtained. Therefore, once the position on the optical axis of the
ステップS1104では、上述したOCT参照ミラーの位置調整の操作を実行して、断層画像中の検査対象部位の表示位置の調整を行う。駆動制御部1001は、参照ミラー953を光軸方向に移動させる。そして、ラインセンサ964で受光した干渉光から取得部1010により干渉信号を取得し、画像生成部1023により該干渉信号から断層画像を生成する。出力部1021は、生成された断層画像中に検査対象部位が含まれるか否かについての判断結果を出力する。制御部980は、断層像中に検査対象部位が含まれ、これ以上の調整は不要であるとの判断結果が出力された場合、フローをステップS1105に移行させる。
In step S1104, the operation of adjusting the position of the OCT reference mirror described above is executed to adjust the display position of the inspection target portion in the tomographic image. The
ステップS1105では、表示制御部1002の制御によって、図12に例示する画像がプレビューとして表示モニタ990に表示される。プレビューには、前眼画像1201、眼底画像1202、及び断層画像1203が表示される。前眼画像1201は撮像素子942の出力から得られた画像であり、眼底画像1202はAPD915の出力から生成された画像であり、断層画像1203はラインセンサ964の出力から生成された画像である。なお、本実施例では、ステップS1101〜S1104が完了してからプレビュー表示を行っている。しかし、撮像素子942、APD915、及びラインセンサ964はそれぞれ独立して画像取得のための駆動が可能なため、ステップS1101〜S1104中においても生成された画像があればこれらのプレビュー表示を行ってもよい。
In step S1105, the image illustrated in FIG. 12 is displayed as a preview on the display monitor 990 under the control of the
ステップS1106では、出力部1021により、画像生成部1023が生成した眼底画像及び断層画像を入力データとして、学習済モデルを用いて写損原因、及び該写損原因に対応する撮影条件の出力を行う。出力部1021により出力された写損原因が無しの場合は、制御部980はフローをステップS1107に移行させる。ステップS1107では、駆動制御部1001によりプレビュー時の撮影条件にて実際の診断に提供する断層画像の撮影である所謂本撮影を行い、制御部980はフローをステップS1108に移行させる。なお、本撮影では、例えばフォーカスレンズや参照ミラー等に関する条件を変更せず、測定この一走査線での信号取得回数等の条件を変更する。ステップS1108では、制御部980は、撮影により取得した断層画像等を、記憶部1013に保存して終了する。また、ステップS1106で写損原因等が出力された場合、制御部980は、フローをステップS1109に移行させる。
In step S1106, the
例えば、SLO光学系のフォーカス操作の場合、制御部980は、フォーカスレンズ911を移動させてディオプターを変更し、眼底画像を取得し、その焦点評価値の算出を行う。そして、得られた焦点評価値と前焦点評価値の比較と該比較結果に基づくディオプターの変更を繰り返して行うことで、最適なフォーカス状態を探す。しかし、例えば白内障による眼底不明瞭等により鮮明な眼底画像が取得できない場合、フォーカスレンズ911の位置を調整しても一定の焦点評価値を得られない可能性がある。一定の焦点評価値が得られないとSLO光学系のフォーカス操作が終わらず、一定時間経過後に中断となり、ボケの入った眼底画像及び断層画像が取得されることとなる。
For example, in the case of the focus operation of the SLO optical system, the
また、OCT光学系のフォーカス操作では、駆動制御部1001は、ステップS1102で得られたフォーカスレンズ911の位置やディオプター値を用いて、OCTフォーカスレンズ923を光軸上の対応する位置まで移動させる。そのため、SLO光学系のフォーカス操作でフォーカスレンズ911を適切な位置に移動させることができない場合、OCTフォーカスレンズ923も適切な位置に移動させることができなくなる。
Further, in the focus operation of the OCT optical system, the
例えば、OCT参照ミラーの位置調整の場合、制御部980は、参照ミラー953を移動させ、断層画像を取得し、当該断層画像中の適切な位置に検査対象部位が配置されるか否かを判断する。しかし、参照ミラー953による参照光の光路長調整が不十分である場合や、眼底の湾曲が大きく測定光の光路長が場所によって大きく異なる場合、断層画像に折り返しが入る可能性がある。断層画像に折り返しが入ると網膜の構造が不明瞭となり、検査精度が低下する。
For example, in the case of adjusting the position of the OCT reference mirror, the
このように、通常の制御では、フォーカスレンズの位置を定めることができない場合や、参照ミラーの位置調整ができない場合では、写損画像を学習済モデルに入力したとしても適切な撮影条件を得ることができない。このような場合、学習済モデルに入力するデータに、SLO光学系のフォーカス操作が未達であること、或いは眼底の湾曲が大きい等の被検眼の構造に関する情報も加えることができる。このような場合への対応として、用いる学習済モデルでは、これらのデータも参照して該学習済モデルでは適当な撮影条件を出力できないことを出力するとよい。従って、ステップS1106で写損原因が出力された場合、表示制御部1002は、表示モニタ990に、写損原因に対応できない写損であることも加えて、出力された写損原因を表示させるとよい。また、その際に、再撮影時に制御される撮影条件、若しくは撮影条件の補正値も併せて表示させることにより、以降のステップS1109でのユーザーの選択時の参照とする情報を増やすことができる。
In this way, if the position of the focus lens cannot be determined or the position of the reference mirror cannot be adjusted with normal control, appropriate shooting conditions can be obtained even if the lost image is input to the trained model. I can't. In such a case, information on the structure of the eye to be inspected, such as the fact that the focus operation of the SLO optical system has not been achieved or the curvature of the fundus is large, can be added to the data input to the trained model. As a response to such a case, it is preferable that the trained model to be used also refers to these data and outputs that the trained model cannot output appropriate shooting conditions. Therefore, when the cause of the image loss is output in step S1106, the
ステップS1109では、制御部980は、手動操作が選択されたと判断したら、フローをステップS1110に移行させ、撮影条件の制御を自動制御から手動制御に変更させる。ユーザーは、上述した表示モニタ990のGUIや不図示のその他の各種入力手段を用いて撮影光学系900の各構成を駆動する。そして、制御部980は、手動制御後の条件で得られた断層画像をプレビュー表示させるために、フローをステップS1105に移行させる。
In step S1109, when the
ステップS1109において、制御部980は、自動操作が選択されたと判断したら、フローをステップS1111に移行させる。ステップS1111では、出力部1021が出力した、出力した写損条件に対応する撮影条件により眼底画像の再撮影を行うために、制御部980は、自動的に撮影光学部700等を駆動させる。そして、制御部980は、自動制御後の条件で得られた断層画像をプレビュー表示させるために、フローをステップS1105に移行させる。
In step S1109, when the
断層画像やフォーカス条件を得るために用いる眼底画像に対する上述したような写損原因の適切な判断は、見識のあるユーザーによる必要がある。しかしながら常に見識のあるユーザーが眼科装置の操作を行うとは限らない。本実施例によれば、プレビュー画像から学習済モデルを用いて写損原因やこれに対処するための補正値を適切に出力することができる。従って、問題となる写損を低減して再撮影が行えるように、適切な撮影条件を得るための制御を自動ですることが可能となる。
なお、本実施例では、制御部980は、ステップS1105におけるプレビュー表示後に該プレビューで表示した画像を用いて写損判断を行っている。しかし、ステップS1107における所謂本撮影後に、得られた本撮影の断層画像を用いて写損判断を行ってもよい。また、ステップS1109における手動選択を行うかどうかについて、事前に選択させてもよい。
Appropriate determination of the cause of image loss as described above for the tomographic image and the fundus image used to obtain the focus condition needs to be made by an knowledgeable user. However, a knowledgeable user does not always operate the ophthalmic device. According to this embodiment, it is possible to appropriately output the cause of the copying loss and the correction value for dealing with the cause of the copying loss from the preview image using the trained model. Therefore, it is possible to automatically control for obtaining appropriate shooting conditions so that the problematic shooting loss can be reduced and re-shooting can be performed.
In this embodiment, the
<学習済モデルの生成>
次に、本実施例に係る学習済モデルの生成について説明する。なお、実施例1でも説明したように、本実施例における学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な学習データを用いてトレーニングしたモデルである。
<Generation of trained model>
Next, the generation of the trained model according to this embodiment will be described. As described in Example 1, the trained model in this example is a machine learning model that follows an arbitrary machine learning algorithm such as deep learning, and is trained using appropriate learning data in advance. It is a model that was done.
以下、本実施例に係る学習済モデルを得る際のトレーニングに用いる学習データについて説明する。
本実施例では、学習データの入力データとして、眼底画像及び断層画像を用いる。更に、この入力データには、上述したディオプターも含めることができる。そして、学習データの出力データとして、写損原因と該写損原因に対応する撮影条件或いは該撮影条件の補正値を用いる。学習データの作成方法は上述した実施例1における学習データの作成方法と基本的に同様である。
Hereinafter, the learning data used for training when obtaining the trained model according to this embodiment will be described.
In this embodiment, a fundus image and a tomographic image are used as input data for the learning data. Further, the input data may include the diopter described above. Then, as the output data of the learning data, the cause of the photo loss and the shooting conditions corresponding to the cause of the photo loss or the correction value of the shooting conditions are used. The method of creating the learning data is basically the same as the method of creating the learning data in the above-described first embodiment.
例えば、フォーカスレンズ911の光軸上の位置を一定量だけ眼底Erに対して近づけて或いは遠ざけて眼底画像を撮影する。これより、学習データの入力データとして、写損の一態様であるピンボケを有した眼底画像が得られる。眼底画像はピンボケの態様により、このピンボケがフォーカスレンズ911が眼底Erに近すぎることによるものか遠すぎることによるものであるかの判別ができる。より詳細には、フォーカスレンズ911が眼底Erに近い場合には、得られた眼底画像は、焦点位置となる箇所は暗くなるが、逆に周囲は少し明るくなり、その分だけ可視領域が広がる。更にフォーカスレンズ911が眼底Erに近づくと焦点位置だった箇所から暗くなり、最終的には周辺だけが見える領域として残る。また、フォーカスレンズ911が眼底Erに遠い場合には、得られた眼底画像は全体的に暗くなる。しかし、周辺も暗くなるため、可視領域は広がらない。更にフォーカスレンズ911が眼底Erから遠ざかると周りから暗くなり、最終的には焦点位置だけが見える領域として残る。このため、眼底画像Erの明暗の分布から、フォーカスレンズ911が眼底Erに近いためにピンボケとなっているか、遠いためにピンボケとなっているかを知ることができる。
For example, the fundus image is taken by moving the position of the
以上より、これら眼底画像に対応するフォーカスレンズのフォーカス位置からのずれ量(補正値)を出力データとすることで、この写損原因とその補正値を出力する学習済モデルが得られる。また、同様の態様の写損画像として、例えば網膜の深さ方向のフォーカス位置が所定位置にない断層画像も入力データとすることができる。このような断層画像についても、眼底画像と同様の学習データを用いることで、ピンボケに対応できる学習済モデルを得ることができる。 From the above, by using the amount of deviation (correction value) from the focus position of the focus lens corresponding to these fundus images as the output data, it is possible to obtain a learned model that outputs the cause of this copying loss and the correction value. Further, as a loss image of the same aspect, for example, a tomographic image in which the focus position in the depth direction of the retina is not at a predetermined position can be used as input data. For such a tomographic image, a trained model that can deal with out-of-focus can be obtained by using the same training data as the fundus image.
また、例えば、参照ミラー953の光軸上の位置を、参照光の光路長が所定の光路長となる所望の位置から、光路長を短くして或いは長くして断層画像を撮影する。これにより、写損の一態様である検査対象部位が断層画像中の所望の位置からずれた断層画像が得られる。断層画像中の検査対象部位の上下方向の位置は、参照光の光路長の長短と対応づけることができることから、撮影された断層画像から参照光の光路長をどのように変化させればよいかが判別できる。また、これら断層画像に対する参照ミラーの光軸上の位置の所定位置からのずれ量(補正値)を出力データとすることで、この写損原因とその補正値を出力する学習済モデルが得られる。
Further, for example, a tomographic image is taken by shortening or lengthening the optical path length of the
また、本実施例における学習済モデルは、写損無しという出力も出力可能である。そのため、適切な位置から移動させずに撮影した画像とその写損原因(写損無し)も学習データペアとして用いる。当該学習データペアを用いてトレーニングすることにより、学習精度を上げることができる。また、実施例1でも説明したように、例えば疾患眼における学習データは上述した態様では作成することができない。そのため、疾患眼を撮影した眼画像と、その時の写損原因を、学習データペアとして用いるとよい。なお、上述した写損原因は例示であり、その他の、露光不足等の公知の種々の写損原因とその補正値についても、同様に写損を有する画像を生成し、これらを入力データとして用いることでこの写損原因に対応した学習済モデルを得ることができる。 In addition, the trained model in this embodiment can output an output that there is no copying loss. Therefore, the image taken without moving from an appropriate position and the cause of the copying loss (no copying loss) are also used as the learning data pair. By training using the learning data pair, the learning accuracy can be improved. Further, as described in Example 1, for example, learning data in a diseased eye cannot be created in the above-described manner. Therefore, it is advisable to use the eye image obtained by photographing the diseased eye and the cause of the image loss at that time as a learning data pair. It should be noted that the above-mentioned causes of image loss are examples, and for other known causes of image loss such as underexposure and their correction values, images having image loss are similarly generated and used as input data. Therefore, a trained model corresponding to the cause of this copying loss can be obtained.
なお、入力データの数は1つ以上であればよく、適宜選択可能である。例えば、学習データの入力データとして焦点評価値等を追加することもできる。また、画像毎に、例えば前眼画像、眼底画像、断層画像毎に適用可能な学習済モデルや、その他のディオプター等の追加するデータに応じた学習済モデルを予め用意しておいてもよい。この場合、学習済モデルに入力するデータに応じて、適切な学習済モデルが選択されるとよい。また、上述した変形例1でも述べたように、まず取得した画像から写損原因のみを出力する学習済モデルを用いて写損原因の判別を行い、該写損原因と取得した画像とから撮影条件或いは補正値を出力する学習済モデルを用いる態様とすることもできる。 The number of input data may be one or more, and can be appropriately selected. For example, a focus evaluation value or the like can be added as input data for learning data. Further, a trained model applicable to each image, for example, an anterior eye image, a fundus image, and a tomographic image, or a trained model corresponding to additional data such as other diopters may be prepared in advance. In this case, it is preferable that an appropriate trained model is selected according to the data to be input to the trained model. Further, as described in the above-described modification 1, first, the cause of the photo loss is determined using a learned model that outputs only the cause of the photo loss from the acquired image, and the image is photographed from the cause of the photo loss and the acquired image. It is also possible to use a trained model that outputs a condition or a correction value.
更に、学習済モデルは、事前にOCT装置を用いて学習させたものをそのまま用いてもよいし、使用しながら学習済モデルの更新(追加学習)をしてもよい。具体的には、写損と判断された撮影画像を学習データの入力データ、その時の写損原因と撮影条件とを学習データの出力データとする。そして、当該学習データペアを用いて追加学習を行う。また、追加学習は被検者毎に行ってもよく、その場合、当該被検者用の学習済モデルが生成される。なお、本実施例における機械学習モデルであるCNNについは、実施例1及び図6で説明している内容と同様であるためここでの説明を割愛する。本実施例では、前述した学習データによってトレーニングされた学習済モデルに撮影画像を入力すると、写損原因と該写損原因を低減して再撮影を行うための撮影条件とが出力される。 Further, as the trained model, the one trained in advance using the OCT device may be used as it is, or the trained model may be updated (additional learning) while using it. Specifically, the captured image determined to be a copying loss is used as the input data of the learning data, and the cause of the copying loss and the shooting conditions at that time are used as the output data of the learning data. Then, additional learning is performed using the learning data pair. Further, additional learning may be performed for each subject, in which case a trained model for the subject is generated. The CNN, which is a machine learning model in this embodiment, is the same as the contents described in Examples 1 and 6, and thus the description thereof is omitted here. In this embodiment, when a captured image is input to the trained model trained by the training data described above, the cause of the copying loss and the shooting conditions for reducing the cause of the shooting loss and performing re-shooting are output.
上述した実施例2では、写損原因として、断層画像中の検査対象部位の配置のずれについて述べた。本実施例2では、撮影光学部は、測定光源930からの光を分割して得た測定光が照射された被検眼Eからの戻り光と、測定光源930からの光を分割して得た参照光とを干渉させる干渉光学系を有する。この場合の参照光は、測定光に対応する。写損原因が検査対象部位の配置のずれであると判定された場合、この配置のずれは、例えば参照光の光路長と測定光の光路長との光路長差に起因する。このことから、再撮影時にはこの光路長差が調整される。具体的には、出力部1021は、補正値(制御値)として、光路長差を、最初の撮影時の光路長差(第一の差)から再撮影時の光路長差(第二の差)とする変更量を出力する。より具体的には、参照ミラー953の光路上の位置の変更量が出力される。なお、実施例2では参照ミラー953を移動させて参照光の光路長を変更したが、測定光の光路長を変更することで光路長差を変更してもよい。なお、光路長差を変更する際に、光路長差を大きくすべきか小さくすべきかについては、撮影された被検眼Eの断層画像における検査対象部位の配置(画像中の上側によっているか下側によっているか)によって判定できる。これにより、出力部1021は、差の変更量の正負を出力することができる。
In Example 2 described above, the misalignment of the inspection target site in the tomographic image was described as the cause of the copying loss. In the second embodiment, the photographing optical unit is obtained by dividing the return light from the eye E to be irradiated and the light from the
[変形例4]
上述した実施例2では、眼底を撮影する構成としてSLO光学系を用いた場合について説明した。しかし、眼底を撮影する構成は例示した態様に限られず、眼底をカラー撮影することができる。例えば、実施例2で述べたSLO光学系に換えて、上述した変形例2で述べたカラーSLOを用いてもよい。この場合、図9の光路L92において、例示したSLO光学系の諸構成に換えて、例えば図7に示したカラーSLO701を配置することができる。また、カラーSLO701における対物光学系を上述した実施例3でも述べたような反射光学系により構成し、該カラーSLOを例えば図8に示した超広画角SLO800とすることもできる。また、上述した実施例2におけるSLO光学系に換えて、上述した実施例1で述べたような図2(a)の眼底カメラCの光学構成を採用することも可能である。
[Modification example 4]
In Example 2 described above, the case where the SLO optical system is used as the configuration for photographing the fundus of the eye has been described. However, the configuration for photographing the fundus is not limited to the illustrated embodiment, and the fundus can be photographed in color. For example, the color SLO described in the above-described modification 2 may be used instead of the SLO optical system described in the second embodiment. In this case, in the optical path L92 of FIG. 9, for example, the color SLO701 shown in FIG. 7 can be arranged instead of the various configurations of the illustrated SLO optical system. Further, the objective optical system in the
以上に述べた実施例によれば、学習済モデルを用いて写損時の適切な補正値を出力することが可能である。また、以上に述べた実施例によれば、学習済モデルを用いて適切な写損原因を出力することが可能である。従って、再撮影時の写損の発生率を低減することができ、惹いては、被検者及びユーザーの負担を軽減することもできる。 According to the above-described embodiment, it is possible to output an appropriate correction value at the time of copying loss using the trained model. Further, according to the above-described embodiment, it is possible to output an appropriate cause of copying loss by using the trained model. Therefore, it is possible to reduce the occurrence rate of photo loss at the time of re-shooting, and it is also possible to reduce the burden on the subject and the user.
なお、本発明は、以上に述べた実施例で例示した眼科装置に限定されるものではない。例えば、眼圧測定装置、眼屈折測定装置、眼底カメラ、OCT装置等、眼科分野において使用可能な任意の機能を有する装置に対して、本発明を適用することができる。 The present invention is not limited to the ophthalmic apparatus exemplified in the above-described examples. For example, the present invention can be applied to devices having arbitrary functions that can be used in the field of ophthalmology, such as an intraocular pressure measuring device, an ocular refraction measuring device, a fundus camera, and an OCT device.
[変形例5]
上述した様々な実施例及び変形例では、OCT装置として、SLDを光源として用いたスペクトラルドメインOCT(SD−OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS−OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine−OCT装置(或いはSS−Line−OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field−OCT装置(或いはSS−Full Field−OCT装置)にも本発明を適用することもできる。
[Modification 5]
In the various examples and modifications described above, the spectral domain OCT (SD-OCT) device using the SLD as the light source has been described as the OCT device, but the configuration of the OCT device according to the present invention is not limited to this. For example, the present invention can be applied to any other type of OCT device such as a wavelength sweep type OCT (SS-OCT) device using a wavelength sweep light source capable of sweeping the wavelength of emitted light. The present invention can also be applied to a Line-OCT device (or SS-Line-OCT device) using line light. The present invention can also be applied to a Full Field-OCT device (or SS-Full Field-OCT device) using area light.
上述した様々な実施例及び変形例では、分割手段としてカプラーを使用した光ファイバー光学系を用いているが、コリメータとビームスプリッタを使用した空間光学系を用いてもよい。また、撮影光学系900の構成は、上記の構成に限られず、撮影光学系900に含まれる構成の一部を撮影光学系900と別体の構成としてもよい。
In the various examples and modifications described above, an optical fiber optical system using a coupler is used as the dividing means, but a spatial optical system using a collimator and a beam splitter may be used. Further, the configuration of the photographing
また、上述した様々な実施例及び変形例では、取得部1010は、撮影光学系900で取得された干渉信号や画像生成部1023で生成された断層画像等を取得した。しかしながら、取得部1010がこれらの信号や画像を取得する構成はこれに限られない。例えば、取得部1010は、制御部980とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号を取得してもよい。
Further, in the various examples and modifications described above, the
また、各種学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 Further, the training data of various trained models is not limited to the data obtained by using the ophthalmologic device itself that actually performs the imaging, and the data obtained by using the same type of ophthalmic device or the same type according to the desired configuration. It may be data obtained by using an ophthalmic apparatus or the like.
なお、上述した様々な実施例及び変形例では、被検眼の眼底部分に関する断層画像について説明したが、被検眼の前眼部に関する断層画像について上記画像処理を行ってもよい。この場合、断層画像において異なる画像処理が施されるべき領域には、水晶体、角膜、虹彩、及び前眼房等の領域が含まれる。なお、当該領域に前眼部の他の領域が含まれてもよい。また、眼底部分に関する断層画像についての領域は、硝子体部、網膜部、及び脈絡膜部に限られず、眼底部分に関する他の領域を含んでもよい。ここで、眼底部分に関する断層画像については、前眼部に関する断層画像よりも階調が広くなるため、上記実施例及び変形例に係る画像処理による高画質化がより効果的に行われることができる。 In the various examples and modifications described above, the tomographic image relating to the fundus portion of the eye to be inspected has been described, but the above image processing may be performed on the tomographic image relating to the anterior segment of the eye to be inspected. In this case, the regions to be subjected to different image processing in the tomographic image include regions such as the crystalline lens, cornea, iris, and anterior chamber of eye. The region may include another region of the anterior segment of the eye. Further, the region of the tomographic image relating to the fundus portion is not limited to the vitreous portion, the retinal portion, and the choroidal portion, and may include other regions relating to the fundus portion. Here, since the tomographic image relating to the fundus portion has a wider gradation than the tomographic image relating to the anterior segment portion, it is possible to more effectively improve the image quality by the image processing according to the above-described embodiment and the modified example. ..
また、上述した様々な実施例及び変形例では、被検体として被検眼を例に説明したが、被検体はこれに限定されない。例えば、被検体は皮膚や他の臓器等でもよい。この場合、上記実施例及び変形例に係るOCT装置は、眼科装置以外に、内視鏡等の医療機器に適用することができる。 Further, in the various examples and modifications described above, the subject to be examined has been described as an example, but the subject is not limited thereto. For example, the subject may be skin, other organs, or the like. In this case, the OCT device according to the above embodiment and the modified example can be applied to a medical device such as an endoscope in addition to the ophthalmic device.
[変形例6]
また、上述した様々な実施例及び変形例による画像処理装置又は画像処理方法によって処理される画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された医用画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や、上記実施例及び変形例による画像処理装置又は画像処理方法によって作成された眼底画像や断層画像等の画像を含むことができる。
[Modification 6]
Further, the image processed by the image processing apparatus or the image processing method according to the various examples and modifications described above includes a medical image acquired by using an arbitrary modality (imaging apparatus, imaging method). The medical image to be processed may include a medical image acquired by an arbitrary imaging device or the like, an image processing device according to the above examples and modifications, or an image such as a fundus image or a tomographic image created by an image processing method. it can.
更に、処理される医用画像は、被検者(被検体)の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。更に医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。 Further, the medical image to be processed is an image of a predetermined part of the subject (subject), and the image of the predetermined part includes at least a part of the predetermined part of the subject. In addition, the medical image may include other parts of the subject. Further, the medical image may be a still image or a moving image, and may be a black-and-white image or a color image. Further, the medical image may be an image showing the structure (morphology) of a predetermined part or an image showing the function thereof. The image showing the function includes, for example, an OCTA image, a Doppler OCT image, an fMRI image, and an image showing blood flow dynamics (blood flow volume, blood flow velocity, etc.) such as an ultrasonic Doppler image. The predetermined part of the subject may be determined according to the subject to be imaged, and the human eye (eye to be examined), brain, lung, intestine, heart, pancreas, kidney, liver and other organs, head, chest, etc. Includes any part such as legs and arms.
また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底正面画像や、前眼部の正面画像、蛍光撮影された眼底画像、OCTで取得したデータ(三次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn−Face画像を含む。En−Face画像は、三次元のOCTAデータ(三次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn−Face画像(モーションコントラスト正面画像)でもよい。また、三次元のOCTデータや三次元のモーションコントラストデータは、三次元の医用画像データの一例である。 Further, the medical image may be a tomographic image of the subject or a frontal image. The frontal image is, for example, a frontal image of the fundus, a frontal image of the anterior segment of the eye, a fundus image photographed by fluorescence, and data acquired by OCT (three-dimensional OCT data) in at least a part range in the depth direction of the imaged object. Includes En-Face images generated using the data from. The En-Face image is an OCTA En-Face image (motion contrast front image) generated by using at least a part of the data in the depth direction of the shooting target for the three-dimensional OCTA data (three-dimensional motion contrast data). ) May be. Further, three-dimensional OCT data and three-dimensional motion contrast data are examples of three-dimensional medical image data.
ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn−Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。 Here, the motion contrast data is data indicating a change between a plurality of volume data obtained by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data showing changes between a plurality of tomographic images obtained at substantially the same position at different positions. The motion contrast frontal image is also referred to as an OCTA frontal image (OCTA En-Face image) relating to OCTA angiography (OCTA) for measuring the movement of blood flow, and the motion contrast data is also referred to as OCTA data. The motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a maximum value divided by a minimum value (maximum value / minimum value) between two tomographic images or corresponding interference signals. , It may be obtained by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected.
また、En−Face画像は、例えば、2つの層境界の間の範囲のデータをXY方向に投影して生成した正面画像である。このとき、正面画像は、光干渉を用いて得たボリュームデータ(三次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影又は積算して生成される。En−Face画像は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲に対応するデータを二次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を二次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 The En-Face image is, for example, a front image generated by projecting data in the range between two layer boundaries in the XY directions. At this time, the front image is at least a part of the depth range of the volume data (three-dimensional tomographic image) obtained by using optical interference, and is the data corresponding to the depth range determined based on the two reference planes. Is projected or integrated on a two-dimensional plane. The En-Face image is a frontal image generated by projecting the data corresponding to the depth range determined based on the detected retinal layer of the volume data onto a two-dimensional plane. As a method of projecting data corresponding to a depth range determined based on two reference planes on a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. Techniques can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Further, the depth range related to the En-Face image is, for example, a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries relating to the detected retinal layer. May be good. Further, the depth range related to the En-Face image may be, for example, a range changed (offset) according to an operator's instruction from a range between two layer boundaries related to the detected retinal layer. Good.
また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、上述した様々な実施例及び変形例に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。 The imaging device is a device for capturing an image used for diagnosis. The photographing device detects, for example, a device that obtains an image of a predetermined part by irradiating a predetermined part of the subject with radiation such as light or X-rays, electromagnetic waves, ultrasonic waves, or the like, or radiation emitted from the subject. This includes a device for obtaining an image of a predetermined part. More specifically, the imaging devices according to the various examples and modifications described above include at least an X-ray imaging device, a CT device, an MRI device, a PET device, a SPECT device, an SLO device, an OCT device, an OCTA device, and a fundus. Includes cameras, endoscopes, etc.
なお、OCT装置としては、タイムドメインOCT(TD−OCT)装置やフーリエドメインOCT(FD−OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD−OCT)装置や波長掃引型OCT(SS−OCT)装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS−SLO)装置や偏光OCT(PS−OCT)装置等を含んでよい。 The OCT apparatus may include a time domain OCT (TD-OCT) apparatus and a Fourier domain OCT (FD-OCT) apparatus. Further, the Fourier domain OCT apparatus may include a spectral domain OCT (SD-OCT) apparatus and a wavelength sweep type OCT (SS-OCT) apparatus. Further, the SLO device and the OCT device may include a wave surface compensation SLO (AO-SLO) device using a wave surface compensation optical system, a wave surface compensation OCT (AO-OCT) device, and the like. Further, the SLO device and the OCT device may include a polarized SLO (PS-SLO) device, a polarized OCT (PS-OCT) device, and the like for visualizing information on polarization phase difference and polarization elimination.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。該コンピュータは、1又は複数のプロセッサー又は回路を有し、コンピュータが実行可能命令を読み出して実行するために、分離した複数のコンピュータまたは分離した複数のプロセッサーまたは回路のネットワークを含みうる。プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention can also be realized by supplying a program that realizes one or more functions of the above-described embodiment to a system or device via a network or a storage medium, and a process in which a computer of the system or device reads and executes the program. is there. The computer may have one or more processors or circuits and may include a plurality of separate computers or a network of separate processors or circuits for the computers to read and execute executable instructions. The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU). It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
C2,900:撮影光学系、 18,980:制御部、 201,1001:駆動制御部、 202,1002:表示制御部、 210,1010:取得部、 220,1020:制御部、 221,1021:出力部、 222:選択部、 1023:画像生成部 C2,900: Imaging optical system, 18,980: Control unit, 201,1001: Drive control unit, 202,1002: Display control unit, 210,1010: Acquisition unit, 220,1020: Control unit, 221,1021: Output Unit, 222: Selection unit, 1023: Image generation unit
Claims (24)
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、
前記撮影光学部により被検体を撮影して得た医用画像から、学習済モデルを用いて、前記撮影して得た医用画像における写損に関する情報を出力する出力手段と、
を備えることを特徴とする撮影装置。 The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A control means for controlling the first drive means and the second drive means,
An output means for outputting information on copying loss in the medical image obtained by photographing the subject using the trained model from the medical image obtained by photographing the subject by the photographing optical unit.
A photographing device characterized by being provided with.
前記出力手段は、前記学習済モデルを用いて得た前記複数の写損に関する情報に対応する複数の値を用いて、前記写損に関する情報を出力することを特徴とする請求項3に記載の撮影装置。 The output data is any one of a plurality of information regarding copying loss, and is
The third aspect of claim 3, wherein the output means outputs information on the copying loss by using a plurality of values corresponding to the information on the plurality of copying loss obtained by using the trained model. Shooting device.
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、
前記撮影光学部により被検体を撮影して得た医用画像における写損に関する情報を入力する入力手段と、
前記撮影して得た医用画像から、複数の写損の原因に対応する複数の学習済モデルのうち前記入力された写損に関する情報に対応する学習済モデルを用いて、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を出力する出力手段と、
を備えることを特徴とする撮影装置。 The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A control means for controlling the first drive means and the second drive means,
An input means for inputting information on copying loss in a medical image obtained by photographing a subject by the photographing optical unit, and an input means.
From the medical image obtained by taking the picture, the image was taken using the learned model corresponding to the input information about the picture loss among a plurality of learned models corresponding to the causes of the picture loss. An output means that outputs a control value of at least one of the first driving means and the second driving means for acquiring a medical image with reduced copying loss in the medical image, and an output means.
A photographing device characterized by being provided with.
前記出力手段は、前記入力された写損に関する情報に対応する学習済モデルを用いて得た前記複数の制御値に対応する複数の値を用いて、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を出力することを特徴とする請求項7に記載の撮影装置。 The output data is one of a plurality of control values, and is
The output means uses a plurality of values corresponding to the plurality of control values obtained by using the trained model corresponding to the input information regarding the copying loss, and the copying loss in the medical image obtained by photographing the image. The imaging apparatus according to claim 7, wherein a control value of at least one of the first driving means and the second driving means for acquiring a medical image in which is reduced is output.
前記撮影して得た医用画像における写損の原因が前記合焦部材の前記光路上の位置に関係する場合、前記出力手段は、前記制御値として、前記第二の駆動手段が前記合焦部材を前記光路上の第一の位置から第二の位置へ移動させる移動量を出力することを特徴とする請求項5乃至11の何れか1項に記載の撮影装置。 The optical member has a focusing member arranged on the optical path in the photographing optical unit.
When the cause of the copying loss in the medical image obtained by the imaging is related to the position of the focusing member on the optical path, the output means has the control value, and the second driving means has the focusing member. The photographing apparatus according to any one of claims 5 to 11, wherein the moving amount for moving the image from the first position to the second position on the optical path is output.
前記撮影して得た医用画像における写損の原因が前記測定光の光路長と前記参照光の光路長との光路長差に関係する場合、前記出力手段は、前記制御値として、前記第二の駆動手段が前記光路長差を第一の差から前第二の差に変える際の、前記光路長差の変更量を出力することを特徴とする請求項5乃至14の何れか1項に記載の撮影装置。 The photographing optical unit is the return light from the subject irradiated with the measurement light obtained by dividing the light from the light source and the reference light obtained by dividing the light from the light source. Has an interfering optical system that interferes with the reference light corresponding to
When the cause of the image loss in the medical image obtained by the imaging is related to the optical path length difference between the optical path length of the measurement light and the optical path length of the reference light, the output means uses the second control value as the control value. The method according to any one of claims 5 to 14, wherein when the driving means of the above changes the optical path length difference from the first difference to the front second difference, the change amount of the optical path length difference is output. The imaging device described.
前記撮影光学部により前記被検体を再撮影する際に、前記制御手段は、前記保存された制御値を用いて、前記第一の駆動手段及び前記第二の駆動手段を制御することを特徴とする請求項5乃至16の何れか1項に記載の撮影装置。 Further provided with a storage means for storing the output control value,
When the subject is re-photographed by the photographing optical unit, the control means controls the first driving means and the second driving means by using the stored control value. The photographing apparatus according to any one of claims 5 to 16.
前記写損に関する情報は、アライメント不良と、フォーカス不良と、露光不足と、疾病に伴う不明瞭と、前記被検眼の瞬きと、の少なくとも何れかを含むことを特徴とする請求項1乃至20の何れか1項に記載の撮影装置。 The subject is an eye to be inspected and
The information regarding the image loss includes at least one of misalignment, poor focus, underexposure, ambiguity associated with a disease, and blinking of the eye to be inspected. The photographing apparatus according to any one item.
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、を備える撮影装置の制御方法であって、
前記撮影光学部により被検体を撮影して得た医用画像から、学習済モデルを用いて、前記撮影して得た医用画像における写損に関する情報を出力する工程を含むことを特徴とする撮影装置の制御方法。 The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A method for controlling an imaging device including the first driving means and the controlling means for controlling the second driving means.
A photographing apparatus including a step of outputting information on copying loss in the photographed medical image by using a learned model from a medical image obtained by photographing the subject by the photographing optical unit. Control method.
前記撮影光学部に含まれる光学部材を駆動する第二の駆動手段と、
前記第一の駆動手段及び前記第二の駆動手段を制御する制御手段と、を備える撮影装置の制御方法であって、
前記撮影光学部により被検体を撮影して得た医用画像における写損に関する情報を入力する工程と、
前記撮影された被検体の医用画像とから、複数の写損の原因に対応する複数の学習済モデルのうち前記入力された写損に関する情報に対応する学習済モデルを用いて、前記撮影して得た医用画像における写損が低減された医用画像を取得するための前記第一の駆動手段と前記第二の駆動手段との少なくとも何れかの制御値を出力する工程を含むことを特徴とする撮影装置の制御方法。 The first driving means for driving the photographing optical unit for photographing the subject,
A second driving means for driving the optical member included in the photographing optical unit, and
A method for controlling an imaging device including the first driving means and the controlling means for controlling the second driving means.
A step of inputting information on copying loss in a medical image obtained by photographing a subject by the photographing optical unit, and
From the medical image of the photographed subject, the image was taken using the trained model corresponding to the input information on the image loss among the plurality of learned models corresponding to the causes of the plurality of image loss. It is characterized by including a step of outputting at least one control value of the first driving means and the second driving means for acquiring a medical image with reduced copying loss in the obtained medical image. How to control the imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019199453A JP7314020B2 (en) | 2019-10-31 | 2019-10-31 | Imaging device, imaging device control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019199453A JP7314020B2 (en) | 2019-10-31 | 2019-10-31 | Imaging device, imaging device control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021069818A true JP2021069818A (en) | 2021-05-06 |
JP7314020B2 JP7314020B2 (en) | 2023-07-25 |
Family
ID=75711971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019199453A Active JP7314020B2 (en) | 2019-10-31 | 2019-10-31 | Imaging device, imaging device control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7314020B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016077337A (en) * | 2014-10-10 | 2016-05-16 | キヤノン株式会社 | Ophthalmologic apparatus and control method for ophthalmologic apparatus |
JP2018130206A (en) * | 2017-02-14 | 2018-08-23 | 株式会社トプコン | Ophthalmologic apparatus |
JP2019054992A (en) * | 2017-09-21 | 2019-04-11 | 株式会社トプコン | Ophthalmologic device and program |
JP2020103433A (en) * | 2018-12-26 | 2020-07-09 | 株式会社トプコン | Ophthalmologic information processing apparatus, ophthalmologic imaging apparatus, ophthalmologic information processing method, and program |
-
2019
- 2019-10-31 JP JP2019199453A patent/JP7314020B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016077337A (en) * | 2014-10-10 | 2016-05-16 | キヤノン株式会社 | Ophthalmologic apparatus and control method for ophthalmologic apparatus |
JP2018130206A (en) * | 2017-02-14 | 2018-08-23 | 株式会社トプコン | Ophthalmologic apparatus |
JP2019054992A (en) * | 2017-09-21 | 2019-04-11 | 株式会社トプコン | Ophthalmologic device and program |
JP2020103433A (en) * | 2018-12-26 | 2020-07-09 | 株式会社トプコン | Ophthalmologic information processing apparatus, ophthalmologic imaging apparatus, ophthalmologic information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7314020B2 (en) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7980697B2 (en) | Fundus oculi observation device and ophthalmic image display device | |
JP6367563B2 (en) | Ophthalmic equipment | |
US10561311B2 (en) | Ophthalmic imaging apparatus and ophthalmic information processing apparatus | |
JP6899632B2 (en) | Ophthalmologic imaging equipment | |
WO2021029231A1 (en) | Ophthalmic device, method for controlling ophthalmic device, and program | |
WO2019021512A1 (en) | Ophthalmic system and ophthalmic information processing device | |
JP6100027B2 (en) | Image pickup apparatus control apparatus, image pickup apparatus control method, and program | |
JP7348374B2 (en) | Ophthalmology information processing device, ophthalmology imaging device, ophthalmology information processing method, and program | |
WO2019176974A1 (en) | Slit-lamp microscope and ophthalmic system | |
JP6411728B2 (en) | Ophthalmic observation device | |
JP2018051391A (en) | Ophthalmologic apparatus | |
JP2022105634A (en) | Slit lamp microscope and ophthalmic system | |
JP6407631B2 (en) | Ophthalmic equipment | |
JP7194136B2 (en) | OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM | |
JP6736734B2 (en) | Ophthalmic photographing device and ophthalmic information processing device | |
WO2022145129A1 (en) | Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program | |
JP2022060588A (en) | Ophthalmologic apparatus and control method of ophthalmologic apparatus | |
JP7314020B2 (en) | Imaging device, imaging device control method, and program | |
JP2018023818A (en) | Ophthalmological observation device | |
JP2018023816A (en) | Ophthalmological observation device | |
JP7201855B2 (en) | Ophthalmic device and ophthalmic information processing program | |
WO2023074517A1 (en) | Fundus information acquisition method and fundus information acquisition device | |
JP6404431B2 (en) | Ophthalmic observation device | |
JP2022069734A (en) | Ophthalmic imaging device and ophthalmic imaging device control method | |
JP2023006633A (en) | Optical interference tomographic device, control method of optical interference tomographic device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220401 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20220630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230712 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7314020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |