JP2023076025A - Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program - Google Patents

Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program Download PDF

Info

Publication number
JP2023076025A
JP2023076025A JP2021189166A JP2021189166A JP2023076025A JP 2023076025 A JP2023076025 A JP 2023076025A JP 2021189166 A JP2021189166 A JP 2021189166A JP 2021189166 A JP2021189166 A JP 2021189166A JP 2023076025 A JP2023076025 A JP 2023076025A
Authority
JP
Japan
Prior art keywords
unit
image
subject
eye
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021189166A
Other languages
Japanese (ja)
Inventor
航 坂川
Wataru Sakagawa
好彦 岩瀬
Yoshihiko Iwase
朋之 池上
Tomoyuki Ikegami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021189166A priority Critical patent/JP2023076025A/en
Priority to PCT/JP2022/038661 priority patent/WO2023090023A1/en
Publication of JP2023076025A publication Critical patent/JP2023076025A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

To provide an ophthalmologic apparatus capable of reducing a load of a manual operation by an examiner.SOLUTION: An ophthalmologic apparatus includes: a head part for imaging an eye to be examined; a support part for supporting the face of a subject; a moving part capable of moving at least one of the head part and the support part; an observation part for executing imaging from a head part side to a support part side; an estimation part for estimating at least one of the information as to whether or not the subject is placing his or her face on the support part and the information on the position of the eye to be examined using a learned model that has executed learning with an image group including an image of the eye to be examined including the pupil and an image not including the pupil as inputs; and a control part for controlling the moving part on the basis of a result estimated by the estimation part using an image captured by the observation part as an input to the learned model.SELECTED DRAWING: Figure 7

Description

本発明は、眼科装置、眼科装置の制御方法、及びプログラムに関する。 The present invention relates to an ophthalmologic apparatus, an ophthalmologic apparatus control method, and a program.

近年、低コヒーレンス光による干渉を利用して断層画像を取得する光干渉断層撮影法(OCT:Optical Coherence Tomography)を用いる装置(OCT装置)が実用化されている。このOCT装置は、被検査物に入射する光の波長程度の分解能で断層画像を取得できるため、被検査物の断層画像を高分解能で得ることができる。 In recent years, an apparatus (OCT apparatus) using optical coherence tomography (OCT), which acquires a tomographic image using interference of low-coherence light, has been put into practical use. Since this OCT apparatus can obtain a tomographic image with a resolution approximately equal to the wavelength of light incident on an object to be inspected, it is possible to obtain a tomographic image of the object to be inspected with high resolution.

OCT装置は、特に、眼底に位置する網膜の断層画像を得るための眼科装置として有用である。さらに、他の眼科装置として眼底カメラ(眼底の2次元画像を撮影するための装置)や、走査型レーザー検眼鏡(SLO:Scanning Laser Ophthalmoscope)も有用な装置である。また、リフラクトメータ(眼屈折力測定装置)及びトノメータ(眼圧計)等も眼科装置として有用な装置である。また、これらの複合装置も有用な装置である。 The OCT apparatus is particularly useful as an ophthalmic apparatus for obtaining a tomographic image of the retina located on the fundus. Furthermore, as other ophthalmologic devices, a fundus camera (a device for taking a two-dimensional image of the fundus) and a scanning laser ophthalmoscope (SLO) are also useful devices. Refractometers (eye refractive power measuring devices), tonometers (tonometers), and the like are also useful as ophthalmic devices. These composite devices are also useful devices.

このような眼科装置においては、検査すべき被検眼を撮影するために装置の撮影部(主には測定光学系)を被検眼へ精度よくアライメント(位置合わせ)することが重要である。特許文献1には、被検眼の角膜にアライメント指標を投影し、その反射光を分割して観察光学系を通して撮像素子で撮像し、分割されたアライメント指標像の位置から装置と被検眼との相対位置を検出し、自動でアライメントを行う眼科装置が記載されている。このような技術において、必要なアライメント精度を達成するためには、被検眼を高精細に観察できる観察光学系が必要である。被検眼を高精細に観察するためには1画素あたりの画界を小さくする必要があるため、これらの装置における観察光学系の観察範囲は被検眼及びその周辺に限られることが多い。 In such an ophthalmologic apparatus, it is important to accurately align (align) the imaging unit (mainly the measurement optical system) of the apparatus with the eye to be examined in order to photograph the eye to be examined. In Patent Document 1, an alignment index is projected onto the cornea of an eye to be inspected, the reflected light is divided, an image is captured by an imaging element through an observation optical system, and the position of the divided alignment index image is used to determine the relative position of the apparatus and the eye to be inspected. A position-sensing and automatic alignment ophthalmic device is described. In order to achieve the required alignment accuracy in such a technique, an observation optical system capable of observing the subject's eye with high definition is required. Since it is necessary to reduce the field of view per pixel in order to observe the subject's eye with high definition, the observation range of the observation optical system in these devices is often limited to the subject's eye and its surroundings.

特開2010-162424号公報JP 2010-162424 A

しかしながら、顔の大きさには個人差があるため、被検者が装置の顔支持部等に顔を乗せたときに観察光学系の観察範囲から被検者の眼が外れてしまうことがある。このような場合、検者は、装置の顔支持部や測定光学系を移動させて被検眼が観察範囲に入ってから、自動アライメントを開始させる必要がある。また、従来の自動アライメントの技術では、自動アライメント開始時に被検者が装置の顔支持部に顔を乗せていることが前提となっている。したがって、検者は被検者が顔支持部に顔を乗せたことを確認してから自動アライメントを開始させる必要がある。自動アライメントの前のこのような手動操作は検者にとって負荷となることがある。 However, since there are individual differences in the size of the face, the subject's eyes may fall out of the observation range of the observation optical system when the subject puts his/her face on the face support portion of the apparatus. . In such a case, the examiner needs to move the face support part and the measurement optical system of the apparatus to bring the subject's eye into the observation range, and then start the automatic alignment. Further, in the conventional automatic alignment technique, it is assumed that the examinee puts his/her face on the face support portion of the apparatus at the start of the automatic alignment. Therefore, it is necessary for the examiner to start the automatic alignment after confirming that the face of the subject is placed on the face support portion. Such manual operations before automatic alignment may become a burden on the examiner.

本発明の一実施態様は、上記状況に鑑み、検者による手動操作の負荷を軽減することができる眼科装置、眼科装置の制御方法、及びプログラムを提供することを目的の一つとする。 SUMMARY OF THE INVENTION One object of an embodiment of the present invention is to provide an ophthalmologic apparatus, an ophthalmologic apparatus control method, and a program that can reduce the burden of manual operations by an examiner.

本発明の一実施態様に係る眼科装置は、被検眼を撮影するヘッド部と、被検者の顔を支える支持部と、前記ヘッド部と前記支持部とのうち少なくとも一方を移動可能な移動部と、前記ヘッド部の側から前記支持部の側に向かって撮影する観察部と、瞳孔を含む被検眼の画像と瞳孔を含まない画像とを含む画像群を入力として学習した学習済モデルを用いて、被検者が支持部に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とのうち少なくとも一方を推定する推定部と、前記観察部によって撮影して得た画像を前記学習済モデルへの入力として用いて前記推定部によって推定された結果に基づいて、前記移動部を制御する制御部とを備える、眼科装置。 An ophthalmologic apparatus according to an embodiment of the present invention includes a head section for photographing an eye to be examined, a support section for supporting the face of a subject, and a moving section capable of moving at least one of the head section and the support section. and an observation unit that photographs from the head unit side toward the support unit side, and an image group that includes an image of the subject's eye including the pupil and an image that does not include the pupil. an estimating unit for estimating at least one of information regarding whether or not the subject rests his/her face on the supporting unit and information regarding the position of the subject's eye; and a control unit that controls the moving unit based on the results estimated by the estimating unit that are used as inputs to the model.

本発明の一実施態様によれば、検者による手動操作の負荷を軽減することできる。 According to one embodiment of the present invention, it is possible to reduce the burden of manual operation by the examiner.

実施例1に係るOCT装置の概略的な構成の一例を示す。1 shows an example of a schematic configuration of an OCT apparatus according to Example 1. FIG. 実施例1に係る撮影部の概略的な光学構成の一例を示す。1 shows an example of a schematic optical configuration of an imaging unit according to Example 1. FIG. 前眼観察用画像、眼底正面画像、及び断層画像の表示の一例を示す。An example of display of an anterior eye observation image, a fundus front image, and a tomographic image is shown. 実施例1に係る制御部の一例を示すブロック図である。4 is a block diagram showing an example of a control unit according to Embodiment 1; FIG. 前眼観察用画像の複数の例を示す。4 shows a plurality of examples of images for anterior eye observation. ニューラルネットワークモデルの概略図である。1 is a schematic diagram of a neural network model; FIG. 検査の一連の処理を示すフローチャートである。4 is a flow chart showing a series of inspection processes. イメージスプリットプリズムを有するプリズム付きレンズの一例と、プリズム付きレンズを用いて得た前眼観察用画像の例を示す。An example of a prism-equipped lens having an image split prism and an example of an anterior eye observation image obtained using the prism-equipped lens are shown. 変形例1に係る検査の一連の処理を示すフローチャートである。10 is a flowchart showing a series of inspection processes according to Modification 1. FIG.

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Exemplary embodiments for carrying out the invention will now be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, the same reference numbers are used in the drawings to indicate identical or functionally similar elements.

なお、以下において、眼底に関する画像とは、眼底の情報を含む画像をいう。例えば、眼底に関する画像には、眼底の断面画像である断層画像及び3次元の断層画像、眼底の2次元画像である眼底正面画像、リング像を含む画像、並びに後述するEn-Face画像やOCTA正面画像、OCTA断層画像等が含まれる。また、前眼観察用画像とは、後述する前眼観察用の赤外線CCD112で取得した画像をいう。 In the following, an image related to the fundus refers to an image containing information of the fundus. For example, images related to the fundus include tomographic images and three-dimensional tomographic images that are cross-sectional images of the fundus, fundus frontal images that are two-dimensional images of the fundus, images including ring images, and En-Face images and OCTA frontal images described later. images, OCTA tomographic images, and the like. Further, the image for anterior eye observation refers to an image acquired by the infrared CCD 112 for anterior eye observation, which will be described later.

さらに、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、及びサポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量や結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施例及び変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、正解データとは、学習データ(教師データ)の出力データのことをいう。 Furthermore, a machine learning model refers to a learning model by a machine learning algorithm. Specific algorithms of machine learning include nearest neighbor method, naive Bayes method, decision tree, support vector machine, and the like. Another example is deep learning, in which neural networks are used to generate feature quantities and connection weighting coefficients for learning. As appropriate, any of the above algorithms can be used and applied to the following embodiments and modifications. Also, teacher data refers to learning data, and is composed of a pair of input data and output data. Further, correct data means output data of learning data (teaching data).

なお、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングすることで得られた(学習を行った)モデルである。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加学習を行うこともできる。追加学習は、装置が使用先に設置された後も行われることができる。 Note that a trained model is a model obtained (learned) by training a machine learning model based on an arbitrary machine learning algorithm using appropriate learning data in advance. However, although a trained model is obtained in advance using appropriate learning data, it is possible to perform additional learning instead of not performing further learning. Additional learning can also take place after the device has been installed at the point of use.

(実施例1)
以下、本発明の実施例1に係る眼科装置及びその制御方法の一例として眼科撮影装置及びその制御方法について説明する。本実施例に係る眼科撮影装置は、被検眼の眼底を撮影する眼科撮影装置であって、特に被検眼の眼底の2次元画像である眼底正面画像及び断層画像を取得するために用いられるものに関する。本実施例では、眼科撮影装置の例として、学習済モデルを用いて、前眼観察用画像に基づいて、被検眼に対する装置のアライメントを行う光干渉断層撮影装置(OCT装置)について説明する。
(Example 1)
An ophthalmologic imaging apparatus and a control method thereof will be described below as an example of an ophthalmologic apparatus and a control method thereof according to Embodiment 1 of the present invention. The ophthalmologic imaging apparatus according to the present embodiment is an ophthalmologic imaging apparatus for imaging the fundus of an eye to be examined, and particularly relates to an ophthalmologic imaging apparatus used to obtain a front fundus image and a tomographic image, which are two-dimensional images of the fundus of the eye to be examined. . In this embodiment, as an example of an ophthalmologic imaging apparatus, an optical coherence tomography apparatus (OCT apparatus) that aligns the apparatus with respect to the subject's eye based on an anterior eye observation image using a trained model will be described.

(装置の概略構成)
本実施例に係るOCT装置の概略構成について、図1を用いて説明する。図1は、OCT装置1の概略的な構成の一例を示す側面図である。OCT装置1には、撮影部10、制御部20、表示部40、及び入力部50が設けられている。撮影部10には、光学ヘッド部100、ステージ部150、後述の分光器を内蔵するベース部190、及び顔受け部160が設けられている。
(Schematic configuration of the device)
A schematic configuration of an OCT apparatus according to this embodiment will be described with reference to FIG. FIG. 1 is a side view showing an example of a schematic configuration of an OCT apparatus 1. FIG. The OCT apparatus 1 is provided with an imaging unit 10 , a control unit 20 , a display unit 40 and an input unit 50 . The photographing unit 10 is provided with an optical head unit 100 , a stage unit 150 , a base unit 190 containing a spectroscope, which will be described later, and a face receiving unit 160 .

光学ヘッド部100は、被検眼に光を照射し且つ被検眼からの戻り光を検出し、前眼観察用画像、眼底正面画像及び断層画像を撮影するための測定光学系を含む。ステージ部150は、不図示のモータを用いて光学ヘッド部100を図中xyz方向に移動可能な移動部の一例である。顔受け部160は、被検者の顎と額とを固定することで、被検者の眼(被検眼)の固定を促すことができる顎台である。また、顔受け部160は、不図示のモータ等の駆動部材を備え、当該駆動部材は図中y方向に顔受け部160を移動可能な移動部の一例として機能する。 The optical head unit 100 includes a measurement optical system for irradiating the eye to be inspected with light, detecting the return light from the eye to be inspected, and photographing an anterior eye observation image, a fundus front image, and a tomographic image. The stage section 150 is an example of a moving section capable of moving the optical head section 100 in the xyz directions in the figure using a motor (not shown). The face receiving part 160 is a chin rest that can help fix the subject's eyes (eyes to be examined) by fixing the subject's chin and forehead. Further, the face receiving portion 160 includes a driving member such as a motor (not shown), and the driving member functions as an example of a moving portion capable of moving the face receiving portion 160 in the y direction in the figure.

制御部20は、撮影部10、表示部40、及び入力部50に接続されており、これらを制御することができる。制御部20は、例えば、ステージ部150の移動を制御し、被検眼に対する光学ヘッド部100のアライメントを行うことができる。また、制御部20は、撮影部10により取得されたデータに基づいて、前眼観察用画像や、眼底正面画像、断層画像等の生成を行うこともできる。 The control unit 20 is connected to the imaging unit 10, the display unit 40, and the input unit 50, and can control them. The control unit 20 can, for example, control the movement of the stage unit 150 and align the optical head unit 100 with respect to the subject's eye. The control unit 20 can also generate an anterior eye observation image, a fundus front image, a tomographic image, etc. based on the data acquired by the imaging unit 10 .

制御部20は、プロセッサーやメモリを含む一般的なコンピュータを用いて構成することができるが、OCT装置1の専用のコンピュータとして構成されてもよい。なお、制御部20は、撮影部10が通信可能に接続された別体(外部)のコンピュータだけでなく、撮影部10の内蔵(内部)のコンピュータであってもよい。また、制御部20は、例えば、パーソナルコンピュータであってもよく、デスクトップPC、ノート型PC、又はタブレット型PC(携帯型の情報端末)等が用いられてもよい。 The control unit 20 can be configured using a general computer including a processor and memory, but may be configured as a dedicated computer for the OCT apparatus 1 . Note that the control unit 20 may not only be a separate (external) computer to which the imaging unit 10 is communicably connected, but may also be a built-in (inside) computer of the imaging unit 10 . Also, the control unit 20 may be, for example, a personal computer, and a desktop PC, a notebook PC, a tablet PC (portable information terminal), or the like may be used.

表示部40は任意のモニタにより構成され、制御部20の制御に従って、被検者情報などの各種情報や各種画像、入力部50の操作に従ったマウスカーソル等を表示する。入力部50は、制御部20への指示を行う入力装置であり、具体的にはキーボードやマウスを含む。なお、表示部40がタッチパネル式のディスプレイであってもよく、この場合には表示部40は入力部50として兼用される。 The display unit 40 is configured by an arbitrary monitor, and displays various information such as subject information, various images, and a mouse cursor according to the operation of the input unit 50 under the control of the control unit 20 . The input unit 50 is an input device for giving instructions to the control unit 20, and specifically includes a keyboard and a mouse. Note that the display unit 40 may be a touch panel display, and in this case, the display unit 40 is also used as the input unit 50 .

なお、本実施例においては、撮影部10、制御部20、表示部40、及び入力部50はそれぞれ別個に構成されているが、これらは一部又は全部が一体として構成されてもよい。また、制御部20には不図示の他の撮影装置や記憶装置等が接続されてもよい。 In this embodiment, the imaging unit 10, the control unit 20, the display unit 40, and the input unit 50 are configured separately, but they may be configured partially or wholly as a single unit. Also, the control unit 20 may be connected to other imaging devices, storage devices, and the like (not shown).

(測定光学系及び分光器の構成)
次に、図2を参照して、本実施例の測定光学系及び分光器の構成例について説明する。図2は、撮影部10の概略的な光学構成の一例を示す。まず、光学ヘッド部100の内部の構成について説明する。
(Configuration of measurement optical system and spectrometer)
Next, with reference to FIG. 2, a configuration example of the measurement optical system and the spectroscope of this embodiment will be described. FIG. 2 shows an example of a schematic optical configuration of the imaging unit 10. As shown in FIG. First, the internal configuration of the optical head section 100 will be described.

光学ヘッド部100では、被検眼Eに対向して対物レンズ101-1が配置され、その光軸上に第1の光路分離手段として第1ダイクロイックミラー102が配置される。対物レンズ101-1からの光路は、第1ダイクロイックミラー102によって、OCT光学系の測定光路L1並びに眼底観察及び固視灯用の光路L2に至る光路と、前眼の観察光路L3とに光線の波長帯域毎に分岐される。また、第1ダイクロイックミラー102の反射方向には第2の光路分離手段として第2ダイクロイックミラー103が配置される。第1ダイクロイックミラー102の反射方向における光路は、第2ダイクロイックミラー103によって、OCT光学系の測定光路L1と、眼底観察及び固視灯用の光路L2とに光線の波長帯域毎に分岐される。 In the optical head unit 100, an objective lens 101-1 is arranged facing the eye E to be inspected, and a first dichroic mirror 102 is arranged as first optical path separating means on the optical axis thereof. The optical path from the objective lens 101-1 is divided by the first dichroic mirror 102 into the measurement optical path L1 of the OCT optical system, the optical path L2 for fundus observation and fixation lamp, and the observation optical path L3 for the anterior eye. It branches for each wavelength band. A second dichroic mirror 103 is arranged as a second optical path separating means in the reflection direction of the first dichroic mirror 102 . The optical path in the reflection direction of the first dichroic mirror 102 is split by the second dichroic mirror 103 into a measurement optical path L1 for the OCT optical system and an optical path L2 for fundus observation and fixation lamp for each wavelength band of light.

なお、本実施例に係る構成では、第1ダイクロイックミラー102の透過方向に前眼の観察光路L3、反射方向にOCT光学系の測定光路L1並びに眼底観察及び固視灯用の光路L2に至る光路が配置される。また、第2ダイクロイックミラー103の透過方向にOCT光学系の測定光路L1、反射方向に眼底観察及び固視灯用の光路L2が配置される。しかしながら、各ダイクロイックミラーの透過方向及び反射方向に設けられる光路は互いに逆であってもよい。 In the configuration according to the present embodiment, the optical path L3 for observation of the anterior eye is in the transmission direction of the first dichroic mirror 102, the measurement optical path L1 for the OCT optical system and the optical path L2 for fundus observation and fixation lamp are in the reflection direction. is placed. In addition, the measurement optical path L1 of the OCT optical system is arranged in the transmission direction of the second dichroic mirror 103, and the optical path L2 for fundus observation and fixation lamp is arranged in the reflection direction. However, the optical paths provided in the transmission direction and the reflection direction of each dichroic mirror may be opposite to each other.

眼底観察及び内部固視灯用の光路L2には、第2ダイクロイックミラー103から順に、レンズ101-2,108,107、及び第3ダイクロイックミラー104が配置される。眼底観察及び内部固視灯用の光路L2は、第3の光路分離手段である第3ダイクロイックミラー104によって眼底観察用のCCD105への光路と及び固視灯106への光路に光線の波長帯域毎に分岐される。本実施例では、第3ダイクロイックミラー104の透過方向に固視灯106、反射方向に眼底観察用のCCD105が配置されている。なお、第3ダイクロイックミラー104の透過方向にCCD105、反射方向に固視灯106が配置されてもよい。 Lenses 101-2, 108, 107 and a third dichroic mirror 104 are arranged in order from the second dichroic mirror 103 on the optical path L2 for fundus observation and internal fixation lamp. The optical path L2 for fundus observation and internal fixation lamp is divided into the optical path to the fundus observation CCD 105 and the optical path to the fixation lamp 106 by the third dichroic mirror 104, which is a third optical path separating means, for each wavelength band of light rays. is branched to In this embodiment, a fixation lamp 106 is arranged in the transmission direction of the third dichroic mirror 104, and a CCD 105 for fundus observation is arranged in the reflection direction. Note that the CCD 105 may be arranged in the transmitting direction of the third dichroic mirror 104 and the fixation lamp 106 may be arranged in the reflecting direction.

レンズ107はフォーカスレンズであり、固視灯及び眼底観察用の光路L2に関する合焦調整のために用いられる。レンズ107は、制御部20によって制御される不図示のモータ等によって、光軸方向に駆動されることができる。 A lens 107 is a focus lens and is used for focus adjustment of the fixation lamp and the optical path L2 for observing the fundus. The lens 107 can be driven in the optical axis direction by a motor (not shown) or the like controlled by the control unit 20 .

CCD105は、不図示の眼底観察用照明光源から発せられる光の波長、具体的には780nm付近に感度を有する。一方、固視灯106は、可視光を発生して被検者の固視を促すものである。制御部20は、CCD105から出力される信号に基づいて、被検眼Eの眼底の2次元画像である眼底正面画像を生成することができる。 The CCD 105 has sensitivity to the wavelength of light emitted from a fundus observation illumination light source (not shown), specifically around 780 nm. On the other hand, the fixation lamp 106 emits visible light to prompt the subject to fixate. The control unit 20 can generate a fundus front image, which is a two-dimensional image of the fundus of the subject's eye E, based on the signal output from the CCD 105 .

前眼の観察光路L3には、第1ダイクロイックミラー102から順に、レンズ109,110,111、及び前眼観察用の赤外線CCD112が設けられている。また、前眼観察用光源122が図のx方向に対物レンズ101-1を挟むように2つ設けられている。 Lenses 109, 110, 111 and an infrared CCD 112 for anterior eye observation are provided in order from the first dichroic mirror 102 on the anterior eye observation optical path L3. Also, two anterior eye observation light sources 122 are provided so as to sandwich the objective lens 101-1 in the x direction of the figure.

赤外線CCD112は、レンズ109,110,111を介して、光学ヘッド部100の前方、言い換えると被検者が配置される方向を撮影する観察部の一例である。赤外線CCD112は、特に、被検眼が光学ヘッド部100に対して適正な位置にあるとき、被検眼の前眼部を撮影する。赤外線CCD112は、前眼観察用光源122の波長、具体的には970nm付近に感度を有する。制御部20は、赤外線CCD112から出力される信号に基づいて、前眼観察用画像を含む、光学ヘッド部100の前方の画像を生成する。なお、前眼観察用光源122は、前眼観察用画像に角膜輝点が現れるように、被検眼に指標を投影することができる。 The infrared CCD 112 is an example of an observation unit that captures an image of the front of the optical head unit 100, in other words, the direction in which the subject is arranged, via lenses 109, 110, and 111. FIG. The infrared CCD 112 photographs the anterior segment of the subject's eye, particularly when the subject's eye is positioned appropriately with respect to the optical head unit 100 . The infrared CCD 112 has sensitivity to the wavelength of the anterior eye observation light source 122, specifically around 970 nm. The control unit 20 generates an image in front of the optical head unit 100 including an anterior eye observation image based on the signal output from the infrared CCD 112 . Note that the anterior eye observation light source 122 can project an index onto the subject's eye so that a corneal bright spot appears in the anterior eye observation image.

OCT光学系の測定光路L1には、OCT光学系を構成する光学部材が配置されており、OCT光学系は、被検眼Eの眼底の断層像を撮影するための構成を有している。より具体的には、OCT光学系は、断層画像を形成するための干渉信号を得るために用いられる。 Optical members constituting the OCT optical system are arranged in the measurement optical path L1 of the OCT optical system, and the OCT optical system has a configuration for taking a tomographic image of the fundus of the eye E to be examined. More specifically, the OCT optical system is used to obtain interference signals for forming tomographic images.

測定光路L1には、第2ダイクロイックミラー103から順に、レンズ101-3、ミラー113、光を被検眼Eの眼底上で走査するためのXスキャナ114-1及びYスキャナ114-2、並びにレンズ115,116が配置されている。 The measurement optical path L1 includes, in order from the second dichroic mirror 103, a lens 101-3, a mirror 113, an X scanner 114-1 and a Y scanner 114-2 for scanning the fundus of the eye E to be examined, and a lens 115. , 116 are arranged.

Xスキャナ114-1及びYスキャナ114-2は、OCTの測定光の走査手段の一例であり、測定光を被検眼Eの眼底上で走査するために配置されている。Xスキャナ114-1は測定光をx方向に走査するために用いられ、Yスキャナ114-2は測定光をy方向に走査するために用いられる。本実施例では、Xスキャナ114-1及びYスキャナ114-2は、ガルバノミラーによって構成されるが、Xスキャナ114-1及びYスキャナ114-2は所望の構成に応じて任意の偏向手段を用いて構成されてよい。また、測定光の走査手段は、例えばMEMSミラー等の一枚のミラーで2次元方向に光を偏向できる偏向手段により構成されてもよい。 The X scanner 114-1 and the Y scanner 114-2 are an example of scanning means for OCT measurement light, and are arranged to scan the fundus of the eye E to be examined with the measurement light. The X scanner 114-1 is used to scan the measurement light in the x direction, and the Y scanner 114-2 is used to scan the measurement light in the y direction. In this embodiment, the X scanner 114-1 and Y scanner 114-2 are configured by galvanometer mirrors, but the X scanner 114-1 and Y scanner 114-2 may use any deflection means according to the desired configuration. may be configured Further, the scanning means for measuring light may be constituted by deflection means capable of deflecting light in two-dimensional directions with a single mirror such as a MEMS mirror.

レンズ115は、フォーカスレンズであり、光カプラー117に接続されている光ファイバー117-2から出射する光源118からの光を眼底上に合焦調整するために用いられる。レンズ115は、制御部20によって制御される不図示のモータ等によって、光軸方向に駆動されることができる。この合焦調整によって、眼底からの戻り光は光ファイバー117-2の先端にスポット状に結像されて入射されることとなる。 The lens 115 is a focus lens and is used to focus the light from the light source 118 emitted from the optical fiber 117-2 connected to the optical coupler 117 onto the fundus. The lens 115 can be driven in the optical axis direction by a motor (not shown) or the like controlled by the controller 20 . Due to this focusing adjustment, the light returning from the fundus is formed into a spot on the tip of the optical fiber 117-2 and is incident thereon.

次に、光源118からの光路、参照光学系、及び分光器の構成について説明する。光源118は代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。本実施例では、光源118として中心波長は855nm、波長バンド幅は約100nmであるSLDを用いた。なお、光源118として、本実施例ではSLDを選択したが、低コヒーレント光が出射できればよく、ASE(Amplified Spontaneous Emission)等を用いることもできる。 Next, the configuration of the optical path from the light source 118, the reference optical system, and the spectroscope will be described. A light source 118 is an SLD (Super Luminescent Diode), which is a typical low coherent light source. In this embodiment, an SLD with a central wavelength of 855 nm and a wavelength bandwidth of about 100 nm is used as the light source 118 . As the light source 118, SLD is selected in this embodiment, but ASE (Amplified Spontaneous Emission) or the like may be used as long as it can emit low coherent light.

光源118は、光ファイバー117-1を介して光カプラー117に接続される。光カプラー117には、シングルモードの光ファイバー117-1~4が接続されて一体化されている。光源118から出射された光は光カプラー117にて測定光及び参照光に分割され、測定光は光ファイバー117-2を介して測定光路L1に、参照光は光ファイバー117-3を介して参照光学系に導かれる。測定光は測定光路L1を通じ、被検眼Eの眼底に照射され、網膜による反射や散乱により同じ光路を通じて光カプラー117に到達する。 Light source 118 is connected to optical coupler 117 via optical fiber 117-1. The optical coupler 117 is integrated with single-mode optical fibers 117-1 to 117-4. Light emitted from the light source 118 is split into measurement light and reference light by the optical coupler 117. The measurement light passes through the optical fiber 117-2 to the measurement light path L1, and the reference light passes through the optical fiber 117-3 to the reference optical system. led to. The measurement light passes through the measurement optical path L1, is irradiated to the fundus of the subject's eye E, and reaches the optical coupler 117 through the same optical path due to reflection and scattering by the retina.

一方、光カプラー117で分割され、光ファイバー117-3により導かれた参照光は、参照光学系に出射される。参照光学系には、光ファイバー117-3の出射端部より順に、レンズ121、分散補償ガラス120、及びミラー119(参照ミラー)が配置されている。 On the other hand, the reference light split by the optical coupler 117 and guided by the optical fiber 117-3 is emitted to the reference optical system. The reference optical system includes a lens 121, a dispersion compensating glass 120, and a mirror 119 (reference mirror) in this order from the output end of the optical fiber 117-3.

光ファイバー117-3の出射端より出射された参照光は、レンズ121及び分散補償ガラス120を介してミラー119に到達し反射される。分散補償ガラス120は、測定光と参照光の分散を合わせるために光路中に挿入されている。ミラー119により反射された参照光は同じ光路を戻り、光カプラー117に到達する。ミラー119は、制御部20により制御される不図示のモータ等によって、図中矢印で示される光軸方向に駆動されることができる。 The reference light emitted from the output end of the optical fiber 117-3 reaches the mirror 119 via the lens 121 and the dispersion compensating glass 120 and is reflected. A dispersion compensating glass 120 is inserted in the optical path to match the dispersion of the measurement light and the reference light. The reference light reflected by mirror 119 returns along the same optical path and reaches optical coupler 117 . The mirror 119 can be driven in the optical axis direction indicated by the arrow in the drawing by a motor (not shown) controlled by the controller 20 or the like.

被検眼Eから戻った測定光の戻り光とミラー119から反射された参照光とは、光カプラー117によって合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉が生じる。そのため、前述のモータ等によりミラー119を光軸方向に移動させ、被検眼Eによって変わる測定光の光路長に対して、参照光の光路長を合わせることで、測定光と参照光による干渉光を生じさせることができる。干渉光は光ファイバー117-4を介して分光器180に導かれる。 The return light of the measurement light returned from the subject's eye E and the reference light reflected from the mirror 119 are combined by the optical coupler 117 to form interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light are substantially the same. Therefore, by moving the mirror 119 in the optical axis direction by the motor or the like described above and matching the optical path length of the reference light with the optical path length of the measurement light that varies depending on the eye E to be examined, interference light between the measurement light and the reference light can be eliminated. can be generated. The interference light is guided to spectroscope 180 via optical fiber 117-4.

分光器180には、干渉光を検出する検出部の一例である。分光器180には、レンズ181,183、回折格子182、及びラインセンサ184が設けられている。光ファイバー117-4から出射された干渉光は、レンズ181を介して略平行光となった後、回折格子182で分光され、レンズ183によってラインセンサ184に結像される。 The spectroscope 180 is an example of a detector that detects interference light. The spectroscope 180 is provided with lenses 181 and 183 , a diffraction grating 182 and a line sensor 184 . The interference light emitted from the optical fiber 117-4 becomes substantially parallel light through the lens 181, is dispersed by the diffraction grating 182, and is imaged on the line sensor 184 by the lens 183. FIG.

検出器であるラインセンサ184によって取得された信号における輝度分布に関する情報は、制御部20に干渉信号として出力される。制御部20は、ラインセンサ184から出力された干渉信号に基づいて断層画像を生成することができる。 Information about the luminance distribution in the signal acquired by the line sensor 184, which is a detector, is output to the control unit 20 as an interference signal. The controller 20 can generate a tomographic image based on the interference signal output from the line sensor 184 .

ここで、被検眼Eの一点から断層の情報を取得することをAスキャンという。また、x方向のある位置で得られるラインセンサ184上の輝度分布を高速フーリエ変換(FFT:Fast Fourier Transform)し、得られた線状の輝度分布を濃度又はカラー情報に変換したものをAスキャン画像と呼ぶ。さらに、この複数のAスキャン画像を並べた2次元の画像をBスキャン画像(断層画像)と呼ぶ。 Acquiring tomographic information from one point on the subject's eye E is called an A scan. Further, the luminance distribution on the line sensor 184 obtained at a certain position in the x direction is subjected to Fast Fourier Transform (FFT), and the obtained linear luminance distribution is converted into density or color information, and then A-scan is performed. called an image. Furthermore, a two-dimensional image in which a plurality of A-scan images are arranged is called a B-scan image (tomographic image).

また、1つのBスキャン画像を構築するための複数のAスキャン画像を撮影した後、y方向のスキャン位置を移動させて再びx方向のスキャンを行うことにより、複数のBスキャン画像を得ることができる。複数のBスキャン画像をy方向に並べることで、3次元の断層画像を構築することができる。制御部20が、複数のBスキャン画像、又は複数のBスキャン画像から構築した3次元の断層画像を表示部40に表示させることで、検者はこれら画像を被検眼Eの診断に用いることができる。 Further, after taking a plurality of A-scan images for constructing one B-scan image, by moving the scanning position in the y-direction and scanning in the x-direction again, it is possible to obtain a plurality of B-scan images. can. A three-dimensional tomographic image can be constructed by arranging a plurality of B-scan images in the y direction. The control unit 20 causes the display unit 40 to display a plurality of B-scan images or a three-dimensional tomographic image constructed from a plurality of B-scan images, so that the examiner can use these images for diagnosis of the eye E to be examined. can.

本実施例では、測定光路L1に配置される各部材で構成される測定光学系、参照光学系及び分光器光学系により、マイケルソン干渉計が構成される。これに対し、干渉計としてマッハツェンダー干渉計を用いてもよい。 In this embodiment, a Michelson interferometer is configured by a measurement optical system, a reference optical system, and a spectroscope optical system, which are composed of members arranged on the measurement optical path L1. Alternatively, a Mach-Zehnder interferometer may be used as the interferometer.

図3は、表示部40に表示された前眼観察用画像300、眼底正面画像301、及び断層画像であるBスキャン画像302の一例を示す。前眼観察用画像300は、赤外線CCD112の出力を処理して生成された画像であり、眼底正面画像301はCCD105の出力を処理して生成された画像であり、Bスキャン画像302はラインセンサ184の出力を前述のように処理して生成した画像である。 FIG. 3 shows an example of an anterior eye observation image 300, a fundus front image 301, and a B-scan image 302, which is a tomographic image, displayed on the display unit 40. FIG. The anterior eye observation image 300 is an image generated by processing the output of the infrared CCD 112, the fundus front image 301 is an image generated by processing the output of the CCD 105, and the B-scan image 302 is the line sensor 184. is an image generated by processing the output of , as described above.

(制御部の構成)
次に、図4を参照して、制御部20の構成について説明する。図4は、制御部20の構成の一例を示すブロック図である。制御部20には、取得部21、駆動制御部22、画像生成部23、位置ずれ推定部24、及び記憶部25が設けられている。
(Configuration of control unit)
Next, the configuration of the control unit 20 will be described with reference to FIG. FIG. 4 is a block diagram showing an example of the configuration of the control section 20. As shown in FIG. The control unit 20 is provided with an acquisition unit 21 , a drive control unit 22 , an image generation unit 23 , a positional deviation estimation unit 24 and a storage unit 25 .

取得部21は、CCD105、赤外線CCD112、及びラインセンサ184から出力される各種信号を取得することができる。また、取得部21は、入力部50を介した操作者からの指示を取得することができる。さらに、取得部21は、記憶部25に記憶されている被検者情報等の各種情報や断層画像等の各種画像、及び画像生成部23で生成された各種画像等を取得することができる。 Acquisition unit 21 can acquire various signals output from CCD 105 , infrared CCD 112 , and line sensor 184 . The acquisition unit 21 can also acquire instructions from the operator through the input unit 50 . Furthermore, the acquisition unit 21 can acquire various information such as subject information stored in the storage unit 25, various images such as tomographic images, and various images generated by the image generation unit 23.

駆動制御部22は、撮影部10内の各種構成要素の駆動を制御する。具体的には、駆動制御部22は、例えば、ステージ部150、顔受け部160、レンズ107、Xスキャナ114-1、Yスキャナ114-2、レンズ115、及びミラー119等の駆動を制御することができる移動制御手段の一例である。また、駆動制御部22は、前眼観察用光源122、不図示の眼底照明用光源、固視灯106、及び光源118の点灯や消灯の制御を行うこともできる。また、駆動制御部22は、後述する位置ずれ推定部24による推定結果に基づいて、被検眼Eに対する光学ヘッド部100のxyz方向におけるアライメントのために移動部を制御する。駆動制御部22による、アライメントのための移動部の制御については後述する。 The drive control unit 22 controls driving of various components in the imaging unit 10 . Specifically, the drive control unit 22 controls the driving of, for example, the stage unit 150, the face receiving unit 160, the lens 107, the X scanner 114-1, the Y scanner 114-2, the lens 115, the mirror 119, and the like. is an example of a movement control means capable of The drive control unit 22 can also control the lighting and extinguishing of the anterior eye observation light source 122 , the fundus illumination light source (not shown), the fixation lamp 106 , and the light source 118 . Further, the drive control unit 22 controls the moving unit for alignment of the optical head unit 100 with respect to the subject's eye E in the xyz directions based on the estimation result by the positional deviation estimation unit 24, which will be described later. Control of the moving unit for alignment by the drive control unit 22 will be described later.

画像生成部23は、取得部21が取得したCCD105の出力信号に基づいて眼底正面画像を生成し、赤外線CCD112の出力信号に基づいて前眼観察用画像を生成し、ラインセンサ184から出力された干渉信号に基づいて断層画像を生成することができる。なお、被検眼Eの断層に関するデータや眼底に関するデータ等の眼科情報から断層画像や眼底正面画像等の眼科医用画像を生成する方法は、公知の任意の方法を採用してよい。 The image generation unit 23 generates a fundus front image based on the output signal of the CCD 105 acquired by the acquisition unit 21 , generates an anterior eye observation image based on the output signal of the infrared CCD 112 , and outputs the image from the line sensor 184 . A tomographic image can be generated based on the interference signal. Any known method may be used for generating an ophthalmologist image such as a tomographic image or a fundus front image from ophthalmologic information such as tomographic data or fundus data of the eye E to be examined.

位置ずれ推定部24は、画像生成部23が生成した画像と後述する学習済モデルに基づいて、被検者が顔受け部160に顔を乗せているか否かに関する情報及び被検眼Eの位置に関する情報の少なくとも一方を推定する推定部の一例である。本実施例では、位置ずれ推定部24は、前眼観察用画像を学習済モデルへの入力として用いて、被検者の存在確率及び光学ヘッド部100と被検眼Eの瞳孔中心の位置ずれを推定する。位置ずれ推定部24による推定処理の詳細については後述する。 Based on the image generated by the image generating unit 23 and a learned model described later, the positional deviation estimating unit 24 obtains information regarding whether or not the subject puts his/her face on the face receiving unit 160 and information regarding the position of the eye E to be examined. It is an example of an estimation unit that estimates at least one of information. In this embodiment, the positional deviation estimating unit 24 uses the anterior eye observation image as an input to the trained model to estimate the presence probability of the subject and the positional deviation of the pupil center between the optical head unit 100 and the eye E to be inspected. presume. Details of the estimation processing by the positional deviation estimation unit 24 will be described later.

記憶部25は、生成された各種情報や各種画像を記憶することができる。また、記憶部25は、被検者の識別情報等を記憶することができる。さらに、記憶部25は、撮影用のプログラム等を記憶することができる。 The storage unit 25 can store various types of information and various images that have been generated. In addition, the storage unit 25 can store identification information and the like of the subject. Furthermore, the storage unit 25 can store a program for photographing and the like.

制御部20の記憶部25以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field-Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部25は、例えば、ハードディスク等の光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Each component other than the memory|storage part 25 of the control part 20 may be comprised by the software module performed by processors, such as CPU(Central Processing Unit) and MPU(Micro Processing Unit). Note that the processor may be, for example, a GPU (Graphical Processing Unit), an FPGA (Field-Programmable Gate Array), or the like. Also, each component may be configured by a circuit or the like that performs a specific function, such as an ASIC. The storage unit 25 may be configured by an arbitrary storage medium such as an optical disk such as a hard disk or a memory, for example.

(前眼観察用画像)
次に、図5(a)乃至図5(g)を用いて、前眼観察用画像について説明する。
(Image for anterior eye observation)
Next, the anterior eye observation image will be described with reference to FIGS. 5(a) to 5(g).

図5(a)は、光学ヘッド部100と被検眼Eの瞳孔中心の位置関係が合っている状態の前眼観察用画像の例を示す。この例では、被検眼Eの瞳孔が画像の略中央に存在する。また、前眼観察用光源122からの光の角膜による正反射である角膜輝点が瞳孔の両脇に存在する。 FIG. 5A shows an example of an anterior eye observation image in which the positional relationship between the optical head unit 100 and the center of the pupil of the subject's eye E is aligned. In this example, the pupil of the subject's eye E is present substantially in the center of the image. In addition, corneal bright points, which are regular reflections of light from the anterior eye observation light source 122 by the cornea, are present on both sides of the pupil.

図5(b)は、光学ヘッド部100と被検眼Eがz方向に離れているときの例を示す。この例では、被検眼Eが赤外線CCD112の焦点面から離れているため、画像がぼけている。また、図5(b)に示される画像では、被検眼Eが光学ヘッド部100から遠いため、被検眼Eは図5(a)に示された画像における被検眼Eよりも小さく写っている。また、図5(b)に示される画像では、前眼観察用光源122からの光の角膜による正反射の角度が異なるため、角膜輝点の間隔が図5(a)に示された画像における角膜輝点の間隔よりも狭くなっている。 FIG. 5B shows an example when the optical head unit 100 and the subject's eye E are separated in the z direction. In this example, since the subject's eye E is away from the focal plane of the infrared CCD 112, the image is blurred. In the image shown in FIG. 5(b), the eye E to be examined is far from the optical head unit 100, so the eye E to be examined appears smaller than the eye E to be examined in the image shown in FIG. 5(a). In addition, in the image shown in FIG. 5(b), since the angle of specular reflection by the cornea of the light from the anterior eye observation light source 122 is different, the interval between the corneal bright spots is It is narrower than the interval between corneal bright spots.

図5(c)は、被検眼Eが、光学ヘッド部100から見てy方向における下側にずれている場合の例を示す。この例では、被検眼Eの瞳孔の他に眉が写っている。図5(d)は、被検眼Eがさらにy方向における下側にずれている場合の例を示す。この例では、被検眼Eの瞳孔が画像に存在しない。また、前髪が画像に表れている。なお、図5(d)に示される画像は一例であり、髪型は被検者ごとの差が大きいため前髪が表れない場合も想定される。 FIG. 5C shows an example in which the subject's eye E is shifted downward in the y direction when viewed from the optical head unit 100 . In this example, eyebrows are shown in addition to the pupil of the eye E to be examined. FIG. 5(d) shows an example in which the subject's eye E is further shifted downward in the y direction. In this example, the pupil of the subject's eye E does not exist in the image. In addition, bangs appear in the image. Note that the image shown in FIG. 5(d) is only an example, and it is assumed that the bangs may not appear because the hairstyle varies greatly from subject to subject.

図5(e)は、被検眼Eが光学ヘッド部100から見てxy方向における右上にずれている場合の例である。この例では、被検眼Eの瞳孔が画像の端に一部だけ存在する他に被検者の耳が画像に表れている。図5(f)は、被検眼Eが光学ヘッド部100から見て更にxy方向における右上にずれている場合の例である。この例では、被検眼Eの瞳孔が画像に存在せず、被検者の耳がより画像中央に近い位置に写っている。 FIG. 5E shows an example in which the subject's eye E is shifted to the upper right in the xy direction when viewed from the optical head unit 100 . In this example, the pupil of the subject's eye E exists only partially at the edge of the image, and the subject's ear appears in the image. FIG. 5(f) is an example in which the subject's eye E is further shifted to the upper right in the xy direction when viewed from the optical head unit 100. FIG. In this example, the pupil of the subject's eye E does not exist in the image, and the subject's ear appears closer to the center of the image.

図5(g)は、被検者が顔受け部160に顔を乗せていない場合の例を示している。この例では、OCT装置1が設置された部屋の様子が写っている。また、被検者が顔受け部160に顔を乗せていない場合には、光学ヘッド部100から被検者までの距離が遠いため、被検者の顔が図5(a)よりも小さく且つぼけて写っているような画像も想定される。 FIG. 5G shows an example in which the subject does not put his or her face on the face receiving section 160 . In this example, the state of the room in which the OCT apparatus 1 is installed is shown. Also, when the subject does not put his or her face on the face receiving section 160, the distance from the optical head section 100 to the subject is long, so the subject's face is smaller and A blurred image is also assumed.

以上のように、光学ヘッド部100と被検者の位置関係によって、前眼観察用画像には異なる特徴が見られる。これらの特徴は、後述する学習済モデルを精度よく構築する上で重要な特徴である。なお、ここで示した図は主に被検者の右眼に関する画像の例を示すが、左眼に関する画像では右眼と左右対称の特徴が見られる。 As described above, different characteristics are seen in the anterior eye observation image depending on the positional relationship between the optical head unit 100 and the subject. These features are important features for accurately constructing a trained model, which will be described later. Note that the diagrams shown here mainly show examples of images relating to the subject's right eye, but in the images relating to the left eye, features that are bilaterally symmetrical with those of the right eye can be seen.

(学習済モデルの構成)
ここで、後述のアライメント処理に用いる学習済モデルについて詳細に説明する。本実施例に係るアライメント処理では、前眼観察用画像の認識処理を、深層学習(ディープラーニング)による機械学習プロセスで学習したニューラルネットワークを用いて実装する。図6(a)及び図6(b)は、本実施例に係るニューラルネットワークモデル概略図の一例を示している。本実施例の学習済モデルは以下の2つのニューラルネットワークモデルを含む。
(Configuration of learned model)
Here, a detailed description will be given of a trained model used in the alignment process, which will be described later. In the alignment processing according to the present embodiment, the recognition processing of the anterior eye observation image is implemented using a neural network learned by a machine learning process based on deep learning. FIGS. 6A and 6B show an example of a schematic diagram of a neural network model according to this embodiment. The trained model of this embodiment includes the following two neural network models.

図6(a)は、前眼観察用画像の2次元ピクセル列データを入力とし、顔受け部160に被検者が顔を乗せている確率を表す値である被検者の存在確率Pを出力とするニューラルネットワークモデルの一例を示す。存在確率Pは0から1の値である。本実施例に係る被検者の存在確率Pを出力とする学習済モデルは、被検者が顔受け部160に顔を乗せた状態と乗せていない状態でそれぞれ取得した様々な前眼観察用画像を学習データとして学習している。 FIG. 6( a ) shows an input of the two-dimensional pixel string data of the image for anterior eye observation, and the presence probability P of the subject, which is a value representing the probability that the subject's face is placed on the face receiving section 160 . An example of an output neural network model is shown. The existence probability P is a value between 0 and 1. The learned model, which outputs the existence probability P of the subject according to the present embodiment, is obtained from various anterior eye observation models obtained when the subject puts the face on the face receiving unit 160 and when the subject does not put the face on the face receiving unit 160. Images are used as training data for learning.

顔を乗せていない状態の学習データの入力データには、OCT装置が設置され得る様々な検査室で、照明の強さや、OCT装置の向き、什器の配置などを変えながら取得した前眼観察用画像が含まれる。さらに、当該学習データの入力データには、被検者は写っているが、顔を顔受け部160に乗せていない画像も含まれることができる。例えば、被検者の顔以外の部位が写っている画像や、顔受け部160周辺よりも遠くに被検者が写っている画像が含まれることができる。これらの画像に対する正解データ(学習データの出力データ)としては、存在確率P=0を与える。 For the input data of the learning data without the face on it, the anterior eye observation data acquired while changing the lighting intensity, the orientation of the OCT device, the arrangement of the fixtures, etc. in various examination rooms where the OCT device can be installed. Contains images. Furthermore, the input data for the learning data may include an image in which the subject is shown but the face is not placed on the face receiving section 160 . For example, an image showing parts other than the face of the subject and an image showing the subject farther than the vicinity of the face receiving part 160 can be included. Existence probability P=0 is given as correct data (output data of learning data) for these images.

顔を乗せた状態の学習データの入力データには、年齢や、性別、人種、髪型、マスク着用有無など様々な条件の被検者に対して、光学ヘッド部100を様々な位置関係に配置した状態で取得した前眼観察用画像が含まれる。この中には、被検者の眼が画像の中に存在しないほどに被検眼Eと光学ヘッド部100の位置関係がずれ、眼以外の顔の一部のみが写っている画像も含まれることができる。これらの画像に対する正解データとしては、存在確率P=1を与える。 The input data of the learning data in which the face is placed includes the optical head unit 100 arranged in various positional relationships for subjects with various conditions such as age, gender, race, hairstyle, and wearing or not wearing a mask. An image for anterior eye observation acquired in the state of This includes an image in which the subject's eye E and the optical head unit 100 are out of position so that the subject's eye does not exist in the image, and only a part of the face other than the eye is shown. can be done. Existence probability P=1 is given as correct data for these images.

図6(b)は、前眼観察用画像の2次元ピクセル列データを入力とし、光学ヘッド部100の座標系において適切なアライメント位置からの被検眼Eのずれ量を出力とするニューラルネットワークモデルの一例を示す。なお、ずれ量としては、3次元位置の情報(Δx,Δy,Δz)が出力される。ずれ量Δx,Δy,Δzは、前眼観察用画像における被検眼Eの瞳孔の中心位置と、光学ヘッド部100により最も好適にOCT断層画像を撮影できる最適な位置との相対距離である。なお、当該最適な位置は、予め設計で決められた光学ヘッド部100に対する被検眼Eの瞳孔中心の相対位置とすることができる。 FIG. 6(b) shows a neural network model in which two-dimensional pixel row data of an anterior eye observation image is input and the amount of deviation of the subject's eye E from an appropriate alignment position in the coordinate system of the optical head unit 100 is output. Here is an example. Information (Δx, Δy, Δz) on the three-dimensional position is output as the displacement amount. The shift amounts Δx, Δy, and Δz are the relative distances between the center position of the pupil of the subject's eye E in the anterior eye observation image and the optimum position where the optical head unit 100 can most suitably capture an OCT tomographic image. The optimum position can be the relative position of the center of the pupil of the subject's eye E with respect to the optical head unit 100 determined in advance by design.

図6(b)に示されるモデルの学習データの入力データとしては、図6(a)に示されるモデルの学習データの入力データに用いた画像のうち、被検者が顔を乗せた状態の画像を用いることができる。このような画像を準備する場合には、光学ヘッド部100を被検眼に対してずらしながら画像を取得する際に、被検眼Eの瞳孔と光学ヘッド部100の位置を正確に記録しておくことで、正解データとなるずれ量Δx,Δy,Δzを精度よく与えることができる。 As the input data for the learning data of the model shown in FIG. 6(b), among the images used as the input data for the learning data of the model shown in FIG. Images can be used. When preparing such an image, the pupil of the subject's eye E and the position of the optical head section 100 should be accurately recorded when acquiring the image while shifting the optical head section 100 with respect to the subject's eye. , the deviation amounts Δx, Δy, and Δz, which are correct data, can be given with high accuracy.

以上の基本仕様に係るニューラルネットワークは、例えば入力層の後の中間層を畳み込み層とプーリング層の組み合わせで構成することで、柔軟なパターンの認識を行うことができる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)として構成できる。また、例えば、出力層の直近を最適値演算に適した全結合層(特に図示せず)で構成することもできる。 A neural network according to the above basic specifications is a convolutional neural network (CNN) that can recognize patterns flexibly by configuring an intermediate layer after the input layer, for example, by combining a convolutional layer and a pooling layer. Network). Also, for example, the immediate vicinity of the output layer can be configured with a fully connected layer (not shown in particular) suitable for optimum value calculation.

これらモデルの学習は、上述のような学習データを用いて、各ニューラルネットワークの入力層と出力層の間の関係性が成立するように、各ノード同士をつなぐ各エッジの重み係数を調整する、バックプロパゲーション法(誤差逆伝播法)により行うことができる。 The learning of these models uses the learning data described above to adjust the weighting coefficients of the edges that connect each node so that the relationship between the input layer and the output layer of each neural network is established. It can be performed by a back propagation method (backpropagation method).

具体的には、まず、学習モデルの入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。なお、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。次に、得られた誤差に基づいて、その誤差が小さくなるように、誤差逆伝播法を用いて、ニューラルネットワークのノード間の結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。なお、このような誤差逆伝播法の他にも、いわゆる積層オートエンコーダ、ドロップアウト、ノイズ付加、及びスパース正則化などの公知の多様な学習手法を併用して処理精度を向上させてもよい。 Specifically, first, the error between the output data output from the output layer of the neural network according to the input data input to the input layer of the learning model and the correct data is obtained. A loss function may be used to calculate the error between the output data from the neural network and the correct data. Next, based on the obtained error, the error backpropagation method is used to update the connection weighting coefficients between the nodes of the neural network and the like so that the error becomes smaller. The error backpropagation method is a method of adjusting the connection weighting coefficients and the like between nodes of each neural network so as to reduce the above error. In addition to the error backpropagation method, various known learning methods such as so-called layered autoencoder, dropout, noise addition, and sparse regularization may be used together to improve the processing accuracy.

このような学習データを用いて学習を行った学習済モデルにデータを入力すると、学習済モデルの設計及び学習データを用いてトレーニングされた傾向に従って、入力されたデータに対応する可能性の高いデータが出力される。本実施例では、上述した学習データを用いて学習した学習済モデルに前眼観察用画像を入力すると、被検者が顔受け部160に顔を乗せている確率(被検者の存在確率P)や、光学ヘッド部100と被検眼Eの瞳孔中心との相対距離(ずれ量Δx,Δy,Δz)が出力される。 When data is input to a trained model that has been trained using such learning data, data that is highly likely to correspond to the input data according to the design of the trained model and the tendency of training using the learning data. is output. In this embodiment, when an image for anterior eye observation is input to the trained model trained using the learning data described above, the probability that the subject puts his/her face on the face receiving unit 160 (existence probability P ) and the relative distance (shift amounts Δx, Δy, Δz) between the optical head unit 100 and the center of the pupil of the subject's eye E are output.

ここでは2つのモデルを含む学習済モデルを説明したが、本実施例に係る学習済モデル必ずしも2つのモデルに分けなくてもよい。1つのモデルで推定を行う場合、モデルの出力を前述の被検者の存在確率P、及びずれ量Δx,Δy,Δzの4つのパラメータとする方法が考えられる。このとき、被検者がいない画像に対してはずれ量が定義できないため、例えば、ずれ量の正解データを極端に大きな値とする方法が考えられる。このような場合には、位置ずれ推定部24は、ずれ量Δx,Δy,Δzを無視して、存在確率Pに基づいて被検者が顔受け部160に顔を乗せていないと判断してよい。 Although a trained model including two models has been described here, the trained model according to this embodiment does not necessarily have to be divided into two models. When one model is used for estimation, there is a method in which the output of the model is set to four parameters, ie, the existence probability P of the subject and the deviation amounts Δx, Δy, and Δz. At this time, since the deviation amount cannot be defined for an image without the subject, for example, a method of setting the correct data of the deviation amount to an extremely large value is conceivable. In such a case, the positional deviation estimating section 24 ignores the deviation amounts Δx, Δy, and Δz, and determines that the subject does not put the face on the face receiving section 160 based on the presence probability P. good.

また、被検者の存在確率Pを出力パラメータとした学習済モデルを用意せずに、ずれ量Δx,Δy,Δzを出力としたパラメータとした学習済モデルからの出力に基づいて、被検者が顔受け部160に顔を乗せているか否かが判断されてもよい。このとき、被検者がいない画像に対してはずれ量が定義できないため、例えば、ずれ量の正解データを極端に大きな値とする方法が考えられる。この場合には、位置ずれ推定部24は、学習済モデルから出力されるずれ量Δx,Δy,Δzが一定値(閾値)よりも大きい場合に、被検者が顔受け部160に顔を乗せていないと判断することができる。 Further, without preparing a trained model with the existence probability P of the subject as an output parameter, based on the output from the trained model with the deviation amounts Δx, Δy, and Δz as parameters, the subject is resting his/her face on the face receiving portion 160 or not. At this time, since the deviation amount cannot be defined for an image without the subject, for example, a method of setting the correct data of the deviation amount to an extremely large value is conceivable. In this case, the positional deviation estimating section 24 detects that the subject puts his or her face on the face receiving section 160 when the deviation amounts Δx, Δy, and Δz output from the learned model are larger than a certain value (threshold value). It can be determined that no

ここでは、ずれ量Δx、Δy、Δzとして、光学ヘッド部100に対する被検眼の相対距離を出力するモデルについて説明した。しかしながら、ずれ量として、相対距離ではなく、光学ヘッド部100に対して被検眼が位置する方向を出力するモデルを本実施例に適用してもよい。 Here, the model that outputs the relative distance of the subject's eye to the optical head unit 100 as the shift amounts Δx, Δy, and Δz has been described. However, a model that outputs the direction in which the subject's eye is positioned with respect to the optical head unit 100 instead of the relative distance may be applied to this embodiment as the amount of deviation.

特に、被検者の眼が画像に存在しない程に光学ヘッド部100と被検眼の位置関係がずれている場合においては、これらの相対距離を正確に推定するのは困難である。また、本実施例では、光学ヘッド部100と被検眼の位置関係がずれている場合には、後述するように光学ヘッド部100を被検眼Eに近づけてから再度ずれ量を推定するため、これらの位置関係が大きくずれている場合に相対距離を正確に推定する必要はない。したがって、光学ヘッド部100に対する被検眼の瞳孔中心の方向を出力するモデルとしてもよい。この場合、x方向、y方向、z方向の3つのパラメータを出力とし、それぞれのパラメータに関して瞳孔の方向に応じて+1又は-1を正解データとして学習させる方法が考えられる。なお、学習データの入力データは上述したものと同様のデータであってよい。 In particular, when the positional relationship between the optical head unit 100 and the subject's eye is so deviated that the subject's eye does not exist in the image, it is difficult to accurately estimate the relative distance between them. Further, in this embodiment, when the positional relationship between the optical head unit 100 and the subject's eye is deviated, the amount of deviation is estimated again after bringing the optical head unit 100 closer to the subject's eye E as described later. It is not necessary to accurately estimate the relative distance when the positional relationship between the two is greatly deviated. Therefore, a model that outputs the direction of the pupil center of the subject's eye with respect to the optical head unit 100 may be used. In this case, a method of outputting three parameters in the x, y, and z directions and learning +1 or -1 for each parameter according to the direction of the pupil as correct data is conceivable. The input data for learning data may be the same data as described above.

また、上下左右前後のそれぞれの優先度を示す6つのパラメータをモデルの出力とすることもできる。この場合には、正解データは、光学ヘッド部100を最も優先的に動かすべき方向のみ1として残りは0とすればよい。このようなモデルを用いることで、光学ヘッド部100を最も優先度が高いと推定された方向に移動させることができる。 In addition, six parameters indicating respective priorities of up, down, left, right, front and rear can be output from the model. In this case, the correct answer data should be 1 only in the direction in which the optical head unit 100 should be most preferentially moved and 0 in the rest. By using such a model, the optical head section 100 can be moved in the direction estimated to have the highest priority.

さらに、位置合わせが完了している状態を示すパラメータを加えた7つのパラメータをモデルの出力としてもよい。この場合には、位置合わせが完了している状態を示す正解データは、位置合わせが完了している状態を1として示し、位置合わせが完了していない状態を0として示せばよい。さらに、前述のように、1つのモデルで推定を行う場合には、被検者が顔受け部160に顔を乗せていないことを示す被検者不在フラグを8つ目のパラメータとしてもよい。この場合には、被検者不在フラグを示す正解データは、例えば、前述の被検者の存在確率Pが一定値以上のときに0、一定値未満のときに1となるような2値の情報であってよい。この例では、パラメータが1になるケースが排他的であるため、被検者が存在しないときに未定義となるパラメータがない。 Furthermore, seven parameters, including a parameter indicating the state of completion of alignment, may be output from the model. In this case, the correct data indicating the state in which the alignment is completed may indicate the state in which the alignment is completed as 1, and the state in which the alignment has not been completed as 0. Furthermore, as described above, when the estimation is performed using one model, the subject absence flag indicating that the subject does not put the face on the face receiving section 160 may be used as the eighth parameter. In this case, the correct data indicating the subject absence flag is, for example, a binary value that is 0 when the subject existence probability P is equal to or greater than a certain value and 1 when it is less than a certain value. It can be information. In this example, cases where the parameter is 1 are exclusive, so there are no undefined parameters when there is no subject.

また、モデルの出力や対応する正解データは、瞳孔の位置に関する情報ではなく、光学ヘッド部100及び顔受け部160を移動するための制御情報でもよい。この場合、例えば、光学ヘッド部100の駆動による騒音や、光学ヘッド部100の移動に対する被検者の恐怖感を考慮した最適な制御の順番や速度を出力としてもよい。 Also, the output of the model and the corresponding correct data may be control information for moving the optical head unit 100 and the face receiving unit 160 instead of the information regarding the position of the pupil. In this case, for example, the optimum control order and speed in consideration of the noise caused by driving the optical head unit 100 and the subject's fear of movement of the optical head unit 100 may be output.

また、モデルの出力や正解データのパラメータをさらに追加してもよい。例えば、眼鏡やサングラスを装着しているかどうか示すパラメータを追加のパラメータとして出力するようにしてもよい。この場合、駆動制御部22は、当該パラメータに基づく位置ずれ推定部24の出力に従って、眼鏡やサングラスを装着している被検者に対して、例えば、光学ヘッド部100と顔受け部160の移動を行わないようにステージ部150等の移動部を制御することができる。また、制御部20は、撮影の前に眼鏡やサングラスを外すよう警告メッセージを表示部40に表示させることができる。この場合には、学習の際に眼鏡やサングラスを装着した画像及び眼鏡やサングラスの装着有無の情報を学習データの入力データ及び出力データとして与えればよい。 In addition, parameters of model outputs and correct data may be added. For example, a parameter indicating whether the user is wearing spectacles or sunglasses may be output as an additional parameter. In this case, the drive control unit 22 moves, for example, the optical head unit 100 and the face receiving unit 160 with respect to the subject wearing spectacles or sunglasses, according to the output of the positional deviation estimation unit 24 based on the parameter. It is possible to control the moving part such as the stage part 150 so as not to perform the Also, the control unit 20 can cause the display unit 40 to display a warning message to remove the spectacles or sunglasses before photographing. In this case, an image of the user wearing eyeglasses or sunglasses and information on whether or not the eyeglasses or sunglasses are worn may be given as input data and output data of the learning data during learning.

同様に、モデルは、眼を開けているかどうかを示すパラメータを追加のパラメータとして出力してもよい。駆動制御部22は、当該パラメータに基づく位置ずれ推定部24の出力に従って、目を閉じている被検者に対して、例えば、光学ヘッド部100及び顔受け部160の移動を行わないようにステージ部150等の移動部を制御することができる。また、制御部20は、眼を開けるよう促す音声を不図示のスピーカ等により出力させることができる。この場合も同様に、眼を閉じた画像及び眼の開閉状態の情報を学習データの入力データ及び出力データとして与えればよい。 Similarly, the model may output a parameter indicating whether the eyes are open as an additional parameter. The drive control unit 22 controls the stage so as not to move the optical head unit 100 and the face receiving unit 160 for the subject whose eyes are closed according to the output of the positional deviation estimation unit 24 based on the parameters. A moving part, such as part 150, can be controlled. In addition, the control unit 20 can cause a speaker (not shown) or the like to output a sound prompting the user to open their eyes. In this case, similarly, an image with the eyes closed and information on the open/closed state of the eyes may be given as input data and output data of the learning data.

さらに、モデルは、右眼の推定瞳孔位置と左眼の推定瞳孔位置を別々に両方出力してもよい。このような構成では、光学ヘッド部100が右眼側に位置している場合であっても、左眼の瞳孔へ最短距離で移動させる制御を行うことができる。この場合には、学習の際に、右眼の推定瞳孔位置及び左眼の推定瞳孔位置を学習データの出力データとして与えればよい。なお、モデルは上述したパラメータ以外のパラメータを出力してもよい。 Further, the model may output both the estimated right eye pupil position and the estimated left eye pupil position separately. With such a configuration, even when the optical head unit 100 is positioned on the right eye side, control can be performed to move the optical head unit 100 to the pupil of the left eye at the shortest distance. In this case, during learning, the estimated pupillary position of the right eye and the estimated pupillary position of the left eye may be given as output data of learning data. Note that the model may output parameters other than the parameters described above.

また、ここでは前眼観察用画像を特別加工せずにモデルの入力データとして用いているが、何らかの加工や解析を行った結果を入力データとして用いてもよい。例えば、輝度やコントラストの調整を行った画像、エッジを検出した画像、又はルールベースの画像処理で何らかの特徴点を抽出した画像(2次元座標に対応するデータを含む)を入力データとして用いてもよい。ここで、ルールベースの処理とは既知の規則性、例えば網膜の形状の規則性等の既知の規則性を利用した処理をいう。 Also, here, the anterior eye observation image is used as input data for the model without special processing, but the result of some processing or analysis may be used as the input data. For example, an image with adjusted brightness or contrast, an image with detected edges, or an image with some feature points extracted by rule-based image processing (including data corresponding to two-dimensional coordinates) can be used as input data. good. Here, rule-based processing refers to processing that uses known regularity, such as the regularity of the shape of the retina.

さらに、画像に関連した情報以外の情報を入力データとして加えてもよい。例えば、現在の光学ヘッド部100の移動方向と移動速度を入力データに加えることで、画像取得時刻よりも後の、実際に光学ヘッド部100の移動に反映するタイミングにおける瞳孔のずれ量を予測することができる。 Furthermore, information other than image-related information may be added as input data. For example, by adding the current moving direction and moving speed of the optical head unit 100 to the input data, the amount of deviation of the pupil at the timing that is actually reflected in the movement of the optical head unit 100 after the image acquisition time is predicted. be able to.

また、被検眼に散瞳剤を点しているかどうかを入力データに加えてもよい。散瞳剤を点した被検眼では瞳孔が拡大するため、このような被検眼を撮影した場合には、前眼観察用画像として異なる特徴を有する画像が得られる。そのため、学習済モデルを構築する際に散瞳剤を点しているかの情報を入力として加えると、より精度の高いモデルを構築できる可能性がある。また、ここで挙げていない他のパラメータを入力データとして加えてもよい。 In addition, whether or not a mydriatic agent is applied to the subject's eye may be added to the input data. Since the pupil of the subject's eye to which the mydriatic agent is instilled is enlarged, an image having different characteristics can be obtained as an anterior eye observation image when such a subject's eye is photographed. Therefore, if information on whether or not a mydriatic agent is applied is added as an input when constructing a trained model, it may be possible to construct a more accurate model. Also, other parameters not listed here may be added as input data.

なお、処理アルゴリズムは、図示したニューラルネットワークを用いた深層学習(ディープラーニング)によるもの以外にも、例えばサポートベクターマシンやベイジアンネットワーク等を利用した他の処理アルゴリズムを適用してもよい。また、前眼観察用画像は連続で取得することが想定される動画像であるため、時系列のデータの扱いに適したRNN(Recurrent Neural Network)を用いてもよい。RNNの入力には以前の画像フレームの情報を用いるため、RNNを用いることで、より経時変化を踏まえた推定を行うことができる。 As for the processing algorithm, in addition to deep learning using the illustrated neural network, other processing algorithms such as support vector machines and Bayesian networks may be applied. In addition, since the anterior eye observation images are moving images that are assumed to be acquired continuously, an RNN (Recurrent Neural Network) suitable for handling time-series data may be used. Since the information of the previous image frame is used for the input of the RNN, the use of the RNN makes it possible to perform estimation based on changes over time.

この場合、例えば、被検者が顔を乗せた画像が複数フレーム連続で入力されたときに、より高い被検者の存在確率Pを出力するモデルの構築が可能である。また、瞳孔の推定相対位置の情報(ずれ量Δx,Δy,Δz)の値が急激に大きく変化することがないようなモデルの構築が可能であり、瞳孔の位置の誤推定を防止できる可能性がある。 In this case, for example, it is possible to construct a model that outputs a higher presence probability P of the subject when a plurality of frames of images in which the subject's face is placed are input in succession. In addition, it is possible to construct a model in which the values of the estimated relative position of the pupil (deviation amounts Δx, Δy, Δz) do not change abruptly and greatly, and it is possible to prevent erroneous estimation of the position of the pupil. There is

(断層画像の撮影フロー)
次に、図7を参照して、本実施例に係る検査に関する画像撮影のフローをステップ順に説明する。図7は、本実施例に係る検査の一連の処理を示すフローチャートである。
(Tomographic image capturing flow)
Next, with reference to FIG. 7, the flow of image capturing for inspection according to the present embodiment will be described in order of steps. FIG. 7 is a flow chart showing a series of inspection processes according to the present embodiment.

まず、ステップS701では、検者が入力部50によって被検者情報を制御部20に入力する。ここでは、当該操作により検査が開始される構成とする。 First, in step S<b>701 , the examiner inputs subject information to the control unit 20 through the input unit 50 . Here, the configuration is such that the inspection is started by the operation.

次にステップS702では、駆動制御部22が顔受け部160及び光学ヘッド部100を所定の位置に移動させる。当該所定の位置は、例えば、最も標準的な大きさの顔の被検者に合わせて予め設計で決められた位置であってよい。 Next, in step S702, the drive control section 22 moves the face receiving section 160 and the optical head section 100 to predetermined positions. The predetermined position may be, for example, a position pre-designed for a subject with a most standard face size.

次にステップS703において、画像生成部23が前眼観察用画像を生成する。より具体的には、駆動制御部22が前眼観察用光源122を点灯させ、画像生成部23が赤外線CCD112から出力される信号に基づいて前眼観察用画像を生成する。 Next, in step S703, the image generator 23 generates an anterior eye observation image. More specifically, the drive control unit 22 turns on the anterior eye observation light source 122 , and the image generation unit 23 generates the anterior eye observation image based on the signal output from the infrared CCD 112 .

次にステップS704では、位置ずれ推定部24が、学習済モデルを用いて被検者の存在確率P及び光学ヘッド部100に対する被検眼の瞳孔のずれ量Δx,Δy,Δzを含む瞳孔情報を推定する。具体的には、位置ずれ推定部24は、前述の学習済モデルにステップS703で取得した前眼観察用画像を入力として与え、得られた出力を用いてこれらの情報を推定する。 Next, in step S704, the positional deviation estimator 24 uses the learned model to estimate the existence probability P of the subject and the pupil information including the deviation amounts Δx, Δy, and Δz of the pupil of the subject's eye with respect to the optical head unit 100. do. Specifically, the positional deviation estimating unit 24 inputs the anterior eye observation image acquired in step S703 to the above-described trained model, and estimates these pieces of information using the obtained output.

次にステップS705では、位置ずれ推定部24が、顔受け部160に被検者が顔を乗せているかどうかを判断(推定)する。具体的には、位置ずれ推定部24は、ステップS704で推定した被検者の存在確率Pの値が一定以上であれば、被検者が顔を乗せていると判断する。位置ずれ推定部24が、ステップS705で被検者が顔を乗せていないと判断した場合には、まだアライメントを開始できないと判断し、処理がステップS703に戻る。一方で、位置ずれ推定部24が、ステップS705で被検者が顔を乗せていると判断した場合、処理はステップS706に移行する。 Next, in step S<b>705 , the positional deviation estimator 24 determines (estimates) whether or not the face of the subject is placed on the face receiving section 160 . Specifically, if the value of the existence probability P of the subject estimated in step S704 is equal to or greater than a certain value, the positional deviation estimating unit 24 determines that the subject is resting his or her face on it. If the positional deviation estimating unit 24 determines in step S705 that the subject does not put the face on it, it determines that the alignment cannot be started yet, and the process returns to step S703. On the other hand, if the positional deviation estimating unit 24 determines in step S705 that the subject puts his/her face on it, the process proceeds to step S706.

ステップS706では、位置ずれ推定部24は装置のアライメント状態を判断する。具体的には、位置ずれ推定部24は、ステップS704で推定したずれ量Δx,Δy,Δzに基づいて、装置のアライメント情報の判断を行う。位置ずれ推定部24は、例えば、ずれ量Δx,Δy,Δzと閾値Tx,Ty,Tzを比較することによって当該判断を行う。閾値は、OCT断層画像を好適に撮影できるように予め設計で決められた値とすることができる。 In step S706, the positional deviation estimator 24 determines the alignment state of the apparatus. Specifically, the positional deviation estimation unit 24 determines the alignment information of the apparatus based on the deviation amounts Δx, Δy, and Δz estimated in step S704. The positional deviation estimator 24 makes the determination, for example, by comparing the deviation amounts Δx, Δy, Δz with the thresholds Tx, Ty, Tz. The threshold can be a value predetermined by design so that an OCT tomographic image can be suitably captured.

位置ずれ推定部24は、アライメント完了条件である|Δx|<Tx、|Δy|<Ty、且つ|Δz|<Tzが満たされるとき、アライメント状態が適正であると判断(推定)する。一方で、当該アライメント完了条件が満たされない場合には、位置ずれ推定部24はアライメント状態が不適正であると判断(推定)する。なお、位置ずれ推定部24は、被検眼Eと光学ヘッド部100の位置関係が安定してからアライメント状態が適正であると判断するために、上記アライメント完了条件を複数回連続で満たされた場合にのみ、アライメント状態が適正であると判断してもよい。 The positional deviation estimator 24 determines (estimates) that the alignment state is proper when the alignment completion conditions |Δx|<Tx, |Δy|<Ty, and |Δz|<Tz are satisfied. On the other hand, when the alignment completion condition is not satisfied, the positional deviation estimation unit 24 determines (estimates) that the alignment state is inappropriate. Note that the positional deviation estimating unit 24 determines that the alignment state is proper after the positional relationship between the eye E to be inspected and the optical head unit 100 is stabilized. It may be determined that the alignment state is correct only when the

ステップS706でアライメント状態が不適正であると判断された場合には、処理はステップS707に移行する。ステップS707では、駆動制御部22が、顔受け部160の駆動部材及びステージ部150を制御して、顔受け部160及び光学ヘッド部100の少なくとも一方を瞳孔推定位置に基づいて移動させる。 If it is determined in step S706 that the alignment state is inappropriate, the process proceeds to step S707. In step S707, the drive control section 22 controls the driving member of the face receiving section 160 and the stage section 150 to move at least one of the face receiving section 160 and the optical head section 100 based on the estimated pupil position.

具体的には、位置ずれ推定部24は、ステップS704で推定した瞳孔の相対位置の情報(ずれ量Δx,Δy,Δz)を駆動制御部22に送る。駆動制御部22はステージ部150等の移動部を制御して、|Δy|が所定値より大きい場合には顔受け部160を、所定値以下の場合には光学ヘッド部100を移動させる。ここで、顔受け部160を移動させる場合には、駆動制御部22は、情報Δyの符号に基づいて|Δy|が小さくなる方向を顔受け部160の移動方向とし、顔受け部160の駆動部材を制御して、Δyに対応する距離だけ顔受け部160移動させることができる。なお、xz方向のずれに関しては、駆動制御部22はステージ部150を制御して光学ヘッド部100を移動させる。また、光学ヘッド部100の移動距離は、ずれ量Δx,Δy,Δzに対応する距離とすることができる。 Specifically, the positional deviation estimator 24 sends the information on the relative positions of the pupils (deviation amounts Δx, Δy, Δz) estimated in step S<b>704 to the drive controller 22 . The drive control section 22 controls the moving section such as the stage section 150 to move the face receiving section 160 when |Δy| Here, when the face receiving portion 160 is to be moved, the drive control portion 22 sets the moving direction of the face receiving portion 160 to the direction in which |Δy| The member can be controlled to move the face receiving portion 160 a distance corresponding to Δy. As for the deviation in the xz direction, the drive control section 22 controls the stage section 150 to move the optical head section 100 . Also, the moving distance of the optical head unit 100 can be a distance corresponding to the deviation amounts Δx, Δy, and Δz.

ここで、顔受け部160及び光学ヘッド部100の移動には時間がかかるため、移動中に被検眼Eが動いてしまうことが考えられる。そのため、制御部20は、ステップS707において顔受け部160及び光学ヘッド部100の移動を開始したすぐ後に、処理をステップS703に戻して新しい画像を取得し、ステップS706でアライメント状態が適正であると判断されるまで上記制御を繰り返す。 Here, since it takes time to move the face receiving part 160 and the optical head part 100, it is conceivable that the subject's eye E may move during the movement. Therefore, immediately after starting the movement of the face receiving unit 160 and the optical head unit 100 in step S707, the control unit 20 returns the processing to step S703 to obtain a new image, and determines in step S706 that the alignment state is appropriate. The above control is repeated until determination is made.

ステップS706でアライメント状態が適正であると判断された場合には、処理はステップS708に移行する。ステップS708では、制御部20がOCT撮影を行う。具体的には、駆動制御部22が光源118、Xスキャナ114-1、Yスキャナ114-2、及びレンズ115等の駆動を制御し、画像生成部23がラインセンサ184から出力される干渉信号に基づいてOCT断層画像を生成する。これにより、制御部20は、適正な位置でOCT断層画像を得ることができる。なお、ステップS708において、制御部20は、眼底観察用のCCD105を用いて取得した眼底観察画像等を用いてより詳細なアライメントを行った上で、OCT撮影を行ってもよい。ステップS708でのOCT撮影処理が終了すると、ステップS709において検査が完了する。 If it is determined in step S706 that the alignment state is proper, the process proceeds to step S708. In step S708, the control unit 20 performs OCT imaging. Specifically, the drive control unit 22 controls the driving of the light source 118, the X scanner 114-1, the Y scanner 114-2, the lens 115, etc., and the image generation unit 23 responds to the interference signal output from the line sensor 184. Based on this, an OCT tomographic image is generated. Thereby, the control unit 20 can obtain an OCT tomographic image at an appropriate position. In step S708, the control unit 20 may perform OCT imaging after performing more detailed alignment using a fundus observation image or the like acquired using the CCD 105 for fundus observation. When the OCT imaging process in step S708 ends, the examination is completed in step S709.

ここでは片眼のみの検査フローを説明したが、両眼続けてOCT撮影を行う検査フローとしてもよい。その場合、右眼と左眼それぞれについて上記フローを実行すればよい。 Although the examination flow for only one eye has been described here, the examination flow may be one in which OCT imaging is performed for both eyes in succession. In that case, the above flow may be executed for each of the right eye and the left eye.

本実施例では、ステップS701の被検者情報の入力は、検査の開始を示す役割を兼ねている。しかしながら、検査の開始方法はこれに限るものではない。例えば、OCT装置1の電源を入れる操作等を検査の開始としてもよい。あるいは、被検者情報とは異なる検査開始を示す専用の入力を入力部50によって与えることを検査の開始としてもよい。また、前の検査が終わったことを次の検査の開始としてもよい。 In this embodiment, the input of subject information in step S701 also serves to indicate the start of examination. However, the method of starting the inspection is not limited to this. For example, an operation such as turning on the power of the OCT apparatus 1 may be used as the start of the examination. Alternatively, the examination may be started by providing a dedicated input indicating the examination start, which is different from the subject information, through the input unit 50 . Also, the end of the previous inspection may be regarded as the start of the next inspection.

また、ステップS702における初期位置への移動は簡略化してもよい。すなわち、初期位置への到着を待たずにステップS703へ進んでもよい。初期位置への到着を待たずにステップS703へ進む場合には、次のような効果が得られる。最初から被検者が顔受け部160に顔を乗せていた場合、光学ヘッド部100が初期位置へ到達する前に推定された被検眼Eの瞳孔の相対位置(ずれ量Δx,Δy,Δz)への移動に切り替えることができ、検査時間を短縮することができる。特に、両眼について続けてOCT撮影を行う検査フローにおいては、この制御によって検査時間を大きく短縮できる。すなわち、一方の眼の検査の後、他方の眼の検査の初期位置へ移動している間に当該他方の瞳孔位置を推定して最短距離で当該他方の眼に向かうことができる。 Also, the movement to the initial position in step S702 may be simplified. That is, the process may proceed to step S703 without waiting for arrival at the initial position. When proceeding to step S703 without waiting for arrival at the initial position, the following effects can be obtained. When the subject puts the face on the face receiving section 160 from the beginning, the relative position of the pupil of the subject's eye E estimated before the optical head section 100 reaches the initial position (amount of deviation Δx, Δy, Δz) The inspection time can be shortened. In particular, in an examination flow in which OCT imaging is performed continuously for both eyes, this control can greatly reduce the examination time. That is, after testing one eye, while moving to the initial position for testing the other eye, it is possible to estimate the pupil position of the other eye and head toward the other eye at the shortest distance.

さらに、ステップS704で学習済モデルを用いて推定する情報は被検者の存在確率P及び瞳孔のずれ量Δx,Δy,Δzの全てである必要はなく、一部でもよい。この場合、学習済モデルを用いて推定しない情報は、ルールベースなど他の手段を用いて推定するか、あるいは予め決められた制御のみを行う構成とすることが考えられる。 Furthermore, the information estimated using the learned model in step S704 need not be all of the subject's existence probability P and the pupil deviation amounts Δx, Δy, and Δz, but may be some of them. In this case, it is conceivable that information that is not estimated using the learned model is estimated using other means such as a rule base, or that only predetermined control is performed.

例えば、被検者の存在確率Pのみを学習済モデルで推定する場合、瞳孔のずれ量はルールベースの画像解析で推定することができる。ルールベースの画像解析としては、例えば前眼観察用画像を二値化して、瞳孔、眉、及び鼻などの顔の特徴を認識して、瞳孔のずれ量Δx,Δyを推定する処理を行うことができる。さらに、画像から2つの角膜輝点を検出し、その間隔から瞳孔のずれ量Δzを推定することができる。なお、瞳孔のずれ量Δx,Δy,Δzに関する3軸のうち一部の軸に関する位置情報のみ学習済モデルを用いて推定する構成の場合でも、残りの軸に関する位置情報は同様の画像処理を用いて求めることができる。 For example, when only the existence probability P of the subject is estimated by the trained model, the amount of pupil deviation can be estimated by rule-based image analysis. As rule-based image analysis, for example, an anterior eye observation image is binarized, facial features such as pupils, eyebrows, and nose are recognized, and processing is performed to estimate pupil deviation amounts Δx and Δy. can be done. Furthermore, two corneal bright spots can be detected from the image, and the displacement amount Δz of the pupil can be estimated from the interval between them. It should be noted that even in the case of a configuration in which only the position information about some of the three axes related to the displacement amounts Δx, Δy, and Δz of the pupil is estimated using the learned model, the position information about the remaining axes is obtained using the same image processing. can be asked for.

また、瞳孔のずれ量のみを学習済モデルで推定する場合、被検者の存在確率Pは判断せず、常に被検者が顔受け部160に顔を乗せているという前提で制御してもよい。検査を開始してから被検者が顔受け部160に顔を乗せるまでの時間が短い又はゼロであれば、常に被検者が顔を乗せているという前提で制御しても支障がない。あるいは、顔受け部160にセンサを設け、被検者が顔を乗せたことをそのセンサで検知する制御としてもよい。 Further, when estimating only the amount of deviation of the pupil by the trained model, the existence probability P of the subject is not determined, and control is performed on the premise that the subject always puts the face on the face receiving section 160. good. If the time from the start of the examination until the subject puts his/her face on the face receiving section 160 is short or zero, control can be performed on the assumption that the subject always puts his or her face on the face receiving section 160 . Alternatively, the control may be such that a sensor is provided in the face receiving section 160 and the sensor detects that the face of the subject is placed thereon.

また、前述したようにステップS704で被検眼Eの瞳孔位置を推定する代わりに、瞳孔が位置する方向のみを推定してもよい。推定した方向にステップS707で光学ヘッド部100を所定量だけ移動させ、それを繰り返すことで光学ヘッド部100を瞳孔中心に段階的に近づけていくことができる。この場合、ステップS706においてアライメント状態が適正かどうかを判断する際には、位置ずれ推定部24は、例えば上述したルールベースの画像解析を用いることができる。あるいは、位置ずれ推定部24は、移動方向が一定以上の頻度で切り替わったときに光学ヘッド部100が瞳孔中心に十分近くなったと判断してもよい。 Further, instead of estimating the position of the pupil of the subject's eye E in step S704 as described above, only the direction in which the pupil is positioned may be estimated. In step S707, the optical head unit 100 is moved in the estimated direction by a predetermined amount, and by repeating this, the optical head unit 100 can be brought closer to the center of the pupil step by step. In this case, when judging whether the alignment state is proper in step S706, the positional deviation estimation unit 24 can use, for example, the rule-based image analysis described above. Alternatively, the positional deviation estimating section 24 may determine that the optical head section 100 has become sufficiently close to the center of the pupil when the moving direction is switched at a certain frequency or more.

さらに、ステップS705で顔受け部160に被検者が顔を乗せていないと判断された場合、上記フローでは処理をステップS703に戻すとしている。これに対し、ステップS705で顔受け部160に被検者が顔を乗せていないと判断された場合、処理をステップS702に戻し、駆動制御部22が、顔受け部160及び光学ヘッド部100を所定の位置に移動させるとしてもよい。あるいは、通常は処理をステップS703に戻す制御とし、被検者が顔を乗せていないという判断が一定回数連続した場合のみ、処理をステップS702に戻す制御としてもよい。例えば、顔受け部160に被検者が顔を乗せていない状態で一時的に被検者が顔を乗せていると誤って判断して顔受け部160又は光学ヘッド部100を移動させてしまった場合を仮定する。上記制御では、このような場合であっても、その後被検者が顔を乗せていないと正しく判断されたときに顔受け部160と光学ヘッド部100を検査開始時の位置に戻すことができる。 Further, if it is determined in step S705 that the face of the subject is not placed on the face receiving section 160, the flow returns to step S703. On the other hand, if it is determined in step S705 that the face of the subject is not placed on the face receiving section 160, the process returns to step S702, and the drive control section 22 causes the face receiving section 160 and the optical head section 100 to move. It may be moved to a predetermined position. Alternatively, control may be such that the process is normally returned to step S703, and the process is returned to step S702 only when it is determined that the subject does not put the subject's face on it for a given number of times. For example, when the face of the subject is not placed on the face receiving section 160, the face receiving section 160 or the optical head section 100 may be moved by erroneously judging that the subject is temporarily placing the face on the face receiving section 160. Suppose that With the above control, even in such a case, the face receiving section 160 and the optical head section 100 can be returned to the positions at the start of the examination when it is correctly determined that the face of the subject is not placed thereon. .

あるいは、顔受け部160に被検者が顔を乗せていないと判断されたときに、駆動制御部22が、その時点で光学ヘッド部100及び顔受け部160の移動を停止させる(静止させる)処理を行ってもよい。また、光学ヘッド部100及び顔受け部160が移動していない場合に、顔受け部160に被検者が顔を乗せていないと判断されたときには、駆動制御部22は、光学ヘッド部100及び顔受け部160を移動させない処理を行ってもよい。 Alternatively, when it is determined that the face of the subject is not placed on the face receiving section 160, the drive control section 22 stops the movement of the optical head section 100 and the face receiving section 160 at that time (stand still). processing may be performed. Further, when it is determined that the face of the subject is not placed on the face receiving section 160 when the optical head section 100 and the face receiving section 160 are not moving, the drive control section 22 controls the optical head section 100 and the face receiving section 160. A process of not moving the face receiving portion 160 may be performed.

また、ステップS705では、位置ずれ推定部24は、被検者の存在確率Pが一定以上であれば、顔受け部160に被検者が顔を乗せていると判断しているが、他の方法により被検者が顔を乗せているか否かを判断してもよい。例えば、顔受け部160に被検者が顔を乗せた直後は、姿勢を直すなどの動きによってまだ顔の位置が安定していないことが多いため、顔の位置がある程度安定したと判断してから被検者が顔を乗せたと判断するようにしてもよい。 In addition, in step S705, the positional deviation estimating unit 24 determines that the subject's face is placed on the face receiving unit 160 if the existence probability P of the subject is greater than or equal to a certain value. A method may be used to determine whether or not the subject has his/her face on it. For example, immediately after the subject puts the face on the face receiving section 160, the position of the face is often not stable due to movement such as correcting the posture, so it is determined that the position of the face has stabilized to some extent. Therefore, it may be determined that the subject has put his/her face on it.

具体的には、位置ずれ推定部24は、被検者の存在確率Pが一定以上となる結果が複数回連続で続いたときのみ、顔受け部160に被検者が顔を乗せていると判断してもよい。さらに、位置ずれ推定部24は、被検者の存在確率Pが一定以上であり、且つ、推定された瞳孔の相対位置(ずれ量Δx,Δy,Δz)の複数回の値の変化が一定より小さくなったときのみ、顔受け部160に被検者が顔を乗せていると判断してもよい。あるいは、位置ずれ推定部24は、被検者の存在確率Pが一定以上であり、且つ、画像の変化量が一定より小さくなったときに被検者が顔を乗せていると判断してもよい。画像の変化量は、例えば前のフレームの画像との差分を計算する処理によって得ることができる。 Specifically, the positional deviation estimating unit 24 determines that the subject's face is placed on the face receiving unit 160 only when the subject's presence probability P is equal to or greater than a certain value for a plurality of consecutive times. You can judge. Furthermore, the positional deviation estimating unit 24 determines that the existence probability P of the subject is equal to or greater than a certain value, and that the estimated relative positions of the pupils (the amounts of deviation Δx, Δy, and Δz) change more than once. It may be determined that the subject's face is placed on the face receiving section 160 only when it becomes smaller. Alternatively, the positional deviation estimating unit 24 may determine that the subject is placing his or her face when the existence probability P of the subject is equal to or greater than a certain value and the amount of change in the image is smaller than a certain value. good. The image change amount can be obtained, for example, by calculating the difference from the image of the previous frame.

また、ステップS706にエラー処理を追加してもよい。具体的には、一定時間経ってもアライメント状態が適正とならない場合には、制御部20が表示部40にメッセージを表示させる制御を追加してもよいし、駆動制御部22が光学ヘッド部100及び顔受け部160を初期位置に戻すような制御を追加してもよい。 Also, error processing may be added to step S706. Specifically, when the alignment state does not become proper even after a certain period of time has passed, the control unit 20 may add control to display a message on the display unit 40, or the drive control unit 22 may cause the optical head unit 100 to display a message. and control to return the face receiving portion 160 to the initial position.

さらに、ステップS707の制御対象には顔受け部160と光学ヘッド部100が両方含まれるが、片方のみでもよい。また、駆動制御部22は、顔受け部160と光学ヘッド部100を同時に移動させてもよい。 Furthermore, although both the face receiving section 160 and the optical head section 100 are included in the control targets in step S707, only one of them may be included. Further, the drive control section 22 may move the face receiving section 160 and the optical head section 100 at the same time.

なお、顔受け部160は被検者に直接接する部分であるため、顔受け部160を移動させるときに特別な制御を行ってもよい。例えば、顔受け部160を移動させると制御部20が判断したときに、一度警告メッセージを表示部40に表示させる処理や、検者の入力を待つ処理等を追加してもよい。それにより、顔受け部160が突然移動したことによって被検者が驚くおそれを低減できる。 In addition, since the face receiving part 160 is a portion that comes into direct contact with the subject, special control may be performed when the face receiving part 160 is moved. For example, when the control unit 20 determines that the face receiving unit 160 is to be moved, a process of once displaying a warning message on the display unit 40, a process of waiting for the examiner's input, or the like may be added. As a result, it is possible to reduce the possibility that the subject will be surprised by the sudden movement of the face receiving section 160 .

また、本実施例では、ステップS708のOCT撮影の間は光学ヘッド部100を移動させていないが、これに限るものではない。一度アライメント状態が適正であると判断された場合であっても、OCT撮影中に被検眼Eが動いてしまい、好適なOCT断層画像を取得できない可能性も考えられる。そのため、OCT撮影中もステップS703からステップS707によるアライメント制御を行い続ける構成としてもよい。 Also, in this embodiment, the optical head unit 100 is not moved during the OCT imaging in step S708, but the present invention is not limited to this. Even if it is once determined that the alignment state is appropriate, there is a possibility that the subject's eye E will move during OCT imaging, making it impossible to acquire a suitable OCT tomographic image. Therefore, the alignment control from step S703 to step S707 may be continued even during OCT imaging.

また、プレビュー画面に表示される前眼観察用画像の動画像を用いて、アライメント処理を行う場合には、これらの処理は動画像の1フレーム毎に行われてもよいし、動画像の所定のフレーム数毎に行われてもよい。 Further, when the alignment process is performed using the moving image of the anterior eye observation image displayed on the preview screen, these processes may be performed for each frame of the moving image, or may be performed for each frame of the moving image. may be performed every number of frames.

なお、ステップS708におけるOCT撮影では、断層画像や眼底正面画像とともに、又はこれらに代えて、En-Face画像やOCTA正面画像等の画像が撮影されてもよい。ここで、En-Face画像とは、光干渉を用いて得たボリュームデータ(三次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影又は積算して生成される正面画像をいう。 In the OCT imaging in step S708, an image such as an En-Face image or an OCTA front image may be captured together with or instead of the tomographic image or front fundus image. Here, the En-Face image is at least a partial depth range of volume data (three-dimensional tomographic image) obtained using optical interference, and is defined based on two reference planes. A front image generated by projecting or integrating corresponding data onto a two-dimensional plane.

また、OCTA正面画像とは、複数のボリュームデータ間のモーションコントラストデータについて、上述の深度範囲に対応するデータを二次元平面に投影又は積算して生成したモーションコントラスト正面画像のことをいう。ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。 An OCTA front image is a motion contrast front image generated by projecting or accumulating data corresponding to the depth range described above on a two-dimensional plane for motion contrast data among a plurality of volume data. Here, the motion contrast data is data indicating changes between a plurality of volume data obtained by controlling the measurement light to scan the same region (same position) of the subject's eye a plurality of times.

ここで、上述したプレビュー画面において、眼底正面画像に代えて、所定の深度範囲に対応するEn-Face画像やOCTA正面画像が動画像として表示されてもよい。また、プレビュー画面において、断層画像に代えてOCTA断層画像が動画像として表示されてもよい。 Here, on the preview screen described above, instead of the fundus front image, an En-Face image or an OCTA front image corresponding to a predetermined depth range may be displayed as a moving image. Also, on the preview screen, an OCTA tomographic image may be displayed as a moving image instead of the tomographic image.

上記のように、本実施例に係るOCT装置1は、光学ヘッド部100と、顔受け部160と、ステージ部150及び顔受け部160の駆動部材と、赤外線CCD112と、位置ずれ推定部24とを備える。光学ヘッド部100は、被検眼を撮影するヘッド部の一例として機能する。顔受け部160は、被検者の顔を支える支持部の一例として機能する。ステージ部150、及び顔受け部160の駆動部材は、光学ヘッド部100及び顔受け部160とのうちの少なくとも一方を移動可能な移動部の一例として機能する。赤外線CCD112は、光学ヘッド部100側から顔受け部160側に向かって撮影する観察部の一例として機能する。本実施例では、赤外線CCD112は、光学ヘッド部100の前方、言い換えると被検者を配置する方向の前眼観察用画像を撮影する。 As described above, the OCT apparatus 1 according to the present embodiment includes the optical head section 100, the face receiving section 160, the driving members for the stage section 150 and the face receiving section 160, the infrared CCD 112, and the positional deviation estimating section 24. Prepare. The optical head unit 100 functions as an example of a head unit that photographs an eye to be examined. The face receiving part 160 functions as an example of a supporting part that supports the subject's face. The driving members of the stage section 150 and the face receiving section 160 function as an example of a moving section capable of moving at least one of the optical head section 100 and the face receiving section 160 . The infrared CCD 112 functions as an example of an observation section that captures images from the optical head section 100 side toward the face receiving section 160 side. In this embodiment, the infrared CCD 112 captures an anterior eye observation image in front of the optical head unit 100, in other words, in the direction in which the subject is arranged.

位置ずれ推定部24は、学習済モデルを用いて、被検者が顔受け部160に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とのうち少なくとも一方を推定する推定部の一例として機能する。本実施例で用いる学習済モデルは、瞳孔を含む被検眼の画像と瞳孔を含まない画像とを含む画像群を入力として学習した学習済モデルである。また、位置ずれ推定部24によって推定される被検眼の位置に関する情報は、被検眼の瞳孔の光学ヘッド部100に対する相対位置と光学ヘッド部100の位置を基準とした被検眼の瞳孔の位置の方向とのうち少なくとも一方を含む。 The position deviation estimating unit 24 is an estimating unit that estimates at least one of information regarding whether or not the subject places his/her face on the face receiving unit 160 and information regarding the position of the subject's eye using the learned model. Serves as an example. The trained model used in the present embodiment is a trained model that has been trained by inputting an image group including an image of the subject's eye that includes the pupil and an image that does not include the pupil. Information about the position of the eye to be inspected estimated by the positional deviation estimating unit 24 includes the relative position of the pupil of the eye to be inspected with respect to the optical head unit 100 and the direction of the position of the pupil of the eye to be inspected with respect to the position of the optical head unit 100. and at least one of

駆動制御部22は、赤外線CCD112によって撮影して得た画像を学習済モデルへの入力として用いて推定された結果に基づいて、移動部を制御する制御部の一例として機能する。本実施例では、駆動制御部22は、位置ずれ推定部24によって推定された相対位置と方向とのうち少なくとも一方に基づいて、光学ヘッド部100又は顔受け部160を移動させるように移動部を制御する。より具体的には、駆動制御部22は、位置ずれ推定部24によって被検者が顔受け部160に顔を乗せていることを示す情報が推定されたときに、前述の相対位置と方向とのうち少なくとも一方に基づいて、光学ヘッド部100と顔受け部160とのうち少なくとも一方を移動させるように移動部を制御する。 The drive control unit 22 functions as an example of a control unit that controls the moving unit based on the result estimated by using the image captured by the infrared CCD 112 as an input to the trained model. In this embodiment, the drive control unit 22 controls the moving unit to move the optical head unit 100 or the face receiving unit 160 based on at least one of the relative position and direction estimated by the positional deviation estimating unit 24. Control. More specifically, when the position deviation estimating unit 24 estimates information indicating that the subject puts his/her face on the face receiving unit 160, the drive control unit 22 determines the above-described relative position and direction. The moving unit is controlled to move at least one of the optical head unit 100 and the face receiving unit 160 based on at least one of the above.

また、駆動制御部22は、位置ずれ推定部24によって被検者が顔受け部160に顔を乗せていないことを示す情報が推定されたときに光学ヘッド部100と顔受け部160とのうち少なくとも一方を静止させる又は移動させないように移動部を制御する。なお、駆動制御部22は、位置ずれ推定部24によって被検者が顔受け部160に顔を乗せていないことを示す情報が推定されたときに光学ヘッド部100と顔受け部160とのうち少なくとも一方を所定の位置に移動させるように移動部を制御してもよい。 Further, the drive control unit 22 determines whether the optical head unit 100 or the face receiving unit 160 is positioned when the positional deviation estimating unit 24 estimates information indicating that the subject does not put the face on the face receiving unit 160 . The moving parts are controlled so that at least one of them remains stationary or does not move. It should be noted that the drive control unit 22 controls the position of the optical head unit 100 and the face receiving unit 160 when the information indicating that the subject does not put the face on the face receiving unit 160 is estimated by the misalignment estimating unit 24 . The moving part may be controlled to move at least one of them to a predetermined position.

このような構成によれば、検者が顔受け部160に顔を乗せた段階で自動的に検査が開始され、被検者の顔の大きさに関わらずアライメントが自動で行われる。そのため、被検者が顔受け部160に顔を乗せたことを確認してから検査開始操作を行う必要がなく、また、被検者の瞳孔が観察範囲に入るまで手動で装置を制御する必要がない。従って、本実施例に係るOCT装置1を用いることで、検者による手動操作の負荷を減少させることができる。 According to such a configuration, the examination is automatically started when the examiner puts the face on the face receiving section 160, and the alignment is automatically performed regardless of the size of the face of the examinee. Therefore, it is not necessary to confirm that the subject puts his/her face on the face receiving section 160 before starting the examination, and it is necessary to manually control the device until the pupil of the subject enters the observation range. There is no Therefore, by using the OCT apparatus 1 according to the present embodiment, it is possible to reduce the burden of manual operation by the examiner.

なお、本実施例では、赤外線CCD112を、被検眼の前眼部の画像を撮影する前眼観察部の一例として用いる。このため、アライメント用に別個のカメラ等を設ける必要がなくなるため、コストを低減するとともに装置を小型化することができる。 Note that, in this embodiment, the infrared CCD 112 is used as an example of an anterior ocular observation unit that captures an image of the anterior ocular segment of the subject's eye. Therefore, it is not necessary to provide a separate camera or the like for alignment, so the cost can be reduced and the size of the apparatus can be reduced.

また、駆動制御部22は、位置ずれ推定部24によって被検者が顔受け部160に顔を乗せていることを示す情報が推定された推定結果が一定時間続いたときに、前述の相対位置及び方向の少なくとも一方に基づいて、光学ヘッド部100と顔受け部160とのうち少なくとも一方を移動させるように移動部を制御してもよい。この場合には、顔の位置がある程度安定したと判断してから被検者が顔を乗せたと判断することができる。 Further, the drive control unit 22 determines that the above-described relative position is determined when the position deviation estimation unit 24 estimates the information indicating that the face of the subject is placed on the face receiving unit 160 continues for a certain period of time. and direction, the moving unit may be controlled to move at least one of the optical head unit 100 and the face receiving unit 160 . In this case, it can be determined that the subject's face has been put on it after it is determined that the position of the face has stabilized to some extent.

なお、本実施例では、学習済モデルは、被検者が支持部に顔を乗せているか否かに関する情報を出力として学習した学習済モデルと、被検眼の位置に関する情報を出力として学習した学習済モデルとを含む。そのため、位置ずれ推定部24は、それぞれの学習済モデルからの出力を用いて、被検者が顔受け部160に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とを推定する。 In the present embodiment, the trained model includes a trained model that outputs information regarding whether or not the subject puts his/her face on the support part, and a trained model that outputs information regarding the position of the subject's eye. including finished models. Therefore, the positional deviation estimating unit 24 uses the output from each trained model to estimate information regarding whether or not the subject puts his/her face on the face receiving unit 160 and information regarding the position of the subject's eye. .

これに対して、位置ずれ推定部24は、被検眼の瞳孔の光学ヘッド部100に対する相対位置を含む被検眼の位置に関する情報を出力として学習した学習済モデルのみを用いて、顔を乗せているか否かに関する情報と被検眼の位置に関する情報とを推定してもよい。この場合には、位置ずれ推定部24は、学習済モデルから出力された被検眼の位置に関する情報に基づいて、被検者が顔受け部160に顔を乗せているか否かに関する情報を推定することができる。例えば、位置ずれ推定部24は、学習済モデルから出力されたずれ量Δx,Δy,Δzが閾値よりも大きいときに、被検者が顔受け部160に顔を乗せていないと推定することができる。 On the other hand, the positional deviation estimating unit 24 uses only the learned model that has learned by outputting information about the position of the eye to be inspected including the relative position of the pupil of the eye to be inspected with respect to the optical head unit 100. Information regarding whether or not and information regarding the position of the subject's eye may be estimated. In this case, the positional deviation estimating section 24 estimates information regarding whether or not the subject rests his/her face on the face receiving section 160 based on the information regarding the position of the subject's eye output from the learned model. be able to. For example, the positional deviation estimating section 24 may estimate that the subject does not put the face on the face receiving section 160 when the deviation amounts Δx, Δy, and Δz output from the learned model are larger than the threshold values. can.

また、学習済モデルは、被検者が支持部に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とを出力として学習した1つの学習済モデルであってもよい。この場合、位置ずれ推定部24は、当該1つの学習済モデルからの出力を用いて、被検者が顔受け部160に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とを推定することができる。 Also, the trained model may be one trained model that has learned by outputting information regarding whether or not the subject puts his/her face on the support portion and information regarding the position of the subject's eye. In this case, the position deviation estimating unit 24 uses the output from the one trained model to obtain information about whether the subject puts his/her face on the face receiving unit 160 and information about the position of the subject's eye. can be estimated.

なお、OCT装置1は、検者の入力を受け付ける入力部50を更に備えることができる。この場合、位置ずれ推定部24は、入力部50によって検者の入力を受け付けたときに推定処理を開始してもよい。このような構成によれば、被検者が顔受け部160に顔を乗せたこと等を確認した上で、検者が上述の自動のアライメントの開始を指示することができる。 Note that the OCT apparatus 1 can further include an input unit 50 that receives input from the examiner. In this case, the positional deviation estimating unit 24 may start the estimation process when the input unit 50 receives input from the examiner. According to such a configuration, the examiner can instruct the start of the above-described automatic alignment after confirming that the face of the subject is placed on the face receiving section 160 or the like.

また、OCT装置1は、被検眼に指標を投影する投影部の一例として機能する前眼観察用光源122を更に備えることができる。この場合には、赤外線CCD112は、前眼観察用光源122によって被検眼に投影された指標の画像を含む画像を撮影することができる。位置ずれ推定部24は、前眼観察用画像に現れる指標に基づいて、ルールベースの処理により被検眼と光学ヘッド部100との位置関係を算出することができる。 In addition, the OCT apparatus 1 can further include an anterior eye observation light source 122 that functions as an example of a projection unit that projects an index onto the subject's eye. In this case, the infrared CCD 112 can capture an image including an index image projected onto the subject's eye by the anterior eye observation light source 122 . The positional deviation estimation unit 24 can calculate the positional relationship between the subject's eye and the optical head unit 100 by rule-based processing based on the index appearing in the anterior eye observation image.

さらに、学習済モデルが学習する画像群は、被検者が眼鏡を装着している画像と眼鏡を装着していない画像を含んでもよい。この場合、位置ずれ推定部24は、赤外線CCD112によって撮影して得た画像を学習済モデルへの入力として用いて、被検者が眼鏡を装着しているか否かに関する情報を更に推定することができる。この場合には、位置ずれ推定部24によって被検者が眼鏡を装着していることを示す情報が推定されたときには、光学ヘッド部100と顔受け部160とのうち少なくとも一方を移動させないように移動部を制御するように駆動制御部22を構成することができる。このような構成によれば、撮影の前に眼鏡を外すように被検者に注意を促すこと等を支援することができる。 Furthermore, the group of images learned by the trained model may include an image of the subject wearing eyeglasses and an image of the subject not wearing eyeglasses. In this case, the positional deviation estimating unit 24 can further estimate information regarding whether or not the subject is wearing spectacles using the image captured by the infrared CCD 112 as an input to the trained model. can. In this case, when information indicating that the subject is wearing spectacles is estimated by the positional deviation estimation unit 24, at least one of the optical head unit 100 and the face receiving unit 160 should not be moved. The drive control section 22 can be configured to control the moving section. According to such a configuration, it is possible to assist in calling attention to the subject to remove the spectacles before imaging.

また、学習済モデルが学習する画像群は、被検者が眼を開けている画像と眼を閉じている画像を含んでもよい。この場合、位置ずれ推定部24は、赤外線CCD112によって撮影して得た画像を学習済モデルへの入力として用いて、被検者が眼を開けているか否かに関する情報を更に推定することができる。この場合には、位置ずれ推定部24によって被検者が眼を閉じていることを示す情報が推定されたときには、光学ヘッド部100と顔受け部160とのうち少なくとも一方を移動させないように移動部を制御するように駆動制御部22を構成することができる。このような構成によれば、被検者が目をつぶってしまった際に取得された画像に基づくアライメントの誤作動等を防止することができる。 Also, the group of images learned by the trained model may include an image in which the subject's eyes are open and an image in which the subject's eyes are closed. In this case, the positional deviation estimating unit 24 can further estimate information regarding whether or not the subject has his/her eyes open by using the image captured by the infrared CCD 112 as an input to the trained model. . In this case, when the information indicating that the subject's eyes are closed is estimated by the positional deviation estimation unit 24, at least one of the optical head unit 100 and the face receiving unit 160 is moved so as not to be moved. The drive control section 22 can be configured to control the section. According to such a configuration, it is possible to prevent malfunction of alignment based on an image acquired when the subject closes his or her eyes.

なお、本実施例はOCT装置以外の眼科装置にも適用可能である。例えば、眼底カメラやSLO装置、眼屈折力測定装置、眼圧計など様々な眼科装置に本実施例に係るアライメント処理を適用可能である。その場合、図7のステップS708はその眼科機器に応じた撮影や測定となる。 Note that this embodiment can also be applied to an ophthalmologic apparatus other than an OCT apparatus. For example, the alignment processing according to this embodiment can be applied to various ophthalmologic apparatuses such as a fundus camera, an SLO apparatus, an eye refractive power measuring apparatus, and a tonometer. In that case, step S708 in FIG. 7 becomes imaging and measurement according to the ophthalmologic equipment.

また、本実施例に係るアライメント処理は、前眼正面画像の撮影や、前眼部OCTの撮影を行う装置にも適用可能である。特に眼底と前眼部の両方を撮影可能な装置においては、眼底撮影時と前眼部撮影時で作動距離(被検眼Eと光学ヘッド部100とのz方向の距離)が異なることが多い。その場合、共通の学習済モデルに対して、眼底撮影と前眼部撮影で異なるz方向のオフセット距離を加えて撮影する検査フローが考えられる。あるいは、眼底撮影と前眼部撮影のそれぞれで最適なz方向位置にアライメントするように、撮影の種類毎に別のモデルを学習させて用意してもよい。 In addition, the alignment processing according to the present embodiment can also be applied to an apparatus that captures an anterior eye front image and an anterior segment OCT. In particular, in an apparatus capable of photographing both the fundus and the anterior segment, the working distance (distance in the z direction between the subject's eye E and the optical head unit 100) often differs between when photographing the fundus and when photographing the anterior segment. In that case, an examination flow may be considered in which different z-direction offset distances are added to the fundus imaging and the anterior segment imaging with respect to a common trained model. Alternatively, different models may be trained and prepared for each type of imaging so that the optimal z-direction position is aligned for each of fundus imaging and anterior segment imaging.

(変形例1)
本変形例では、実施例1に記載のOCT装置を改良し、アライメント精度を向上させた例について説明する。具体的には、前眼に関して広域と狭域の2種類の画像を取得し、広域画像からは学習済モデルを用いて瞳孔の概略のずれ量を推定し、狭域画像からはルールベースの画像解析によって瞳孔の高精度なずれ量を推定する例を説明する。
(Modification 1)
In this modified example, an example in which the OCT apparatus described in Example 1 is improved to improve alignment accuracy will be described. Specifically, two types of images of the anterior eye, wide-area and narrow-area, are acquired, and from the wide-area image, a trained model is used to estimate the approximate deviation of the pupil, and from the narrow-area image, a rule-based image is obtained. An example of estimating a highly accurate amount of deviation of the pupil by analysis will be described.

まずアライメント精度の向上が求められる理由について説明する。OCT装置において、アライメントがずれているとOCT測定光束の一部が虹彩で遮蔽され、断層画像が暗くなるという問題がある。また、アライメントがずれていると角膜又は水晶体による眼底観察光の反射が撮像素子まで到達し、観察画像に不要な光が写り込むという問題がある。これらの問題は被検眼の瞳孔径や角膜形状にも依存するが、光学ヘッド部をより理想に近い位置にアライメントすることで影響を軽減させることができる。したがって、アライメント精度を向上させることがこれら問題の軽減に効果的である。 First, the reason why the alignment accuracy is required to be improved will be explained. In the OCT apparatus, if the alignment is off, part of the OCT measurement light flux is blocked by the iris, resulting in a dark tomographic image. Further, if the alignment is off, the reflection of the fundus observation light from the cornea or the lens reaches the imaging device, and there is a problem that unnecessary light is reflected in the observation image. Although these problems depend on the pupil diameter and corneal shape of the subject's eye, the effects can be reduced by aligning the optical head unit at a position closer to the ideal. Therefore, improving the alignment accuracy is effective in reducing these problems.

実施例1に記載のOCT装置では、図5に示される前眼観察用画像のように被検眼の周辺まで含んだ画像を取得する。これは、広い範囲が写っている画像の方が特徴を多く含むため、学習済モデルを構築する際に精度の高い学習済モデルが得られるからである。一方で、アライメント精度を向上させるためには分解能の高い画像、すなわち1画素当たりの画界が狭い画像を用いてより詳細な調整を行う必要がある。これは、前眼観察用画像のように広い範囲が写っている画像の代わりに、撮影範囲が狭い画像をアライメントに用いることを意味する。 The OCT apparatus described in Example 1 obtains an image including the periphery of the subject's eye, such as the anterior eye observation image shown in FIG. This is because an image in which a wide range is captured contains more features, and thus a highly accurate trained model can be obtained when constructing the trained model. On the other hand, in order to improve alignment accuracy, it is necessary to perform more detailed adjustments using a high-resolution image, that is, an image with a narrow field of view per pixel. This means that an image with a narrow shooting range is used for alignment instead of an image with a wide range such as an image for anterior eye observation.

また、例えば、図5に示される前眼観察用画像を用いてずれ量を求める場合、z方向のずれ量(Δz)を精度よく推定することは容易ではない。図5に示される前眼観察用画像は、画像のぼけ量や角膜輝点の間隔などz方向のずれ量に関する情報を含んだ画像である。しかしながら、ぼけ量ではずれ方向(前方又は後方)が分からないという問題があり、角膜輝点の間隔は角膜曲率に依存するため不正確さがあるという問題がある。このため、本変形例では、z方向ずれ量(Δz)を容易に推定可能で、高分解能な前眼観察用画像を用いる。 Further, for example, when obtaining the displacement amount using the anterior eye observation image shown in FIG. 5, it is not easy to accurately estimate the displacement amount (Δz) in the z direction. The image for anterior eye observation shown in FIG. 5 is an image containing information on the amount of deviation in the z direction, such as the amount of blurring of the image and the interval between corneal bright spots. However, there is a problem that the deviation direction (forward or backward) cannot be determined from the amount of blurring, and there is a problem that the distance between the corneal bright spots is inaccurate because it depends on the corneal curvature. Therefore, in this modified example, a high-resolution image for anterior eye observation is used, in which the z-direction deviation amount (Δz) can be easily estimated.

本変形例に係るOCT装置の概略構成及び光学レイアウトは、大部分が実施例1と同様であるため、図1、図2及び図4に示す構成を参照し、各構成について同じ参照符号を用いて説明を省略する。以下、本変形例に係るOCT装置について実施例1に係るOCT装置と異なる点を中心に説明する。 Since the schematic configuration and optical layout of the OCT apparatus according to this modified example are mostly the same as those in Example 1, the configurations shown in FIGS. explanation is omitted. The OCT apparatus according to this modified example will be described below, focusing on the differences from the OCT apparatus according to the first embodiment.

実施例1に係るOCT装置と異なる点として、まず、本変形例では、レンズ109,110,111の倍率が実施例1と異なり、赤外線CCD112によって得られる前眼観察用画像の撮影範囲が狭く分解能が高い。さらに、本変形例では、レンズ110にプリズムが装着されているという違いがある。以下、プリズム付きレンズ110とその効果について図8(a)及び図8(b)を用いて説明する。 As a difference from the OCT apparatus according to the first embodiment, first, in this modified example, the magnification of the lenses 109, 110, and 111 is different from that of the first embodiment, and the photographing range of the anterior eye observation image obtained by the infrared CCD 112 is narrow and the resolution is small. is high. Furthermore, in this modified example, there is a difference that a prism is attached to the lens 110 . The prism-equipped lens 110 and its effect will be described below with reference to FIGS. 8(a) and 8(b).

プリズム付きレンズ110には、図8(a)に示されるように、フレネルプリズム110-1,110-2が設けられている。なお、プリズム付きレンズ110は、フレネルプリズム110-1,110-2が被検眼Eの前眼部と共役となる位置に配置されている。なお、本変形例では、フレネルプリズム110-1,110-2のプリズム効果により、プリズム付きレンズ110を通る光束による像が光学ヘッド部100と被検眼Eとの距離に応じて上下に分割されるように、プリズム付きレンズ110を配置している。しかしながら、プリズム効果による像の分割方向は所望の構成に応じて任意に設定されてよく、プリズム付きレンズ110もこれに応じて任意の向きで配置されてよい。 The prism-equipped lens 110 is provided with Fresnel prisms 110-1 and 110-2, as shown in FIG. 8(a). The prism-equipped lens 110 is arranged at a position where the Fresnel prisms 110-1 and 110-2 are conjugate with the anterior segment of the eye E to be examined. In this modified example, due to the prism effect of the Fresnel prisms 110-1 and 110-2, the image formed by the luminous flux passing through the lens 110 with the prism is split vertically according to the distance between the optical head unit 100 and the subject's eye E. The prism-equipped lens 110 is arranged as shown. However, the direction in which the image is split by the prism effect may be arbitrarily set according to a desired configuration, and the prism-equipped lens 110 may be arranged in an arbitrary orientation accordingly.

ここで、光学ヘッド部100と被検眼Eとの位置関係、つまりアライメント位置が理想位置にある場合について述べる。この場合には、被検眼Eの前眼部からの反射・散乱光の光束は、プリズム付きレンズ110のフレネルプリズム110-1,110-2上に一度結像し、フレネルプリズム110-1,110-2のプリズム効果により、像が分割(イメージスプリット)される。しかしながら、赤外線CCD112の撮影面もフレネルプリズム110-1,110-2と共役なため、赤外線CCD112を用いて撮影された前眼観察用画像は、図8(b)の前眼観察用画像801のようになる。前眼観察用画像801では、前眼部像は画像の中心にあり、瞳孔像の上半分と下半分が合致している。 Here, the positional relationship between the optical head unit 100 and the subject's eye E, that is, the case where the alignment position is at the ideal position will be described. In this case, the luminous flux of the reflected/scattered light from the anterior segment of the eye to be examined E forms an image once on the Fresnel prisms 110-1 and 110-2 of the prism-equipped lens 110, and the Fresnel prisms 110-1 and 110 The -2 prism effect splits the image (image split). However, since the photographing surface of the infrared CCD 112 is also conjugate with the Fresnel prisms 110-1 and 110-2, the anterior eye observation image photographed using the infrared CCD 112 is different from the anterior eye observation image 801 in FIG. become. In the anterior eye observation image 801, the anterior eye image is in the center of the image, and the upper half and lower half of the pupil image match.

これに対し、アライメント位置がxy方向において理想位置にない場合には、前眼観察用画像は、図8(b)の前眼観察用画像802のようになる。前眼観察用画像802では、前眼部像が画像の中心からずれた位置にあるが、z方向の位置は理想位置にあるため瞳孔像の上半分と下半分が合致している。 On the other hand, when the alignment position is not at the ideal position in the xy direction, the anterior eye observation image becomes like the anterior eye observation image 802 in FIG. 8B. In the anterior eye observation image 802, the anterior eye image is at a position shifted from the center of the image, but since the position in the z direction is at an ideal position, the upper half and lower half of the pupil image match.

次に、アライメント位置がxy方向では理想位置にあり、z方向では理想位置よりも遠い(光学ヘッド部100と被検眼Eとの距離が理想距離より長い)場合には、前眼観察用画像は、図8(b)の前眼観察用画像803のようになる。前眼観察用画像803では、前眼部像は画像の中心にあるものの、瞳孔像の上半部と下半分がずれている。 Next, when the alignment position is at the ideal position in the xy direction and is farther than the ideal position in the z direction (the distance between the optical head unit 100 and the subject's eye E is longer than the ideal distance), the anterior eye observation image is , an anterior eye observation image 803 in FIG. 8B. In the anterior eye observation image 803, the anterior eye image is in the center of the image, but the upper and lower halves of the pupil image are shifted.

同様に、アライメント位置がxyz方向(又はxz方向若しくはyz方向)において理想位置にない場合には、赤外線CCD112を用いて撮影された前眼観察用画像において前眼部像は画像の中心からずれ、瞳孔像の上半分と下半分もずれることになる。例えば、アライメント位置がx方向において理想位置になく、且つ、z方向において理想位置よりも近い(光学ヘッド部100と被検眼Eとの距離が理想距離より短い)場合には、前眼観察用画像は図8(b)の前眼観察用画像804のようになる。前眼観察用画像804では、前眼観察用画像802では、前眼部像が画像の中心から横方向にずれた位置にあり、瞳孔像の上半部と下半分がずれている。なお、前眼観察用画像804では、瞳孔像の上半部と下半分のずれ方向が、前眼観察用画像803での瞳孔像の上半部と下半分のずれ方向と逆向きであり、それぞれの画像に対応するアライメント位置のz方向のずれ方向が逆になっていることが分かる。 Similarly, when the alignment position is not at the ideal position in the xyz direction (or xz direction or yz direction), the anterior eye image in the anterior eye observation image captured using the infrared CCD 112 is shifted from the center of the image, The upper and lower halves of the pupil image are also shifted. For example, when the alignment position is not at the ideal position in the x direction and is closer than the ideal position in the z direction (the distance between the optical head unit 100 and the subject's eye E is shorter than the ideal distance), the anterior eye observation image becomes like the anterior eye observation image 804 in FIG. 8B. In the anterior eye observation image 804 , in the anterior eye observation image 802 , the anterior eye image is positioned laterally displaced from the center of the image, and the upper and lower halves of the pupil image are displaced. In the anterior eye observation image 804, the direction of displacement between the upper half and the lower half of the pupil image is opposite to the direction of displacement between the upper and lower halves of the pupil image in the anterior eye observation image 803. It can be seen that the shift directions in the z direction of the alignment positions corresponding to the respective images are reversed.

このような前眼観察用画像を用いる場合には、位置ずれ推定部24は、画像に瞳孔が写っていればルールベースの画像解析によって瞳孔のずれ量Δx,Δy,Δzを求めることができる。具体的には、位置ずれ推定部24は、まず、前眼観察用画像を適切な閾値で二値化することで、瞳孔領域のみを検出する。位置ずれ推定部24は、検出した瞳孔領域の重心と画像の中心の相対距離に既定の係数をかけることで瞳孔のずれ量Δx,Δyを得ることができる。なお、当該規定の係数は、1ピクセルあたりの前眼部における距離に対応し、設計に応じて定められる設計値である。さらに、位置ずれ推定部24は、検出した瞳孔領域をプリズムの境界で上下に分離し、上下それぞれで重心を算出して重心同士の横方向の差からプリズムによる像のずれ量を求めることができる。位置ずれ推定部24は、求めたプリズムによる像のずれ量に対して、既定の係数をかけることにより瞳孔のずれ量Δzを求めることができる。当該規定の係数は、イメージスプリットに関する1ピクセルあたりのz方向の距離に対応する設計値である。 When such an image for anterior eye observation is used, the positional deviation estimator 24 can obtain the deviation amounts Δx, Δy, and Δz of the pupil by rule-based image analysis if the pupil is shown in the image. Specifically, the positional deviation estimation unit 24 first detects only the pupil region by binarizing the anterior eye observation image with an appropriate threshold value. The positional deviation estimator 24 can obtain the pupil deviation amounts Δx and Δy by multiplying the detected relative distance between the center of gravity of the pupil region and the center of the image by a predetermined coefficient. The specified coefficient is a design value that corresponds to the distance in the anterior segment per pixel and is determined according to the design. Furthermore, the positional deviation estimating unit 24 can divide the detected pupil region into upper and lower parts at the boundary of the prism, calculate the center of gravity for each of the upper and lower parts, and obtain the amount of image deviation due to the prism from the difference in the horizontal direction between the centers of gravity. . The positional deviation estimator 24 can obtain the amount of deviation Δz of the pupil by multiplying the determined amount of deviation of the image by the prism by a predetermined coefficient. The prescribed factor is a design value corresponding to the z-direction distance per pixel for image splitting.

なお、瞳孔のずれ量Δx,Δy,Δzの求め方(検出方法)はこれに限るものではない。例えば、位置ずれ推定部24は、前眼観察用画像に対して二値化ではなく、エッジ検出や円近似など様々な手法を適用して瞳孔を検出してもよい。また、位置ずれ推定部24は、瞳孔ではなく角膜輝点を検出してもよい。さらに、赤外線CCD112とは異なる別のセンサ、例えば距離センサ等を設けて、位置ずれ推定部24は、当該別のセンサからの出力に基づいて瞳孔のずれ量Δx,Δy,Δzを検出してもよい。さらに、z方向のずれ量に関しては、イメージスプリットを用いずに角膜輝点や画像のぼけ量を用いて検出してもよい。 It should be noted that the method of obtaining (detecting method) the displacement amounts Δx, Δy, and Δz of the pupil is not limited to this. For example, the positional deviation estimating unit 24 may detect the pupil by applying various methods such as edge detection and circle approximation instead of binarization to the anterior eye observation image. Also, the positional deviation estimator 24 may detect the corneal bright spot instead of the pupil. Further, another sensor different from the infrared CCD 112, such as a distance sensor, may be provided, and the positional deviation estimator 24 may detect the pupil deviation amounts Δx, Δy, and Δz based on the output from the other sensor. good. Further, the amount of shift in the z direction may be detected using corneal bright spots or the amount of image blur without using image splitting.

ところで、このような画像解析アルゴリズムは瞳孔が写っている画像に対してのみ有効である。画像に瞳孔が写っていない場合には、実施例1と同様の学習済モデルを用いることが考えられる。しかしながら、上述のように、本変形例に係るレンズ109,110,111の倍率は実施例1と異なり、赤外線CCD112によって得られる前眼観察用画像の撮影範囲が狭く分解能が高い。そのため、図8(b)に示すような本変形例に係る前眼観察用画像は撮影範囲が狭く、写っているものの情報が少ないため、本変形例に係る前眼観察用画像を瞳孔のずれ量の推定処理に用いた場合、瞳孔位置の推定が困難となる可能性がある。したがって、本変形例に係る前眼観察用画像は学習済モデルの構築に適さない可能性がある。また、本変形例に係る前眼観察用画像は、被検者の同じ部位であってもイメージスプリットによってz方向ごとに全く異なる画像となってしまうため、学習しづらいという問題もある。 By the way, such an image analysis algorithm is effective only for images in which the pupil is shown. If the image does not show the pupil, it is conceivable to use a trained model similar to that of the first embodiment. However, as described above, the magnification of the lenses 109, 110, and 111 according to this modified example is different from that of the first embodiment, and the imaging range of the anterior eye observation image obtained by the infrared CCD 112 is narrow and the resolution is high. Therefore, the image for anterior eye observation according to this modification as shown in FIG. When used for volume estimation processing, it may be difficult to estimate the pupil position. Therefore, the image for anterior eye observation according to this modified example may not be suitable for constructing a trained model. In addition, the anterior eye observation image according to the present modified example has a problem that learning is difficult because even if the same part of the subject is present, the images are completely different in each z direction due to image splitting.

このため、本変形例では、赤外線CCD112による前眼観察用画像を、ずれ量の推定処理のため学習済モデルの構築には用いない。代わりに、眼底観察用のCCD105により撮影した画像(前眼正面画像)を学習済モデルの構築に使用する。CCD105は被検眼の眼底を観察するためのものであるため、所定の作動距離で観察すると眼底画像が得られる。一方で、光学ヘッド部100をz方向に被検者から大きく離し、所定の作動距離よりも大きい作動距離とすることで、CCD105によって被検者の前眼部周辺の画像を得ることができる。このような画像は、赤外線CCD112によって得られる画像よりも撮影範囲が広く、またイメージスプリットも発生しないため、学習により適した画像である。具体的には、実施例1で説明した図5(a)乃至図5(g)に示される画像に類似した画像が得られる。なお、本変形例に係る学習データは、前眼観察画像の代わりに上述したようなCCD105により撮影した前眼正面画像を用いる点以外は、実施例1と同様に作成されてよい。 Therefore, in this modified example, the anterior eye observation image obtained by the infrared CCD 112 is not used for building a learned model for the process of estimating the deviation amount. Instead, images captured by the CCD 105 for observing the fundus (frontal images of the anterior eye) are used to construct the learned model. Since the CCD 105 is for observing the fundus of the subject's eye, a fundus image can be obtained by observation at a predetermined working distance. On the other hand, by separating the optical head unit 100 from the subject in the z-direction and setting the working distance to be larger than the predetermined working distance, the CCD 105 can obtain an image around the anterior eye of the subject. Such an image has a wider shooting range than the image obtained by the infrared CCD 112 and does not cause an image split, and is therefore more suitable for learning. Specifically, images similar to the images shown in FIGS. 5A to 5G described in the first embodiment are obtained. Note that the learning data according to this modification may be created in the same manner as in Example 1, except that the anterior eye front image captured by the CCD 105 as described above is used instead of the anterior eye observed image.

以下、図9を参照して、本変形例に係る検査フローについて説明する。まず、ステップS901で検者は検査を開始する。検査の開始方法については実施例1と同様である。次にステップS902において、制御部20は光学ヘッド部100及び顔受け部160を所定位置に移動する。この所定位置は、xy方向については実施例1と同じ位置であり、z方向についてはCCD105を用いて被検者の顔を撮影できるように被検者から離れた位置である。 An inspection flow according to this modified example will be described below with reference to FIG. 9 . First, the examiner starts examination in step S901. The method of starting the inspection is the same as in the first embodiment. Next, in step S902, the control section 20 moves the optical head section 100 and the face receiving section 160 to predetermined positions. This predetermined position is the same position in the xy direction as in the first embodiment, and in the z direction is a position away from the subject so that the face of the subject can be photographed using the CCD 105 .

次にステップS903において、制御部20は学習済モデルを用いてラフアライメントを行う。当該ラフアライメントは、実施例1に係るアライメント処理(ステップS703~ステップS707)と大部分は同様であるが、実施例1に係るアライメント処理とは以下の違いがある。まず、学習済モデルへの入力はCCD105で撮影した前眼正面画像である。また、光学ヘッド部100は被検者から離れた位置にあるため、xy方向のみアライメントを行う。また、アライメント状態が適正かどうかの判断もxy方向についてのみ行う。さらに、アライメント状態が適正であると判断するための閾値Tx,Tyは比較的大きい値であり、当該ラフアライメントの後に精密なアライメント(ファインアライメント)を行う。また、精密なアライメントを行う前に、z方向の位置を調整するため処理(ステップS904)を行う。 Next, in step S903, the control unit 20 performs rough alignment using the learned model. The rough alignment is mostly the same as the alignment processing (steps S703 to S707) according to the first embodiment, but has the following differences from the alignment processing according to the first embodiment. First, the input to the trained model is the anterior eye front image captured by the CCD 105 . Also, since the optical head unit 100 is located away from the subject, alignment is performed only in the xy direction. Also, whether or not the alignment state is proper is determined only in the xy direction. Further, the thresholds Tx and Ty for judging that the alignment state is proper are relatively large values, and precise alignment (fine alignment) is performed after the rough alignment. Also, processing (step S904) is performed to adjust the position in the z direction before performing precise alignment.

ステップS904では、駆動制御部22は、光学ヘッド部100をz方向の前側、すなわち被検者へ近づける方向へ移動する。光学ヘッド部100を移動させるz方向の位置は、実施例1のステップS702で光学ヘッド部100を移動させる際のz方向の位置と同じでよい。この段階で、xy方向のラフアライメントが既に完了しているため、赤外線CCD112を用いて取得される前眼観察用画像は、被検眼Eの瞳孔が画像の中央付近に存在する画像となっている。 In step S904, the drive control unit 22 moves the optical head unit 100 forward in the z direction, that is, in a direction to approach the subject. The z-direction position for moving the optical head unit 100 may be the same as the z-direction position for moving the optical head unit 100 in step S702 of the first embodiment. At this stage, since the rough alignment in the xy direction has already been completed, the image for anterior eye observation obtained using the infrared CCD 112 is an image in which the pupil of the subject's eye E is present near the center of the image. .

次に、ステップS905において、制御部20は前述したルールベースの画像解析を用いてファインアライメントを行う。前述した通り、本変形例に係る赤外線CCD112を用いて取得される前眼観察用画像は分解能の高い画像であるため、前眼観察用画像を用いてファインアライメントを行うことで、実施例1に比べて高精度なアライメントを行うことができる。このため、ステップS905におけるアライメント完了条件は実施例1におけるアライメント完了条件よりも厳しい値とする、例えば、閾値Tx,Ty,Tzをより小さい値とすることができる。 Next, in step S905, the control unit 20 performs fine alignment using the rule-based image analysis described above. As described above, since the anterior eye observation image acquired using the infrared CCD 112 according to this modification is an image with high resolution, fine alignment is performed using the anterior eye observation image. Alignment can be performed with higher accuracy than in the conventional method. Therefore, the alignment completion condition in step S905 can be set to a stricter value than the alignment completion condition in the first embodiment, for example, threshold values Tx, Ty, and Tz can be set to smaller values.

より具体的には、まず、取得部21が、赤外線CCD112を用いて撮影された前眼観察用画像を取得する。位置ずれ推定部24は、前眼観察用画像に対して上述したルールベースの画像解析により瞳孔のずれ量Δx,Δy,Δzを求める。位置ずれ推定部24は、実施例1のステップS706と同様に、ずれ量Δx,Δy,Δzと閾値Tx,Ty,Tzを比較することによって装置のアライメント状態を判断する。アライメント状態が不適正であると判断された場合には、ステップS707と同様に、駆動制御部22がステージ部150等の移動部を制御し、顔受け部160及び光学ヘッド部100の少なくとも一方を瞳孔推定位置に基づいて移動させる。その後、前眼観察用画像を再度取得し、アライメント状態が適正であると判断されるまで上記制御を繰り返す。アライメント状態が適正であると判断された場合には、処理はステップS906に移行する。 More specifically, first, the acquisition unit 21 acquires an anterior eye observation image captured using the infrared CCD 112 . The positional deviation estimating unit 24 obtains the pupil deviation amounts Δx, Δy, and Δz by performing the above-described rule-based image analysis on the anterior eye observation image. The positional deviation estimator 24 determines the alignment state of the apparatus by comparing the deviation amounts Δx, Δy, Δz with the thresholds Tx, Ty, Tz, as in step S706 of the first embodiment. If it is determined that the alignment state is inappropriate, the drive control section 22 controls the moving section such as the stage section 150 to move at least one of the face receiving section 160 and the optical head section 100, as in step S707. Move based on the estimated position of the pupil. After that, the anterior eye observation image is acquired again, and the above control is repeated until it is determined that the alignment state is appropriate. If it is determined that the alignment state is proper, the process proceeds to step S906.

ステップS906では、実施例1と同様に、制御部20がOCT撮影を行う。その後、ステップS907において検査が完了する。 In step S906, as in the first embodiment, the control unit 20 performs OCT imaging. After that, the inspection is completed in step S907.

ここでは片眼のみの検査フローを説明したが、両眼続けてOCT撮影を行う検査フローとしてもよい。その場合、右眼と左眼それぞれについて上記フローを実行すればよい。また、検査時間の短縮のため、最初の検査のみ上記フローを実行し、反対側の眼の検査ではラフアライメントすなわちステップS903と、ステップS904をスキップしてもよい。このとき、反対側の眼の位置は最初の検査の位置からおよそ推定可能であるため、最初の検査の位置から光学ヘッド部100を所定距離だけ移動させれば反対側の眼のファインアライメントに直接移行できる可能性が高い。このような処理によれば、検査時間を短縮することができる。 Although the examination flow for only one eye has been described here, the examination flow may be one in which OCT imaging is performed for both eyes in succession. In that case, the above flow may be executed for each of the right eye and the left eye. Also, in order to shorten the examination time, the above flow may be performed only for the first examination, and rough alignment, that is, steps S903 and S904 may be skipped in the examination of the opposite eye. At this time, since the position of the eye on the opposite side can be roughly estimated from the position of the first examination, if the optical head unit 100 is moved by a predetermined distance from the position of the first examination, fine alignment of the eye on the opposite side can be performed directly. likely to migrate. According to such processing, inspection time can be shortened.

なお、ステップS902で光学ヘッド部100を被検眼から離れた位置へ移動する前に、ステップS905と同等のファインアライメントを1度試行してもよい。すなわち、被検眼の瞳孔が画像中央付近に既にあればそのままステップS905と同等のファインアライメントのみを実行し、瞳孔が画像中央付近になくファインアライメントが失敗したときに限りステップS902以降の処理を行ってもよい。この方法では、被検眼が既に好適な位置にいるときに光学ヘッド部100を一度被検眼から遠い方向へ移動する必要がなくなるため、検査時間を短縮できる。 Before moving the optical head unit 100 to a position away from the subject's eye in step S902, fine alignment similar to step S905 may be tried once. That is, if the pupil of the eye to be inspected is already near the center of the image, only fine alignment equivalent to step S905 is executed as it is, and only when the pupil is not near the center of the image and fine alignment fails, the processing from step S902 is performed. good too. This method eliminates the need to once move the optical head unit 100 away from the subject's eye when the subject's eye is already in a suitable position, thereby shortening the examination time.

上記のように、本変形例に係る位置ずれ推定部24は、被検眼の瞳孔の位置を検出する瞳孔検出部の一例として機能する。駆動制御部22は、位置ずれ推定部24によって推定した結果及び瞳孔の位置について検出した結果に基づいて、ステージ部150等の移動部を制御する。特に本変形例では、観察部は、被検眼の眼底の画像を撮影する眼底観察部の一例として機能するCCD105を備える。観察部は、赤外線CCD112を用いて第1の範囲の前眼観察用画像(第1の画像)を撮影し、被検眼Eと光学ヘッド部100とを離した状態でCCD105を用いて第1の範囲よりも広い範囲の前眼正面画像(第2の画像)を撮影する。位置ずれ推定部24は、前眼観察用画像に基づいて被検眼の瞳孔の位置を検出し、前眼正面画像を学習済モデルへの入力として用いて被検眼の位置に関する情報を推定する。 As described above, the positional deviation estimator 24 according to the present modification functions as an example of a pupil detector that detects the position of the pupil of the subject's eye. The drive control section 22 controls the moving section such as the stage section 150 based on the result of estimation by the positional deviation estimation section 24 and the result of detection of the position of the pupil. Particularly in this modified example, the observation unit includes the CCD 105 that functions as an example of a fundus observation unit that captures an image of the fundus of the subject's eye. The observation unit captures an anterior eye observation image (first image) in a first range using the infrared CCD 112, and captures the first image using the CCD 105 while the subject's eye E is separated from the optical head unit 100. An anterior eye front image (second image) of a wider range than the range is photographed. The positional deviation estimation unit 24 detects the position of the pupil of the subject's eye based on the anterior eye observation image, and uses the anterior eye front image as an input to the trained model to estimate information regarding the position of the subject's eye.

このような構成によれば、検者が顔受け部160に顔を乗せた段階で自動的に検査が開始され、被検者の顔の大きさに関わらずアライメントが自動で行うことができ、検者による手動操作の負荷を減少させることができる。また、制御部20は、撮影範囲が狭く分解能が高い画像を用いて高精度にアライメントを行うことができるため、本変形例に係るOCT装置1を用いれば好適なOCT断層像を得ることができる。 According to such a configuration, the examination is automatically started when the examiner places the face on the face receiving section 160, and the alignment can be automatically performed regardless of the size of the face of the examinee. It is possible to reduce the burden of manual operation by the examiner. In addition, since the control unit 20 can perform alignment with high accuracy using an image with a narrow imaging range and high resolution, a suitable OCT tomographic image can be obtained by using the OCT apparatus 1 according to the present modification. .

また、本変形例では、CCD105及び赤外線CCD112を、観察部の一例として用いる。このため、アライメント用に別個のカメラ等を設ける必要がなくなるため、コストを低減するとともに装置を小型化することができる。 Also, in this modification, the CCD 105 and the infrared CCD 112 are used as an example of an observation section. Therefore, it is not necessary to provide a separate camera or the like for alignment, so the cost can be reduced and the size of the apparatus can be reduced.

なお、本変形例では、学習済モデルを用いたラフアライメントを行った後に、前眼部観察用画像を用いたファインアライメントを行った。これに対して、まず、制御部20は、位置ずれ推定部24によって推定した結果に基づいて、上述のルールベースの画像解析で検出した瞳孔の位置又は学習済モデルを用いて推定した瞳孔の位置に応じてアライメントを制御してもよい。 Note that, in this modified example, fine alignment using the anterior segment observation image is performed after performing rough alignment using the learned model. In response to this, first, the control unit 20 detects the position of the pupil detected by the above rule-based image analysis or the position of the pupil estimated using the learned model based on the result estimated by the misalignment estimation unit 24. Alignment may be controlled according to .

この場合には、制御部20は、学習済モデルを用いて推定された瞳孔の位置が理想的なアライメント位置に近ければ、上述のルールベースの画像解析で検出した瞳孔の位置を用いてアライメントを行う。一方で、学習済モデルを用いて推定された瞳孔の位置が理想的な位置から遠ければ、制御部20は、学習済モデルを用いて推定した瞳孔の位置を用いてアライメントを行う。このような場合には、学習済モデル用いて推定した瞳孔の位置が理想的なアライメント位置に近い場合に、ラフアライメントの処理を省略することができるため、検査時間を短縮することができる。なお、理想的なアライメント位置に近いか否かの判断は上記ラフアライメントのアライメント完了条件と同様の条件を用いて行ってよい。 In this case, if the position of the pupil estimated using the learned model is close to the ideal alignment position, the control unit 20 performs alignment using the position of the pupil detected by the rule-based image analysis described above. conduct. On the other hand, if the pupil position estimated using the trained model is far from the ideal position, the control unit 20 performs alignment using the pupil position estimated using the trained model. In such a case, if the position of the pupil estimated using the trained model is close to the ideal alignment position, the rough alignment process can be omitted, thereby shortening the inspection time. It should be noted that the determination as to whether or not the alignment position is close to the ideal alignment position may be made using the same conditions as the alignment completion conditions for the rough alignment described above.

また、制御部20は、位置ずれ推定部24によって瞳孔の位置が検出されたか否かによってラフアライメントを行うかファインアライメントを行うかを判断してもよい。このような構成では、制御部20は、位置ずれ推定部24によって瞳孔の位置が検出された場合には、検出された瞳孔の位置に基づいてファインアライメントを制御する。一方で、瞳孔の位置が検出されなかった場合には、制御部20は、学習済モデルを用いて推定した結果に基づいてラフアライメントを制御する。このような場合には、被検眼が既に好適な位置にいるときに光学ヘッド部100を一度被検眼から遠い方向へ移動する必要がなくなるため、検査時間を短縮できる。 Further, the control unit 20 may determine whether to perform rough alignment or fine alignment depending on whether or not the positions of the pupils are detected by the positional deviation estimating unit 24 . With such a configuration, when the position of the pupil is detected by the positional deviation estimating section 24, the control section 20 controls fine alignment based on the detected position of the pupil. On the other hand, if the position of the pupil is not detected, the control unit 20 controls rough alignment based on the result of estimation using the learned model. In such a case, it is not necessary to once move the optical head unit 100 away from the eye to be inspected when the eye to be inspected is already in a suitable position, so the inspection time can be shortened.

なお、本変形例では、広域な画像で学習済モデルを用いた推定を行い、狭域な画像でルールベースの画像解析による瞳孔位置の検出を行った。しかしながら、これらの処理に用いられる画像はこの限りではない。例えば、本変形例とは逆に広域な画像でルールベースの画像解析による瞳孔位置の検出を行い、狭域な画像で学習済モデルを用いた推定を行ってもよい。また、両方の画像で学習済モデルによる推定を行ってもよい。 In this modified example, estimation using a learned model is performed on a wide-area image, and the pupil position is detected by rule-based image analysis on a narrow-area image. However, images used for these processes are not limited to this. For example, in contrast to this modified example, detection of the pupil position may be performed using a rule-based image analysis using a wide-area image, and estimation using a trained model may be performed using a narrow-area image. Alternatively, both images may be estimated by a trained model.

さらに、1つの撮像素子を用いた画像に対し、状況によって学習済モデルによる推定やルールベースの画像解析による推定、さらにそれらを組み合わせた推定を切り替えてもよい。特に、学習済モデルによる推定は光学ヘッド部100が瞳孔から離れているときに効果的であり、ルールベース画像解析による推定は光学ヘッド部100が瞳孔に近いときに効果的である。したがって、まず学習済モデルによる推定を行い、その結果光学ヘッド部100が瞳孔に近いと判断されたときにルールベースによる推定を行うようにするとよい。あるいは、まずルールベースによる推定を行い、推定結果が異常値である場合や瞳孔が見つからないと判断したときに学習済モデルによる推定を行うようにしてもよい。また、常に両方による推定を行い、両者の推定結果の平均をアライメントに用いてもよい。さらに、所定の判断基準を用いて両者の推定値の確からしさをそれぞれ算出し、より確からしさが高い方の推定値をアライメントに用いてもよい。 Furthermore, for an image using one image sensor, estimation by a trained model, estimation by rule-based image analysis, and estimation by combining them may be switched depending on the situation. In particular, estimation by the trained model is effective when the optical head unit 100 is far from the pupil, and estimation by rule-based image analysis is effective when the optical head unit 100 is close to the pupil. Therefore, it is preferable to perform estimation using a trained model first, and then perform rule-based estimation when it is determined that the optical head unit 100 is close to the pupil. Alternatively, rule-based estimation may be performed first, and then estimation using a trained model may be performed when the estimation result is an abnormal value or when it is determined that the pupil cannot be found. Alternatively, both estimations may always be performed, and the average of both estimation results may be used for alignment. Furthermore, the likelihood of both estimated values may be calculated using a predetermined criterion, and the estimated value with the higher likelihood may be used for alignment.

また、本変形例では、瞳孔の位置をルールベースの画像解析によって検出した。しかしながら、瞳孔の位置を検出する手法はルールベースの画像解析に限られず、例えば、位置ずれ推定部24は、距離センサなどからの所定の情報を用いてずれ量を求めてもよい。このような場合であっても、学習済モデルによる推定を少なくとも部分的に行っていれば本発明は適用可能である。また、本変形例も、実施例1と同様にOCT装置以外の眼科装置にも適用可能である。 Also, in this modified example, the position of the pupil is detected by rule-based image analysis. However, the method of detecting the position of the pupil is not limited to rule-based image analysis. For example, the positional deviation estimator 24 may obtain the amount of deviation using predetermined information from a distance sensor or the like. Even in such a case, the present invention is applicable as long as the estimation by the trained model is at least partially performed. Moreover, this modification can also be applied to an ophthalmologic apparatus other than the OCT apparatus as in the first embodiment.

なお、上述した実施例及び変形例では、赤外線CCD112やCCD105といった検査に用いられる撮像部材を用いて得た画像を学習済モデルへの入力として用いた。これに対して、光学ヘッド部100の撮影方向の画像を撮影するように光学ヘッド部100に別個設けられたアライメント用のカメラを用いて得た画像を学習済モデルへの入力として用いてもよい。 It should be noted that in the above-described embodiment and modified example, an image obtained using an imaging member used for inspection, such as the infrared CCD 112 or the CCD 105, is used as an input to the trained model. On the other hand, an image obtained using an alignment camera separately provided in the optical head unit 100 so as to capture an image in the imaging direction of the optical head unit 100 may be used as an input to the trained model. .

また、上述した実施例及び変形例に係る眼科装置における測定光学系の構成は一例であり、所望の構成に応じて任意に変更されてよい。さらに、各種学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 Also, the configuration of the measurement optical system in the ophthalmologic apparatus according to the above-described embodiments and modifications is an example, and may be arbitrarily changed according to a desired configuration. Furthermore, the learning data of various trained models is not limited to data obtained using the ophthalmologic apparatus itself that actually performs imaging. Data or the like obtained using an ophthalmologic apparatus may be used.

また、上述した実施例及び変形例に係る学習済モデルでは、前眼観察用画像や前眼正面画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。また、RNN等を用いた学習済モデルでは、時系列のデータを用いて学習を行っているため、入力される連続する時系列のデータ値間の傾きも特徴量の一部として抽出し、推定処理に用いているものと考えられる。そのため、このような学習済モデルは、具体的な数値の時間的な変化による影響を推定処理に用いることで、精度のよい推定を行うことができると期待される。 In addition, the trained models according to the above-described embodiments and modifications are characterized by the magnitude of luminance values of the anterior eye observation image and the anterior eye front image, the order and inclination of the bright and dark portions, the position, distribution, continuity, etc. It can be considered that it is extracted as part of the quantity and used for estimation processing. In addition, since trained models using RNN etc. perform learning using time-series data, the slope between input continuous time-series data values is also extracted as part of the feature value and estimated. It is thought that it is used for processing. Therefore, such a trained model is expected to be able to perform accurate estimation by using the influence of temporal changes in specific numerical values in the estimation process.

なお、上述した実施例及び変形例に係る各種学習済モデルは制御部20に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、学習済モデルは、制御部20と接続される別のサーバの装置等に設けられてもよい。この場合には、制御部20は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。 Various learned models according to the above-described embodiments and modifications can be provided in the control unit 20 . A trained model may be configured by, for example, a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA, or may be configured by a circuit or the like that performs a specific function such as an ASIC. Also, the learned model may be provided in another server device or the like connected to the control unit 20 . In this case, the control unit 20 can use the trained model by connecting to a server or the like having the trained model via an arbitrary network such as the Internet. Here, the server provided with the learned model may be, for example, a cloud server, a fog server, an edge server, or the like. In addition, when configuring a network within a facility, within a site that includes a facility, within an area that includes multiple facilities, etc. to enable wireless communication, for example, Reliability of the network may be improved by configuring to use radio waves of a dedicated wavelength band. Alternatively, the network may be configured by wireless communication capable of high speed, large capacity, low delay, and multiple simultaneous connections.

(その他の実施例)
本発明は、上述の実施例及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。
(Other examples)
The present invention provides a program that implements one or more functions of the above-described embodiments and modifications to a system or device via a network or a storage medium, and the computer of the system or device reads and executes the program. It is feasible. A computer has one or more processors or circuits and may include separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.

プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 A processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuitry may include a digital signal processor (DSP), data flow processor (DFP), or neural processing unit (NPU).

以上、実施例及び変形例を参照して本発明について説明したが、本発明は上記実施例及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の実施例及び各変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described with reference to the embodiments and modifications, the present invention is not limited to the above embodiments and modifications. Inventions modified within the scope of the present invention and inventions equivalent to the present invention are also included in the present invention. Moreover, the above-described embodiments and modifications can be appropriately combined within the scope of the present invention.

1:OCT装置(眼科装置)、22:駆動制御部(制御部)、24:位置ずれ推定部(推定部)、100:光学ヘッド部(ヘッド部)、112:赤外線CCD(観察部)、150:ステージ部(移動部)、160:顔受け部(支持部、移動部) 1: OCT apparatus (ophthalmic apparatus), 22: drive control unit (control unit), 24: misalignment estimation unit (estimation unit), 100: optical head unit (head unit), 112: infrared CCD (observation unit), 150 : stage portion (moving portion), 160: face receiving portion (supporting portion, moving portion)

Claims (24)

被検眼を撮影するヘッド部と、
被検者の顔を支える支持部と、
前記ヘッド部と前記支持部とのうち少なくとも一方を移動可能な移動部と、
前記ヘッド部の側から前記支持部の側に向かって撮影する観察部と、
瞳孔を含む被検眼の画像と瞳孔を含まない画像とを含む画像群を入力として学習した学習済モデルを用いて、被検者が支持部に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とのうち少なくとも一方を推定する推定部と、
前記観察部によって撮影して得た画像を前記学習済モデルへの入力として用いて前記推定部によって推定された結果に基づいて、前記移動部を制御する制御部と、
を備える、眼科装置。
a head for photographing an eye to be examined;
a support for supporting the subject's face;
a moving part capable of moving at least one of the head part and the support part;
an observation unit that captures images from the head unit side toward the support unit side;
Using a trained model trained by inputting an image group including an image of the eye to be examined including the pupil and an image not including the pupil, information on whether or not the subject rests his/her face on the supporting part and the image of the eye to be examined are obtained. an estimating unit that estimates at least one of positional information;
a control unit that controls the movement unit based on the result estimated by the estimation unit using an image captured by the observation unit as an input to the trained model;
An ophthalmic device comprising:
前記推定部によって推定される被検眼の位置に関する情報は、被検眼の瞳孔のヘッド部に対する相対位置とヘッド部の位置を基準とした被検眼の瞳孔の位置の方向とのうち少なくとも一方を含む、請求項1に記載の眼科装置。 The information about the position of the eye to be examined estimated by the estimating unit includes at least one of the relative position of the pupil of the eye to be examined with respect to the head and the direction of the position of the pupil of the eye to be examined with respect to the position of the head. The ophthalmic device according to claim 1. 前記制御部は、前記相対位置及び前記方向の少なくとも一方に基づいて、前記ヘッド部と前記支持部とのうち少なくとも一方を移動させるように前記移動部を制御する、請求項2に記載の眼科装置。 3. The ophthalmologic apparatus according to claim 2, wherein the control section controls the moving section to move at least one of the head section and the support section based on at least one of the relative position and the direction. . 前記制御部は、被検者が支持部に顔を乗せていることを示す情報が推定されたときに、前記相対位置と前記方向とのうち少なくとも一方に基づいて、前記ヘッド部と前記支持部とのうち少なくとも一方を移動させるように前記移動部を制御する、請求項3に記載の眼科装置。 When the information indicating that the subject is resting the face on the support is estimated, the controller controls the head and the support based on at least one of the relative position and the direction. 4. The ophthalmologic apparatus according to claim 3, wherein said moving part is controlled to move at least one of 前記制御部は、前記推定部によって被検者が支持部に顔を乗せていることを示す情報が推定された推定結果が一定時間続いたときに、前記相対位置と前記方向とのうち少なくとも一方に基づいて、前記ヘッド部と前記支持部とのうち少なくとも一方を移動させるように前記移動部を制御する、請求項4に記載の眼科装置。 The control unit controls at least one of the relative position and the direction when the estimation result in which the estimation unit estimates information indicating that the face of the subject is placed on the support unit continues for a certain period of time. 5. The ophthalmologic apparatus according to claim 4, wherein the moving section is controlled to move at least one of the head section and the support section based on. 前記制御部は、前記推定部によって被検者が支持部に顔を乗せていないことを示す情報が推定されたときに、前記ヘッド部と前記支持部とのうち少なくとも一方を静止させる又は移動させないように前記移動部を制御する、請求項1乃至5のいずれか一項に記載の眼科装置。 The control unit causes at least one of the head unit and the support unit to stop or not to move when the estimation unit estimates information indicating that the subject does not put the face on the support unit. 6. The ophthalmic apparatus according to any one of claims 1 to 5, wherein the moving part is controlled so as to. 前記制御部は、前記推定部によって被検者が支持部に顔を乗せていないことを示す情報が推定されたときに、前記ヘッド部と前記支持部とのうち少なくとも一方を所定の位置に移動させるように前記移動部を制御する、請求項1乃至5のいずれか一項に記載の眼科装置。 The control unit moves at least one of the head unit and the support unit to a predetermined position when the estimation unit estimates that the subject does not put the face on the support unit. 6. The ophthalmologic apparatus according to any one of claims 1 to 5, wherein the moving part is controlled to allow the moving part to move. 前記学習済モデルは、被検者が支持部に顔を乗せているか否かに関する情報を出力として学習した学習済モデルと、被検眼の位置に関する情報を出力として学習した学習済モデルとを含む、請求項1乃至7のいずれか一項に記載の眼科装置。 The learned model includes a learned model learned by outputting information regarding whether or not the subject puts the face on the support part, and a learned model learned by outputting information regarding the position of the subject's eye, An ophthalmic device according to any one of claims 1 to 7. 前記学習済モデルは、被検眼の瞳孔のヘッド部に対する相対位置を含む被検眼の位置に関する情報を出力として学習した学習済モデルであり、
前記推定部は、前記学習済モデルから出力された被検眼の位置に関する情報に基づいて、被検者が支持部に顔を乗せているか否かに関する情報を推定する、請求項1乃至7のいずれか一項に記載の眼科装置。
The learned model is a learned model that has learned by outputting information regarding the position of the eye to be examined, including the relative position of the pupil of the eye to be examined with respect to the head,
8. The estimating unit according to any one of claims 1 to 7, wherein the estimating unit estimates information regarding whether or not the subject rests his or her face on the support based on information regarding the position of the subject's eye output from the learned model. or the ophthalmic device according to claim 1.
前記学習済モデルは、被検者が支持部に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とを出力として学習した学習済モデルを含む、請求項1乃至7のいずれか一項に記載の眼科装置。 8. The learned model according to any one of claims 1 to 7, wherein the learned model includes a learned model obtained by outputting information regarding whether or not the subject rests his/her face on the support portion and information regarding the position of the subject's eye. 10. An ophthalmic device according to claim 1. 検者の入力を受け付ける入力部を更に備え、
前記推定部は、前記入力部によって前記検者の入力を受け付けたときに前記推定を開始する、請求項1乃至10のいずれか一項に記載の眼科装置。
further comprising an input unit for receiving input from the examiner,
The ophthalmologic apparatus according to any one of claims 1 to 10, wherein the estimation unit starts the estimation when the input unit receives an input from the examiner.
被検眼に指標を投影する投影部を更に備え、
前記観察部は、前記投影部によって被検眼に投影された前記指標の画像を含む画像を撮影する、請求項1乃至11のいずれか一項に記載の眼科装置。
further comprising a projection unit for projecting the index onto the subject's eye,
The ophthalmologic apparatus according to any one of claims 1 to 11, wherein the observation unit captures an image including the index image projected onto the subject's eye by the projection unit.
前記観察部は、被検眼の前眼部の画像を撮影する前眼観察部を備える、請求項1乃至12のいずれか一項に記載の眼科装置。 The ophthalmologic apparatus according to any one of claims 1 to 12, wherein the observation unit includes an anterior eye observation unit that captures an image of an anterior segment of the subject's eye. 前記観察部は、被検眼が、前記ヘッド部と前記被検眼との距離に応じて分割された画像を含む画像を撮影する、請求項1乃至13のいずれか一項に記載の眼科装置。 The ophthalmologic apparatus according to any one of claims 1 to 13, wherein the observation unit captures an image including an image divided according to a distance between the head unit and the eye. 前記観察部は、第1の範囲の第1の画像及び該第1の範囲よりも広い範囲の第2の画像を含む複数の画像を撮影する、請求項1乃至14のいずれか一項に記載の眼科装置。 15. The observation unit according to any one of claims 1 to 14, wherein the observation unit captures a plurality of images including a first image of a first range and a second image of a range wider than the first range. ophthalmic equipment. 前記観察部は、被検眼の眼底の画像を撮影する眼底観察部を備え、
前記第2の画像は、被検眼と前記ヘッド部とを離した状態で前記眼底観察部によって撮影された画像である、請求項15に記載の眼科装置。
The observation unit includes a fundus observation unit that captures an image of the fundus of the subject's eye,
16. The ophthalmologic apparatus according to claim 15, wherein the second image is an image captured by the fundus observation unit while the subject's eye is separated from the head unit.
被検眼の瞳孔の位置を検出する瞳孔検出部を更に備え、
前記制御部は、前記推定部によって推定した結果及び前記瞳孔検出部によって検出した結果に基づいて、前記移動部を制御する、請求項1乃至16のいずれか一項に記載の眼科装置。
further comprising a pupil detection unit that detects the position of the pupil of the subject's eye,
The ophthalmologic apparatus according to any one of claims 1 to 16, wherein said control section controls said moving section based on a result of estimation by said estimation section and a result of detection by said pupil detection section.
前記制御部は、
前記瞳孔検出部によって瞳孔の位置が検出された場合には、検出された前記瞳孔の位置に基づいて前記移動部を制御し、
前記瞳孔検出部によって瞳孔の位置が検出されなかった場合には、前記推定部の推定結果に基づいて前記移動部を制御する、請求項17に記載の眼科装置。
The control unit
when the position of the pupil is detected by the pupil detection unit, controlling the movement unit based on the detected position of the pupil;
18. The ophthalmologic apparatus according to claim 17, wherein when the position of the pupil is not detected by the pupil detection section, the movement section is controlled based on the estimation result of the estimation section.
前記制御部は、前記推定部によって推定した結果に基づいて、前記瞳孔検出部によって検出した前記瞳孔の位置又は前記推定部によって推定した被検眼の位置に関する情報に応じて前記移動部を制御する、請求項17に記載の眼科装置。 The control unit controls the moving unit according to information regarding the position of the pupil detected by the pupil detection unit or the position of the subject's eye estimated by the estimation unit, based on the result estimated by the estimation unit. 18. The ophthalmic device of claim 17. 前記観察部は、第1の範囲の第1の画像及び該第1の範囲よりも広い範囲の第2の画像を含む複数の画像を撮影し、
前記瞳孔検出部は前記第1の画像に基づいて前記瞳孔の位置を検出し、
前記推定部は、前記第2の画像を前記学習済モデルへの入力として用いて被検眼の位置に関する情報を推定する、請求項17乃至19のいずれか一項に記載の眼科装置。
The observation unit captures a plurality of images including a first image of a first range and a second image of a range wider than the first range,
The pupil detection unit detects the position of the pupil based on the first image,
The ophthalmologic apparatus according to any one of claims 17 to 19, wherein the estimation unit uses the second image as an input to the trained model to estimate information about the position of the subject's eye.
前記画像群は、被検者が眼鏡を装着している画像と眼鏡を装着していない画像とを含み、
前記推定部は、前記観察部によって撮影して得た画像を前記学習済モデルへの入力として用いて、被検者が眼鏡を装着しているか否かに関する情報を更に推定し、
前記制御部は、前記推定部によって被検者が眼鏡を装着していることを示す情報が推定されたときには、前記ヘッド部と前記支持部とのうち少なくとも一方を移動させないように前記移動部を制御する、請求項1乃至20のいずれか一項に記載の眼科装置。
The group of images includes an image in which the subject wears the spectacles and an image in which the subject does not wear the spectacles,
The estimating unit uses an image captured by the observing unit as an input to the trained model to further estimate information about whether the subject wears eyeglasses,
When the estimation unit estimates that the subject is wearing spectacles, the control unit controls the movement unit so as not to move at least one of the head unit and the support unit. 21. The ophthalmic device of any one of claims 1-20, for controlling.
前記画像群は、被検者が眼を開けている画像と眼を閉じている画像とを含み、
前記推定部は、前記観察部によって撮影して得た画像を前記学習済モデルへの入力として用いて、被検者が目を開けているか否かに関する情報を更に推定し、
前記制御部は、前記推定部によって被検者が目を閉じていることを示す情報が推定されたときには、前記ヘッド部と前記支持部とのうち少なくとも一方を移動させないように前記移動部を制御する、請求項1乃至21のいずれか一項に記載の眼科装置。
The image group includes an image in which the subject's eyes are open and an image in which the subject's eyes are closed,
The estimating unit uses an image captured by the observing unit as an input to the trained model to further estimate information about whether the subject has his/her eyes open;
The control unit controls the movement unit so as not to move at least one of the head unit and the support unit when the estimation unit estimates that the subject has closed eyes. 22. An ophthalmic device according to any one of claims 1-21.
被検眼を撮影するヘッド部と、被検者の顔を支える支持部と、前記ヘッド部と前記支持部とのうち少なくとも一方を移動可能な移動部と、前記ヘッド部の側から前記支持部の側に向かって撮影する観察部と、を備える眼科装置の制御方法であって、該方法は、
瞳孔を含む被検眼の画像と瞳孔を含まない画像とを含む画像群を入力として学習した学習済モデルを用いて、被検者が支持部に顔を乗せているか否かに関する情報と被検眼の位置に関する情報とのうち少なくとも一方を推定することと、
前記観察部によって撮影して得た画像を前記学習済モデルへの入力として用いて推定された結果に基づいて、前記移動部を制御することと、
を含む、眼科装置の制御方法。
a head section for photographing an eye to be examined; a support section for supporting the face of the subject; a moving section capable of moving at least one of the head section and the support section; A control method for an ophthalmologic apparatus comprising: an observation unit that photographs sideways, the method comprising:
Using a trained model trained by inputting an image group including an image of the eye to be examined including the pupil and an image not including the pupil, information on whether or not the subject rests his/her face on the supporting part and the image of the eye to be examined are obtained. estimating at least one of position information;
controlling the moving unit based on a result estimated using an image captured by the observation unit as an input to the trained model;
A method of controlling an ophthalmic device, comprising:
コンピュータによって実行されると、該コンピュータに請求項23に記載の眼科装置の制御方法の各工程を実行させる、プログラム。 A program that, when executed by a computer, causes the computer to perform each step of the ophthalmologic apparatus control method according to claim 23.
JP2021189166A 2021-11-22 2021-11-22 Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program Pending JP2023076025A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021189166A JP2023076025A (en) 2021-11-22 2021-11-22 Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program
PCT/JP2022/038661 WO2023090023A1 (en) 2021-11-22 2022-10-18 Ophthalmic device, method for controlling ophthalmic device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021189166A JP2023076025A (en) 2021-11-22 2021-11-22 Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program

Publications (1)

Publication Number Publication Date
JP2023076025A true JP2023076025A (en) 2023-06-01

Family

ID=86396606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021189166A Pending JP2023076025A (en) 2021-11-22 2021-11-22 Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program

Country Status (2)

Country Link
JP (1) JP2023076025A (en)
WO (1) WO2023090023A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024104125A (en) * 2023-01-23 2024-08-02 株式会社トプコン Ophthalmic Equipment
CN116687339B (en) * 2023-08-01 2023-10-31 杭州目乐医疗科技股份有限公司 Image shooting method based on fundus camera, device and medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6582604B2 (en) * 2015-06-23 2019-10-02 富士通株式会社 Pupil detection program, pupil detection method, pupil detection device, and gaze detection system
US11051693B2 (en) * 2017-12-27 2021-07-06 Eyenk, Inc. Systems and methods for automated end-to-end eye screening, monitoring and diagnosis
JP7194136B2 (en) * 2019-08-09 2022-12-21 キヤノン株式会社 OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
JP7297625B2 (en) * 2019-09-26 2023-06-26 株式会社トプコン Ophthalmic device and ophthalmic system
JP7537869B2 (en) * 2019-10-29 2024-08-21 株式会社トプコン Ophthalmic Equipment

Also Published As

Publication number Publication date
WO2023090023A1 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
US9468374B2 (en) Ophthalmologic apparatus and control method for the same
US9980643B2 (en) Ophthalmologic apparatus
KR101477591B1 (en) Optical tomographic image photographing apparatus and control method therefor
US9330299B2 (en) Fundus image acquiring apparatus and control method therefor
WO2023090023A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
US9408532B2 (en) Image processing apparatus and image processing method
CN102670166B (en) Photographic apparatus and control method
US10660514B2 (en) Image processing apparatus and image processing method with generating motion contrast image using items of three-dimensional tomographic data
JP7478216B2 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP7057186B2 (en) Ophthalmology equipment and ophthalmology information processing program
JP2012196439A (en) Image photographing apparatus and image photographing method
JP2023120308A (en) Image processing method, image processing device, and image processing program
JP2021101965A (en) Control device, optical interference tomography apparatus, control method of optical interference tomography apparatus, and program
JP2021166817A (en) Ophthalmologic apparatus
JP5858603B2 (en) Ophthalmic apparatus and control method thereof
JP5653055B2 (en) Ophthalmic apparatus and control method thereof
WO2011111851A1 (en) Ophthalmologic apparatus and control method for the same
JP2018015021A (en) Ophthalmologic apparatus
JP2024022806A (en) Ophthalmologic apparatus, control device, operation method of ophthalmologic apparatus and program
JP7271733B2 (en) ophthalmic equipment
JP2023006633A (en) Optical interference tomographic device, control method of optical interference tomographic device and program
JP2022095442A (en) Optical interference tomography device, optical interference tomography device control method, and program
JP2023066198A (en) Information output device, fundus image imaging apparatus, information output method and information output program
JP2023123734A (en) Image processing method
JP2021119973A (en) Photographing device, photographing method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630