JP2018051391A - Ophthalmologic apparatus - Google Patents

Ophthalmologic apparatus Download PDF

Info

Publication number
JP2018051391A
JP2018051391A JP2018003477A JP2018003477A JP2018051391A JP 2018051391 A JP2018051391 A JP 2018051391A JP 2018003477 A JP2018003477 A JP 2018003477A JP 2018003477 A JP2018003477 A JP 2018003477A JP 2018051391 A JP2018051391 A JP 2018051391A
Authority
JP
Japan
Prior art keywords
image
unit
optical path
light
path length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018003477A
Other languages
Japanese (ja)
Inventor
林 健史
Takeshi Hayashi
健史 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2018003477A priority Critical patent/JP2018051391A/en
Publication of JP2018051391A publication Critical patent/JP2018051391A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an ophthalmologic apparatus capable of measuring intraocular distances with high accuracy and without increasing size and complexity of the apparatus.SOLUTION: A photographing part of an ophthalmologic apparatus in an embodiment photographs an eye to be inspected from two or more different directions. An optical system splits light from a light source into measurement light and reference light and detects interference light of returned light of the measurement light from the eye and the reference light. A changing part changes optical path length of the measurement light (reference light). A controller controls the photographing part to perform first photography and the optical system to perform first detection when first optical path length is set and controls the photographing part to perform second photography and the optical system to perform second detection when second optical path length is set. A calculator calculates a displacement between the first and second images, calculates a difference between the first and second optical path lengths, and calculates the distance based on the displacement and the difference, when each of the first and second sites corresponds to a coherence gate.SELECTED DRAWING: Figure 9

Description

この発明は、被検眼内の距離を計測するための眼科装置に関する。   The present invention relates to an ophthalmologic apparatus for measuring a distance in an eye to be examined.

眼科分野の診断において、被検眼内の距離は重要なパラメータの1つである。たとえば、角膜と網膜との間の距離を示す眼軸長は、軸性近視や軸性遠視の診断に用いられる。また、病変の位置(被検眼の特徴点に対する相対位置など)や大きさ(一端から他端までの距離など)も重要な診断材料である。以下、このような被検眼内の距離を「眼内距離」と呼ぶことがある。眼内距離の測定方法としては、超音波を用いる方法や、光干渉断層法(Optical Coherence Tomography、OCT)を用いる方法が知られている。   In the diagnosis in the ophthalmic field, the distance within the eye to be examined is one of important parameters. For example, the axial length indicating the distance between the cornea and the retina is used for diagnosis of axial myopia and axial hyperopia. In addition, the position of the lesion (relative position with respect to the feature point of the eye to be examined) and the size (distance from one end to the other end) are also important diagnostic materials. Hereinafter, such a distance in the eye to be examined may be referred to as “intraocular distance”. As a method for measuring the intraocular distance, a method using an ultrasonic wave and a method using an optical coherence tomography (OCT) are known.

特開2008−161218号公報JP 2008-161218 A 特開2007−275375号公報JP 2007-275375 A

OCTを用いて眼内距離を測定する場合、当該距離の両端となる2つの部位(第1の部位および第2の部位とする)それぞれからの測定光の戻り光を個別に検出する必要がある。この検出動作には、同時検出と非同時検出とがある。   When measuring the intraocular distance using OCT, it is necessary to individually detect the return light of the measurement light from each of the two parts (referred to as the first part and the second part) at both ends of the distance. . This detection operation includes simultaneous detection and non-simultaneous detection.

同時検出が適用される場合、2つの部位からの戻り光に対応する2つの参照光路を形成するための光学的構成が必要である。たとえば、この光学的構成は、第1の部位からの戻り光に対応する第1の参照光路を形成するための第1の参照ミラーと、第2の部位からの戻り光に対応する第2の参照光路を形成するための第2の参照ミラーと、第1の参照ミラーおよび第2の参照ミラーをそれぞれ独立に移動するための駆動機構とを含む。したがって、同時検出には、装置の構成が複雑化、大型化するという不利益がある。   When simultaneous detection is applied, an optical configuration is required to form two reference light paths corresponding to the return light from the two parts. For example, this optical configuration includes a first reference mirror for forming a first reference optical path corresponding to the return light from the first part, and a second reference corresponding to the return light from the second part. A second reference mirror for forming a reference optical path; and a drive mechanism for independently moving the first reference mirror and the second reference mirror. Therefore, simultaneous detection has a disadvantage that the configuration of the apparatus becomes complicated and large.

一方、非同時検出が適用される場合、第1の部位からの戻り光の検出と第2の部位からの戻り光の検出とが異なるタイミングで行われるので、これら検出の間に被検眼の位置や向きが変化するおそれがある。したがって、非同時検出には、測定の確度が低下するという不利益がある。   On the other hand, when non-simultaneous detection is applied, detection of the return light from the first part and detection of the return light from the second part are performed at different timings. And the orientation may change. Therefore, non-simultaneous detection has the disadvantage that the accuracy of measurement is reduced.

この発明の目的は、装置の大型化や複雑化を伴うことなく高い確度で眼内距離を測定可能な眼科装置を提供することにある。   An object of the present invention is to provide an ophthalmologic apparatus capable of measuring an intraocular distance with high accuracy without increasing the size and complexity of the apparatus.

実施形態の第1の態様に係る眼科装置は、撮影部と、光学系と、変更部と、制御部と、演算部とを含む。撮影部は、2以上の異なる方向から被検眼を撮影する。光学系は、光源からの光を測定光と参照光とに分割し、被検眼からの測定光の戻り光と参照光との干渉光を検出する。変更部は、測定光および/または参照光の光路長を変更する。制御部は、変更部により第1の光路長が設定されているときに撮影部による第1の撮影と光学系による第1の検出とを実行させ、さらに、第2の光路長が設定されているときに撮影部による第2の撮影と光学系による第2の検出とを実行させる。演算部は、第1の撮影により取得された第1の画像と、第2の撮影により取得された第2の画像と、第1の光路長と、第2の光路長とに基づいて、第1の検出において測定光が通過した被検眼の第1の部位と、第2の検出において測定光が通過した第2の部位との間の距離を求める。さらに、第1の部位および第2の部位のそれぞれがコヒーレンスゲートに相当する場合、演算部は、第1の画像と第2の画像との間の変位を算出し、第1の光路長と第2の光路長との差を算出し、変位および差に基づいて距離を算出する。
実施形態の第2の態様に係る眼科装置は、撮影部と、光学系と、変更部と、制御部と、演算部とを含む。撮影部は、2以上の異なる方向から被検眼を撮影する。光学系は、光源からの光を測定光と参照光とに分割し、被検眼からの測定光の戻り光と参照光との干渉光を検出する。変更部は、測定光および/または参照光の光路長を変更する。制御部は、変更部により第1の光路長が設定されているときに撮影部による第1の撮影と光学系による第1の検出とを実行させ、さらに、第2の光路長が設定されているときに撮影部による第2の撮影と光学系による第2の検出とを実行させる。演算部は、第1の撮影により取得された第1の画像と、第2の撮影により取得された第2の画像と、第1の光路長と、第2の光路長とに基づいて、第1の検出において測定光が通過した被検眼の第1の部位と、第2の検出において測定光が通過した第2の部位との間の距離を求める。さらに、第1の部位および第2の部位の少なくとも一方がコヒーレンスゲートから離れた位置に相当する場合、演算部は、第1の画像と第2の画像との間の第1の変位を算出し、コヒーレンスゲートから離れた位置とコヒーレンスゲートとの間の第2の変位を算出し、第1の光路長と第2の光路長との差を算出し、第1の変位、第2の変位および差に基づいて距離を算出する。
The ophthalmologic apparatus according to the first aspect of the embodiment includes an imaging unit, an optical system, a changing unit, a control unit, and a calculation unit. The imaging unit images the eye to be examined from two or more different directions. The optical system divides the light from the light source into measurement light and reference light, and detects interference light between the return light of the measurement light from the eye to be examined and the reference light. The changing unit changes the optical path length of the measurement light and / or the reference light. The control unit causes the first imaging by the imaging unit and the first detection by the optical system to be executed when the first optical path length is set by the changing unit, and further, the second optical path length is set. The second imaging by the imaging unit and the second detection by the optical system are executed. The computing unit is configured to calculate the first image acquired by the first imaging, the second image acquired by the second imaging, the first optical path length, and the second optical path length. The distance between the first part of the eye to be examined through which the measurement light has passed in the first detection and the second part through which the measurement light has passed in the second detection is obtained. Further, when each of the first part and the second part corresponds to a coherence gate, the calculation unit calculates a displacement between the first image and the second image, and calculates the first optical path length and the first optical path length. 2 is calculated, and the distance is calculated based on the displacement and the difference.
The ophthalmologic apparatus according to the second aspect of the embodiment includes an imaging unit, an optical system, a changing unit, a control unit, and a calculation unit. The imaging unit images the eye to be examined from two or more different directions. The optical system divides the light from the light source into measurement light and reference light, and detects interference light between the return light of the measurement light from the eye to be examined and the reference light. The changing unit changes the optical path length of the measurement light and / or the reference light. The control unit causes the first imaging by the imaging unit and the first detection by the optical system to be executed when the first optical path length is set by the changing unit, and further, the second optical path length is set. The second imaging by the imaging unit and the second detection by the optical system are executed. The computing unit is configured to calculate the first image acquired by the first imaging, the second image acquired by the second imaging, the first optical path length, and the second optical path length. The distance between the first part of the eye to be examined through which the measurement light has passed in the first detection and the second part through which the measurement light has passed in the second detection is obtained. Furthermore, when at least one of the first part and the second part corresponds to a position away from the coherence gate, the calculation unit calculates a first displacement between the first image and the second image. , Calculating a second displacement between the position away from the coherence gate and the coherence gate, calculating a difference between the first optical path length and the second optical path length, and calculating the first displacement, the second displacement, and The distance is calculated based on the difference.

この発明に係る眼科装置によれば、装置の大型化や複雑化を伴うことなく高い確度で眼内距離を測定することができる。   According to the ophthalmologic apparatus of the present invention, the intraocular distance can be measured with high accuracy without increasing the size and complexity of the apparatus.

実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology device concerning an embodiment. 実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology device concerning an embodiment. 実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology device concerning an embodiment. 実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology device concerning an embodiment. 実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology device concerning an embodiment. 実施形態に係る眼科装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmologic apparatus which concerns on embodiment. 実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology device concerning an embodiment. 実施形態に係る眼科装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmologic apparatus which concerns on embodiment.

この発明に係る眼科装置の実施形態の一例について、図面を参照しながら詳細に説明する。実施形態に係る眼科装置は、OCTを用いて眼内距離を計測する機能を有する。この明細書において、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCTまたはOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。   An example of an embodiment of an ophthalmologic apparatus according to the present invention will be described in detail with reference to the drawings. The ophthalmologic apparatus according to the embodiment has a function of measuring an intraocular distance using OCT. In this specification, images acquired by OCT may be collectively referred to as OCT images. Further, a measurement operation for forming an OCT image may be referred to as OCT or OCT measurement. In addition, it is possible to use suitably the description content of the literature described in this specification as the content of the following embodiment.

以下の実施形態では、低コヒーレンス光源と分光器が搭載された、いわゆるスペクトラルドメイン(Spectral Domain)タイプのOCTを用いる干渉断層計について説明するが、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースタイプ、インファスタイプのOCTの手法を用いた光干渉断層計に対してこの発明を適用することも可能である。なお、スウェプトソース(Swept Source)OCTとは、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を順次に検出することでスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化する手法である。また、インファス(en−face)OCTとは、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面(C断面)における被測定物体の画像を形成する手法であり、フルフィールド(full−field)タイプとも呼ばれる。   In the following embodiment, a coherence tomometer using a so-called Spectral Domain type OCT equipped with a low-coherence light source and a spectroscope will be described. However, types other than the spectral domain, for example, a swept source type and an infath type are described. The present invention can also be applied to an optical coherence tomography using the OCT method. Note that the swept source OCT scans (wavelength sweeps) the wavelength of the light irradiated to the object to be measured, and the interference light obtained by superimposing the reflected light of each wavelength and the reference light. This is a technique for obtaining a spectral intensity distribution by sequentially detecting and imaging the form of an object to be measured by applying a Fourier transform thereto. Further, in-face OCT is to irradiate the object to be measured with light having a predetermined beam diameter and analyze the component of the interference light obtained by superimposing the reflected light and the reference light. This is a method of forming an image of the object to be measured in a cross section (C cross section) orthogonal to the traveling direction of light, and is also called a full-field type.

また、以下の実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、この発明の適用対象はこのような複合機には限定されない。たとえば、他の組み合わせからなる複合機や、単体機としての眼科用光干渉断層計に対して、この発明を適用することも可能である。なお、複合機の例として、OCT装置と走査型レーザ検眼装置(SLO)との組み合わせからなる複合機、OCT装置とスリットランプ顕微鏡との組み合わせからなる複合機、OCT装置と手術用顕微鏡との組み合わせからなる複合機などがある。また、3種類以上の装置の組み合わせからなる複合機に対して、この発明を適用することも可能である。   Moreover, although the following embodiment demonstrates the apparatus which combined the OCT apparatus and the fundus camera, the application object of this invention is not limited to such a multifunctional machine. For example, the present invention can also be applied to a multi-function machine composed of other combinations or an ophthalmic optical coherence tomography as a single machine. In addition, as an example of a complex machine, a complex machine composed of a combination of an OCT apparatus and a scanning laser optometry apparatus (SLO), a complex machine composed of a combination of an OCT apparatus and a slit lamp microscope, and a combination of an OCT apparatus and a surgical microscope There is a multi-function machine. In addition, the present invention can be applied to a multi-function machine composed of a combination of three or more types of devices.

〈第1の実施形態〉
[構成]
図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
<First Embodiment>
[Constitution]
As shown in FIG. 1, the ophthalmologic apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The retinal camera unit 2 has almost the same optical system as a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.

〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。なお、被検眼Eの前眼部Eaに光学系のピントが合っている場合、眼底カメラユニット2は前眼部Eaの観察画像を取得することができる。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined. The fundus image includes an observation image and a captured image. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. In addition, when the optical system is focused on the anterior segment Ea of the eye E, the fundus camera unit 2 can obtain an observation image of the anterior segment Ea. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.

眼底カメラユニット2には、被検者の顔を支持するための顎受けと額当てが設けられている。顎受けおよび額当ては、図4Aおよび図4Bに示す支持部440に相当する。なお、図4Aおよび図4Bにおいて、符号410は、光学系駆動部2A等の駆動系や、演算制御回路が格納されたベースを示す。また、符号420は、ベース410上に設けられた、光学系が格納された筐体を示す。また、符号430は、筐体420の前面に突出して設けられた、対物レンズ22が収容されたレンズ収容部を示す。   The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the subject's face. The chin rest and the forehead support correspond to the support portion 440 shown in FIGS. 4A and 4B. In FIG. 4A and FIG. 4B, reference numeral 410 denotes a drive system such as the optical system drive unit 2A and a base in which an arithmetic control circuit is stored. Reference numeral 420 denotes a housing provided on the base 410 and storing an optical system. Reference numeral 430 denotes a lens housing portion that is provided on the front surface of the housing 420 and accommodates the objective lens 22.

眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの測定光を眼底Efに導くとともに、眼底Efを経由した測定光をOCTユニット100に導く。   The fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38). Further, the imaging optical system 30 guides the measurement light from the OCT unit 100 to the fundus oculi Ef and guides the measurement light passing through the fundus oculi Ef to the OCT unit 100.

照明光学系10の観察光源11は、たとえばLED(Light Emitting Diode)またはハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。さらに、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。   The observation light source 11 of the illumination optical system 10 is configured by, for example, an LED (Light Emitting Diode) or a halogen lamp. The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。さらに、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。   The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Furthermore, the fundus reflection light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens. The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.

撮影光源15は、たとえばLEDまたはキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。   The imaging light source 15 is constituted by, for example, an LED or a xenon lamp. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. On the display device 3, an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In addition, when similar imaging is performed by illuminating the eye E with infrared light, an infrared captured image is displayed.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。   An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.

LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   A part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心(眼底Efと眼軸との交差位置)を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。   By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed. As the fixation position of the eye E, for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc (intersection between the fundus Ef and the eye axis). It is also possible to arbitrarily change the display position of the fixation target.

さらに、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。   Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in a conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。   The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the perforated mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。なお、この実施形態では、後述の前眼部カメラ300を用いてオートアライメントを実行することができるので、アライメント指標を用いたオートアライメントが可能なことは必須な事項ではない。ただし、前眼部カメラ300を用いたオートアライメントが成功しなかった場合などにアライメント指標を用いたオートアライメントを行えるように構成したり、前眼部カメラ300を用いたオートアライメントとアライメント指標を用いたオートアライメントとを選択的に使用できるように構成したりすることも可能である。   The corneal reflection light of the alignment light passes through the objective lens 22, the dichroic mirror 46 and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is half mirror The light passes through 39A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. The light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function). In this embodiment, since auto-alignment can be performed using an anterior segment camera 300 described later, it is not essential that auto-alignment using an alignment index is possible. However, the auto-alignment using the alignment index can be performed when the auto-alignment using the anterior segment camera 300 is not successful, or the auto-alignment using the anterior segment camera 300 and the alignment index are used. It is also possible to configure such that automatic alignment can be selectively used.

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。さらに、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。   The fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the cornea reflection light of the alignment light. A light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic and control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.

ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。   The dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus photography. The dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing. In this optical path for OCT measurement, a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、測定光LSの光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整、さらにはOCT計測の対象部位(眼底Ef、前眼部Ea等)の変更などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。光路長変更部41は、測定光LSの光路(測定光路)と、参照光LRの光路(参照光路)との間の光路長差を変更するために用いられる。なお、この実施形態においては、光学系駆動部2Aを用いて光学系全体を前後方向(z方向)に移動させることによって、測定光路の長さを変更することも可能である。   The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1 and changes the optical path length of the measurement light LS. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E to be examined, adjusting the interference state, and changing the OCT measurement target site (fundus Ef, anterior eye portion Ea, etc.). Is done. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube. The optical path length changing unit 41 is used to change the optical path length difference between the optical path of the measurement light LS (measurement optical path) and the optical path of the reference light LR (reference optical path). In this embodiment, it is possible to change the length of the measurement optical path by moving the entire optical system in the front-rear direction (z direction) using the optical system driving unit 2A.

この実施形態では、測定光路の長さ(測定光路長)を変更することによって上記光路長差を変更しているが、上記光路長差を変更するための構成はこれに限定されない。たとえば、参照光路の長さ(参照光路長)を変更するための構成を設けることにより上記光路長差を変更することができる。また、測定光路長を変更するための構成と、参照光路長を変更するための構成との双方を設けてもよい。測定光路長を変更するための構成は、この実施形態の光路長変更部41に限定されず、当該機能を実現可能な任意の構成であってよい。また、参照光路長を変更するための構成についても同様に任意であってよい。   In this embodiment, the optical path length difference is changed by changing the length of the measurement optical path (measurement optical path length). However, the configuration for changing the optical path length difference is not limited to this. For example, the optical path length difference can be changed by providing a configuration for changing the length of the reference optical path (reference optical path length). Further, both a configuration for changing the measurement optical path length and a configuration for changing the reference optical path length may be provided. The configuration for changing the measurement optical path length is not limited to the optical path length changing unit 41 of this embodiment, and may be any configuration capable of realizing the function. Similarly, the configuration for changing the reference optical path length may be arbitrary.

また、光路長の変更するための構成は、実空間における光路の長さを変更する構成には限定されない。たとえば、光路の少なくとも一部に所定の屈折率を有する部材や材料を配置可能とする構成や、光路に配置された部材等の屈折率を変更する構成など、光路の光学的距離を変更するための任意の構成を適用することが可能である。   Further, the configuration for changing the optical path length is not limited to the configuration for changing the length of the optical path in real space. For example, in order to change the optical distance of the optical path, such as a configuration in which a member or material having a predetermined refractive index can be disposed in at least a part of the optical path, or a configuration in which the refractive index of a member disposed in the optical path is changed It is possible to apply any configuration.

また、光路長を変更するための手段は、眼科装置1に対して装着可能なユニット(アタッチメント)であってよい。たとえば、眼底のOCT計測が可能な眼科装置に対して前眼部撮影用のアタッチメントを装着する構成、または、前眼部のOCT計測が可能な眼科装置に対して眼底撮影用のアタッチメントを装着する構成を適用することが可能である。このようなアタッチメントは、たとえば、対物レンズ22と被検眼Eとの間に配置される。このとき、前眼部カメラ300の撮影野から外れた位置にアタッチメントを配置することができる。   The means for changing the optical path length may be a unit (attachment) that can be attached to the ophthalmologic apparatus 1. For example, a configuration in which an anterior ocular segment attachment is attached to an ophthalmologic apparatus capable of OCT measurement of the fundus, or an ocular fundus attachment is attached to an ophthalmic apparatus capable of OCT measurement of the anterior ocular segment. It is possible to apply a configuration. Such an attachment is disposed between the objective lens 22 and the eye E, for example. At this time, the attachment can be arranged at a position outside the imaging field of the anterior segment camera 300.

ガルバノスキャナ42は、OCT計測用の光路を通過する光(測定光LS)の進行方向を変更する。それにより、被検眼Eを測定光LSで走査することができる。ガルバノスキャナ42は、たとえば、測定光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、測定光LSをxy平面上の任意の方向に走査することができる。   The galvano scanner 42 changes the traveling direction of light (measurement light LS) passing through the optical path for OCT measurement. Thereby, the eye E can be scanned with the measurement light LS. The galvano scanner 42 includes, for example, a galvanometer mirror that scans the measurement light LS in the x direction, a galvanometer mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the measurement light LS can be scanned in an arbitrary direction on the xy plane.

眼底カメラユニット2には前眼部カメラ300が設けられている。前眼部カメラ300は、前眼部Eaを異なる方向から実質的に同時に撮影する。この実施形態では、眼底カメラユニット2の被検者側の面に2台のカメラが設けられている(図4Aに示す前眼部カメラ300A、300Bを参照)。また、前眼部カメラ300Aおよび300Bはそれぞれ、図1および図4Aに示すように、照明光学系10の光路および撮影光学系30の光路から外れた位置に設けられている。つまり、前眼部カメラ300Aおよび300Bは、照明光学系10および撮影光学系30と非同軸に設けられている。以下、2台の前眼部カメラ300Aおよび300Bをまとめて符号300で表すことがある。   The fundus camera unit 2 is provided with an anterior eye camera 300. The anterior segment camera 300 images the anterior segment Ea substantially simultaneously from different directions. In this embodiment, two cameras are provided on the subject-side surface of the fundus camera unit 2 (see anterior eye cameras 300A and 300B shown in FIG. 4A). Further, as shown in FIGS. 1 and 4A, the anterior eye cameras 300A and 300B are provided at positions deviated from the optical path of the illumination optical system 10 and the optical path of the imaging optical system 30, respectively. That is, the anterior eye cameras 300 </ b> A and 300 </ b> B are provided non-coaxially with the illumination optical system 10 and the imaging optical system 30. Hereinafter, the two anterior eye cameras 300A and 300B may be collectively represented by reference numeral 300.

この実施形態では、2台の前眼部カメラ300Aおよび300Bが設けられているが、実施形態に係る前眼部カメラの個数は2以上の任意の個数であってよい(ただし、アライメント指標を用いる場合には前眼部カメラを設ける必要はない)。しかし、後述の演算処理を考慮すると、異なる2方向から実質的に同時に前眼部を撮影可能な構成であれば十分である。また、この実施形態では、照明光学系10および撮影光学系30とは別個に前眼部カメラ300を設けているが、少なくとも撮影光学系30を用いて同様の前眼部撮影を行うことができる。つまり、2以上の前眼部カメラのうちの1つを撮影光学系30を含む構成によって担うようにしてもよい。いずれにしても、この実施形態は、異なる2(以上の)方向から実質的に同時に前眼部を撮影可能に構成されていればよい。   In this embodiment, two anterior eye cameras 300A and 300B are provided, but the number of anterior eye cameras according to the embodiment may be an arbitrary number of 2 or more (however, an alignment index is used). In some cases, it is not necessary to provide an anterior eye camera). However, in consideration of the arithmetic processing described later, a configuration that can photograph the anterior segment substantially simultaneously from two different directions is sufficient. In this embodiment, the anterior segment camera 300 is provided separately from the illumination optical system 10 and the imaging optical system 30, but at least the imaging optical system 30 can be used to perform similar anterior segment imaging. . That is, one of the two or more anterior segment cameras may be carried by a configuration including the imaging optical system 30. Anyway, this embodiment should just be comprised so that imaging | photography of the anterior ocular segment can be carried out substantially simultaneously from two different (or more) directions.

なお、「実質的に同時」とは、2以上の前眼部カメラによる撮影において、眼球運動を無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検眼Eが実質的に同じ位置(向き)にあるときの画像を2以上の前眼部カメラによって取得することができる。   Note that “substantially simultaneously” indicates that a photographing timing shift that allows negligible eye movement is allowed in photographing with two or more anterior segment cameras. Thereby, an image when the eye E is substantially at the same position (orientation) can be acquired by two or more anterior segment cameras.

また、2以上の前眼部カメラによる撮影は動画撮影でも静止画撮影でもよい。動画撮影の場合、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記した実質的に同時の前眼部撮影を実現することができる。また、2以上の前眼部カメラから制御部210(後述)に対して実質的に同時に入力された信号同士を対応付けるように構成してもよい。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御を実行することにより、これを実現することができる。   Further, the shooting by two or more anterior segment cameras may be moving image shooting or still image shooting. In the case of moving image shooting, the above-described substantially simultaneous anterior ocular shooting can be realized by controlling the shooting start timing to match or by controlling the frame rate and shooting timing of each frame. Moreover, you may comprise so that the signal input simultaneously substantially simultaneously with respect to the control part 210 (after-mentioned) from two or more anterior eye part cameras may be matched. On the other hand, in the case of still image shooting, this can be realized by executing control to match the shooting timing.

〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、被検眼EのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、光源からの光(低コヒーレンス光)を参照光と測定光に分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the eye E. This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides the light (low coherence light) from the light source into reference light and measurement light, and causes interference between the return light of the measurement light from the eye E and the reference light via the reference light path. It is configured to generate light and detect a spectral component of the interference light. This detection result (detection signal) is sent to the arithmetic control unit 200.

なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、OCTのタイプに応じた公知の技術を任意に適用することができる。   In the case of a swept source type OCT apparatus, a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided. In general, for the configuration of the OCT unit 100, a known technique corresponding to the type of OCT can be arbitrarily applied.

光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、さらに長い波長帯、たとえば1040〜1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。   The light source unit 101 outputs a broadband low-coherence light L0. The low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a longer wavelength band, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low coherence light L0.

光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。   The light source unit 101 includes a light output device such as a super luminescent diode (SLD), an LED, or an SOA (Semiconductor Optical Amplifier).

光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて測定光LSと参照光LRに分割される。   The low coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and is divided into the measurement light LS and the reference light LR.

参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。   The reference light LR is guided by the optical fiber 104 and reaches the optical attenuator (attenuator) 105. The optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106. The polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape. The configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used. The reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.

ファイバカプラ103により生成された測定光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。さらに、測定光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに照射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eによる測定光LSの後方散乱光(戻り光)は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。   The measurement light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the measurement light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. Then, the measurement light LS is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated to the eye E. The measurement light LS is scattered and reflected at various depth positions of the eye E. The backscattered light (return light) of the measurement light LS from the eye E travels in the reverse direction on the same path as the forward path, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.

ファイバカプラ109は、測定光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。さらに、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。   The fiber coupler 109 causes the backscattered light of the measurement light LS to interfere with the reference light LR that has passed through the optical fiber 104. The interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115. Although the diffraction grating 113 shown in FIG. 2 is a transmission type, other types of spectroscopic elements such as a reflection type diffraction grating may be used.

CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。   The CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges. The CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。   In this embodiment, a Michelson type interferometer is employed, but any type of interferometer such as a Mach-Zehnder type can be appropriately employed. Further, in place of the CCD image sensor, another form of image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して被検眼EのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
[Calculation control unit]
The configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 to form an OCT image of the eye E. The arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、被検眼EのOCT画像を表示装置3に表示させる。   The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the eye E on the display device 3.

また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御、前眼部カメラ300の動作制御などを行う。   As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, operation control of the anterior eye camera 300, and the like are performed.

また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。   As control of the OCT unit 100, the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.

演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。   The arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, etc., as in a conventional computer. A computer program for controlling the ophthalmologic apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。   The fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more cases. It may be.

〔制御系〕
眼科装置1の制御系の構成について図3を参照しつつ説明する。
[Control system]
The configuration of the control system of the ophthalmologic apparatus 1 will be described with reference to FIG.

(制御部)
眼科装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212と、光学系位置取得部213と、情報判定部214とが設けられている。
(Control part)
The control system of the ophthalmologic apparatus 1 is configured around the control unit 210. The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 includes a main control unit 211, a storage unit 212, an optical system position acquisition unit 213, and an information determination unit 214.

(主制御部)
主制御部211は前述した各種の動作制御を行う。なお、合焦レンズ31の移動制御は、図示しない合焦駆動部を制御して合焦レンズ31を光軸方向に移動させるものである。それにより、撮影光学系30の合焦位置が変更される。また、合焦レンズ43の移動制御は、図示しない合焦駆動部を制御して合焦レンズ43を光軸方向に移動させるものである。それにより、測定光LSの合焦位置が変更される。
(Main control unit)
The main control unit 211 performs the various operation controls described above. The movement control of the focusing lens 31 is to move the focusing lens 31 in the optical axis direction by controlling a focusing drive unit (not shown). Thereby, the focus position of the photographic optical system 30 is changed. The movement control of the focusing lens 43 is to move the focusing lens 43 in the optical axis direction by controlling a focusing drive unit (not shown). Thereby, the focus position of the measurement light LS is changed.

主制御部211は、光学系駆動部2Aを制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることができる。この制御は、オートアライメントやトラッキングにおいて実行される。ここで、トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングは、たとえばアライメントよりも後の段階で実行される(場合によってはピント合わせも事前に実行される)。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメント(およびピント)が合った好適な位置関係を維持する機能である。   The main control unit 211 can control the optical system driving unit 2A to move the optical system provided in the fundus camera unit 2 three-dimensionally. This control is executed in auto alignment and tracking. Here, tracking refers to moving the apparatus optical system in accordance with the eye movement of the eye E. Tracking is performed, for example, at a later stage than alignment (in some cases, focusing is also performed in advance). Tracking is a function that maintains a suitable positional relationship in alignment (and focus) by causing the position of the apparatus optical system to follow the eye movement.

なお、この実施形態の光学系駆動部2Aは眼底カメラユニット2に搭載された光学系を移動させるものであるが、眼底カメラユニット2に搭載された光学系とOCTユニット100に搭載された光学系とを光学系駆動部2Aによって移動させるように構成されていてもよい。光学系駆動部2Aは「移動機構」の一例である。   Note that the optical system drive unit 2A of this embodiment moves the optical system mounted on the fundus camera unit 2, but the optical system mounted on the fundus camera unit 2 and the optical system mounted on the OCT unit 100. May be moved by the optical system driving unit 2A. The optical system driving unit 2A is an example of a “moving mechanism”.

また、この実施形態の前眼部カメラ300は眼底カメラユニット2の筐体に設けられているので、光学系駆動部2A(撮影移動部)を制御することにより前眼部カメラ300を移動させることができる。また、2以上の前眼部カメラ300をそれぞれ独立に移動させることが可能な撮影移動部を設けることができる。具体的には、撮影移動部は、各前眼部カメラ300に対して設けられた駆動機構(アクチュエータ、動力伝達機構等)を含む構成であってもよい。また、撮影移動部は、単一のアクチュエータにより発生された動力を前眼部カメラ300ごとに設けられた動力伝達機構によって伝達することにより、2以上の前眼部カメラ300を移動させるように構成されていてもよい。   In addition, since the anterior eye camera 300 of this embodiment is provided in the housing of the fundus camera unit 2, the anterior eye camera 300 is moved by controlling the optical system driving unit 2A (imaging moving unit). Can do. Further, it is possible to provide a photographing moving unit that can independently move two or more anterior eye camera 300. Specifically, the imaging moving unit may include a drive mechanism (an actuator, a power transmission mechanism, etc.) provided for each anterior eye camera 300. The imaging moving unit is configured to move two or more anterior eye cameras 300 by transmitting power generated by a single actuator by a power transmission mechanism provided for each anterior eye camera 300. May be.

また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。   Further, the main control unit 211 performs processing for writing data into the storage unit 212 and processing for reading data from the storage unit 212.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information. The eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information. The storage unit 212 stores various programs and data for operating the ophthalmologic apparatus 1.

記憶部212には収差情報212aがあらかじめ記憶されている。収差情報212aには、各前眼部カメラ300について、それに搭載された光学系の影響により撮影画像に発生する歪曲収差に関する情報が記録されている。ここで、前眼部カメラ300に搭載された光学系には、たとえばレンズ等の歪曲収差を発生させる光学素子が含まれている。収差情報212aは、これらの光学素子が撮影画像に与える歪みを定量化したパラメータと言える。   The storage unit 212 stores aberration information 212a in advance. In the aberration information 212a, information regarding distortion aberration generated in the captured image due to the influence of the optical system mounted on each anterior eye camera 300 is recorded. Here, the optical system mounted on the anterior segment camera 300 includes an optical element that generates distortion, such as a lens. The aberration information 212a can be said to be a parameter obtained by quantifying the distortion that these optical elements give to the captured image.

収差情報212aの生成方法の例を説明する。前眼部カメラ300の器差(歪曲収差の差異)を考慮して各前眼部カメラ300について次のような測定が行われる。作業者は、所定の基準点を準備する。基準点とは、歪曲収差の検出に用いられる撮影ターゲットである。作業者は、基準点と前眼部カメラ300との相対位置を変更しつつ複数回の撮影を行う。それにより、異なる方向から撮影された基準点の複数の撮影画像が得られる。作業者は、取得された複数の撮影画像をコンピュータで解析することにより、この前眼部カメラ300の収差情報212aを生成する。なお、この解析処理を行うコンピュータは、データ処理部230であってもよいし、それ以外の任意のコンピュータ(製品出荷前の検査用コンピュータ、メンテナンス用コンピュータ等)のであってもよい。   An example of a method for generating the aberration information 212a will be described. Taking the instrumental difference (difference in distortion) of the anterior segment camera 300 into consideration, the following measurement is performed for each anterior segment camera 300. The operator prepares a predetermined reference point. The reference point is an imaging target used for detecting distortion. The operator performs multiple shootings while changing the relative position between the reference point and the anterior eye camera 300. Thereby, a plurality of captured images of the reference point captured from different directions are obtained. The operator generates aberration information 212a of the anterior eye camera 300 by analyzing a plurality of acquired images with a computer. The computer that performs the analysis processing may be the data processing unit 230 or any other computer (such as an inspection computer or a maintenance computer before product shipment).

収差情報212aを生成するための解析処理には、たとえば以下の工程が含まれる:
各撮影画像から基準点に相当する画像領域を抽出する抽出工程;
各撮影画像における基準点に相当する画像領域の分布状態(座標)を算出する分布状態算出工程;
得られた分布状態に基づいて歪曲収差を表すパラメータを算出する歪曲収差算出工程;
得られたパラメータに基づいて歪曲収差を補正するための係数を算出する補正係数算出工程。
The analysis process for generating the aberration information 212a includes, for example, the following steps:
An extraction step of extracting an image region corresponding to the reference point from each captured image;
A distribution state calculation step of calculating a distribution state (coordinates) of an image area corresponding to a reference point in each captured image;
A distortion aberration calculating step of calculating a parameter representing distortion based on the obtained distribution state;
A correction coefficient calculation step of calculating a coefficient for correcting distortion based on the obtained parameter.

なお、光学系が画像に与える歪曲収差に関連するパラメータとしては、主点距離、主点位置(縦方向、横方向)、レンズのディストーション(放射方向、接線方向)などがある。収差情報212aは、各前眼部カメラ300の識別情報と、これに対応する補正係数とを関連付けた情報(たとえばテーブル情報)として構成される。このようにして生成された収差情報212aは、主制御部211によって記憶部212に格納される。このような収差情報212aの生成およびこれに基づく収差補正は、カメラのキャリブレーション(Calibration)などと呼ばれる。   Parameters relating to distortion aberration given to an image by the optical system include principal point distance, principal point position (vertical direction, horizontal direction), lens distortion (radiation direction, tangential direction), and the like. The aberration information 212a is configured as information (for example, table information) in which the identification information of each anterior segment camera 300 is associated with the correction coefficient corresponding thereto. The aberration information 212a generated in this way is stored in the storage unit 212 by the main control unit 211. Such generation of aberration information 212a and aberration correction based on this generation are referred to as camera calibration.

(光学系位置取得部)
光学系位置取得部213は、眼科装置1に搭載された光学系の現在位置を取得する。光学系とは、被検眼Eを光学的に検査するために用いられる光学系である。この実施形態の眼科装置1(眼底カメラとOCT装置の複合機)における光学系は、被検眼の画像を得るための光学系である。
(Optical system position acquisition unit)
The optical system position acquisition unit 213 acquires the current position of the optical system mounted on the ophthalmologic apparatus 1. The optical system is an optical system used to optically inspect the eye E. An optical system in the ophthalmologic apparatus 1 (a complex machine of a fundus camera and an OCT apparatus) of this embodiment is an optical system for obtaining an image of the eye to be examined.

光学系位置取得部213は、たとえば、主制御部211による光学系駆動部2Aの移動制御の内容を表す情報を受けて、光学系駆動部2Aにより移動される光学系の現在位置を取得する。この処理の具体例を説明する。主制御部211は、所定のタイミング(装置起動時、患者情報入力時など)で光学系駆動部2Aを制御して、光学系を所定の初期位置に移動させる。それ以降、主制御部211は、光学系駆動部2Aが制御される度に、その制御内容を記録する。それにより、制御内容の履歴が得られる。光学系位置取得部213は、この履歴を参照して現在までの制御内容を取得し、この制御内容に基づいて光学系の現在位置を求める。   The optical system position acquisition unit 213 receives, for example, information indicating the content of movement control of the optical system driving unit 2A by the main control unit 211, and acquires the current position of the optical system moved by the optical system driving unit 2A. A specific example of this process will be described. The main control unit 211 controls the optical system driving unit 2A at a predetermined timing (when the apparatus is activated, when patient information is input, etc.) to move the optical system to a predetermined initial position. Thereafter, each time the optical system driving unit 2A is controlled, the main control unit 211 records the control contents. Thereby, a history of control contents is obtained. The optical system position acquisition unit 213 acquires the control content up to the present with reference to this history, and obtains the current position of the optical system based on the control content.

また、主制御部211が光学系駆動部2Aを制御する度にその制御内容を光学系位置取得部213に送信し、光学系位置取得部213が当該制御内容を受ける度に光学系の現在位置を逐次求めるようにしてもよい。   Further, every time the main control unit 211 controls the optical system driving unit 2A, the control content is transmitted to the optical system position acquisition unit 213, and every time the optical system position acquisition unit 213 receives the control content, the current position of the optical system is transmitted. May be obtained sequentially.

他の構成例として、光学系の位置を検知する位置センサを光学系位置取得部213に設けるようにしてもよい。   As another configuration example, a position sensor that detects the position of the optical system may be provided in the optical system position acquisition unit 213.

以上のようにして光学系位置取得部213により光学系の現在位置が取得された場合、主制御部211は、取得された現在位置と、後述の解析部231により求められた被検眼Eの3次元位置とに基づいて、光学系駆動部2Aに光学系を移動させることができる。具体的には、主制御部211は、光学系位置取得部213による取得結果によって光学系の現在位置を認識し、解析部231による解析結果によって被検眼Eの3次元位置を認識する。そして、主制御部211は、被検眼Eの3次元位置に対する光学系の位置が所定の位置関係になるように、光学系の現在位置を起点としてその位置を変更する。この所定の位置関係は、x方向およびy方向の位置がそれぞれ一致し、かつ、z方向の距離が所定の作動距離になるようなものである。ここで、作動距離とは、ワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた検査時における被検眼Eと光学系との間の距離を意味する。   When the current position of the optical system is acquired by the optical system position acquisition unit 213 as described above, the main control unit 211 determines the acquired current position and 3 of the eye E to be examined obtained by the analysis unit 231 described later. Based on the dimension position, the optical system can be moved to the optical system driving unit 2A. Specifically, the main control unit 211 recognizes the current position of the optical system based on the acquisition result by the optical system position acquisition unit 213, and recognizes the three-dimensional position of the eye E based on the analysis result by the analysis unit 231. Then, the main control unit 211 changes the position of the optical system from the current position of the optical system so that the position of the optical system with respect to the three-dimensional position of the eye E has a predetermined positional relationship. This predetermined positional relationship is such that the positions in the x direction and the y direction coincide with each other and the distance in the z direction becomes a predetermined working distance. Here, the working distance is a predetermined value called a working distance, and means a distance between the eye E and the optical system at the time of examination using the optical system.

(情報判定部)
情報判定部214は、OCTを行うことによって取得された情報が、OCTを実行するにあたり適当であるか否か判定する。OCTにより取得される情報としては、OCTユニット100のCCDイメージセンサ115からの検出信号や、この検出信号に対して所定の処理を施すことにより得られる情報がある。後者の例として次のような情報がある:検出信号に基づき画像形成部220により形成される断面像(Aスキャン像、2次元断面像);この断面像形成処理の途中段階で得られる情報;画像形成部220により形成された1以上の断面像に基づきデータ処理部230により形成される情報(画像等);これら以外の処理を検出信号に施すことにより得られる情報。
(Information judgment part)
The information determination unit 214 determines whether information acquired by performing OCT is appropriate for executing OCT. Information acquired by OCT includes a detection signal from the CCD image sensor 115 of the OCT unit 100 and information obtained by performing predetermined processing on the detection signal. Examples of the latter include the following information: a cross-sectional image (A scan image, two-dimensional cross-sectional image) formed by the image forming unit 220 based on the detection signal; information obtained in the middle of this cross-sectional image forming process; Information (image or the like) formed by the data processing unit 230 based on one or more cross-sectional images formed by the image forming unit 220; information obtained by performing other processing on the detection signal.

CCDイメージセンサ115からの検出信号に基づく判定処理の例を説明する。情報判定部214は、検出信号を解析してその特性を示す情報(特性情報)を求め、この特性情報がOCTを実行するにあたり適当であるか否か判定する。特性情報の種別は、たとえば、眼内に存在する光を撹乱する要因が測定光LSに与える影響(つまり干渉光LCに与える影響)に基づいて、あらかじめ決定される。   An example of determination processing based on the detection signal from the CCD image sensor 115 will be described. The information determination unit 214 analyzes the detection signal to obtain information (characteristic information) indicating the characteristic, and determines whether or not the characteristic information is appropriate for executing the OCT. The type of characteristic information is determined in advance based on, for example, the influence of factors that disturb the light existing in the eye on the measurement light LS (that is, the influence on the interference light LC).

特性情報の例として強度(振幅等)がある。たとえば被検眼E内の混濁部位を測定光LSが通過する場合、測定光LSの強度が低下し、その結果、干渉光LCの強度が低下する。情報判定部214は、干渉光LCを検出して得られる検出信号の強度を求め、この強度を閾値と比較する。強度が閾値以下である場合、情報判定部214は、この検出信号は不適当であると判定する。この閾値は、たとえば、光源ユニット101から出力される光の強度に基づいてあらかじめ決定される。なお、ファイバカプラ103による光の分割比率や、光学部材による光の減衰量、健常眼の内部を通過することによる標準的な光の減衰量など、各種のファクタを考慮することによって閾値を決定することもできる。また、信号強度以外の特性情報の例として、ノイズ量やSN比などがある。   An example of characteristic information is intensity (amplitude, etc.). For example, when the measurement light LS passes through the turbid site in the eye E, the intensity of the measurement light LS decreases, and as a result, the intensity of the interference light LC decreases. The information determination unit 214 obtains the intensity of the detection signal obtained by detecting the interference light LC, and compares this intensity with a threshold value. If the intensity is less than or equal to the threshold, the information determination unit 214 determines that this detection signal is inappropriate. This threshold value is determined in advance based on, for example, the intensity of light output from the light source unit 101. Note that the threshold is determined by considering various factors such as the light split ratio by the fiber coupler 103, the light attenuation by the optical member, and the standard light attenuation by passing through the inside of a normal eye. You can also. Examples of characteristic information other than signal strength include noise amount and SN ratio.

断面像形成処理の途中段階で得られる情報や、画像形成処理以外の処理を検出信号に施すことにより得られる情報を考慮する場合においても、検出信号を考慮する場合と同様の処理を適用することが可能である。また、画像形成部220により形成された1以上の断面像に基づきデータ処理部230によって形成される情報(たとえば画像以外の情報)を考慮する場合についても同様である。   Even when considering information obtained in the middle of cross-sectional image formation processing or information obtained by performing processing other than image formation processing on the detection signal, the same processing as when considering the detection signal should be applied. Is possible. The same applies to the case of considering information (for example, information other than an image) formed by the data processing unit 230 based on one or more cross-sectional images formed by the image forming unit 220.

情報判定部214が実行する処理の例を説明する。この判定処理は、オートZと呼ばれる処理に関する。オートZとは、OCT画像(断面像)のフレーム内の所定の範囲(ターゲット範囲)に被検眼Eの画像を描画させる機能である。   An example of processing executed by the information determination unit 214 will be described. This determination process relates to a process called auto Z. The auto Z is a function for drawing an image of the eye E in a predetermined range (target range) within the frame of the OCT image (cross-sectional image).

オートZでは、被検眼Eの同じ位置が繰り返しスキャンされる。各スキャンの軌跡は、たとえば線分形状(ラインスキャン)である。情報判定部214は、この反復的なスキャンにより逐次に得られる断面像をそれぞれ解析することにより、被検眼Eの所定の組織(眼底表面、角膜表面、高輝度の層組織など)の画像が描画されているフレーム内の深さ位置(z方向(深さ方向)における位置)をリアルタイムで特定する。さらに、情報判定部214は、特定された深さ位置とターゲット範囲との間の変位を算出する。主制御部211は、算出された変位を打ち消すように、つまり所定の組織の画像がターゲット範囲に描画されるように、測定光LSと参照光LRとの間の光路長差を調整する。   In auto Z, the same position of the eye E is repeatedly scanned. The trajectory of each scan is, for example, a line segment shape (line scan). The information determination unit 214 draws an image of a predetermined tissue (the fundus surface, the cornea surface, a high-luminance layer tissue, etc.) of the eye E by analyzing each of the cross-sectional images sequentially obtained by this repetitive scanning. The depth position (position in the z direction (depth direction)) in the frame being specified is specified in real time. Furthermore, the information determination unit 214 calculates a displacement between the specified depth position and the target range. The main control unit 211 adjusts the optical path length difference between the measurement light LS and the reference light LR so as to cancel the calculated displacement, that is, so that an image of a predetermined tissue is drawn in the target range.

光路長差の調整は、光路長変更部41を制御して測定光LSの光路長を変更させることにより行われる。なお、参照光の光路長を変更する構成(たとえば後述する可動の参照ミラー)を適用することも可能である。また、測定光の光路長を変更する構成と、参照光の光路長を変更する構成の双方を適用してもよい。   The adjustment of the optical path length difference is performed by controlling the optical path length changing unit 41 to change the optical path length of the measurement light LS. It is also possible to apply a configuration that changes the optical path length of the reference light (for example, a movable reference mirror described later). Further, both a configuration for changing the optical path length of the measurement light and a configuration for changing the optical path length of the reference light may be applied.

主制御部211と情報判定部214は、反復的なスキャンにより取得される各断面像について(または所定の間隔をおいて)上記の処理を実行する。情報判定部214は、所定のタイミングまでに上記変位が閾値以下となった場合、つまり所定のタイミングまでに所定の組織の画像がターゲット範囲に描画された場合、オートZは成功したと判定する。   The main control unit 211 and the information determination unit 214 execute the above processing for each cross-sectional image acquired by repetitive scanning (or at a predetermined interval). The information determination unit 214 determines that the auto-Z has succeeded when the displacement is equal to or less than the threshold value by a predetermined timing, that is, when an image of a predetermined tissue is drawn in the target range by the predetermined timing.

逆に、所定のタイミングまでに上記変位が閾値以下とならなかった場合、つまり所定のタイミングまでに所定の組織の画像がターゲット範囲に描画されなかった場合、情報判定部214は、オートZは失敗したと判定する。なお、この所定のタイミングは、たとえば、上記変位と閾値とを比較した回数として、または、オートZの開始からの経過時間として、あらかじめ設定される。   Conversely, if the displacement does not fall below the threshold by a predetermined timing, that is, if an image of a predetermined tissue is not drawn in the target range by the predetermined timing, the information determination unit 214 fails the auto-Z. It is determined that The predetermined timing is set in advance, for example, as the number of times the displacement and the threshold are compared, or as the elapsed time from the start of auto Z.

詳細は後述するが、この実施形態では、被検眼Eの2つの部位(たとえば角膜と網膜)のOCT計測をそれぞれ実行することにより、これら2つの部位の間の距離を求める。このような処理において、OCT計測の準備としてオートZを行うことができる。このオートZは、被検眼Eの所定部位をフレーム中の所定位置に配置させることを意図する。   Although details will be described later, in this embodiment, the distance between the two parts is obtained by executing OCT measurement of two parts (for example, the cornea and the retina) of the eye E. In such processing, auto-Z can be performed as preparation for OCT measurement. This auto Z is intended to place a predetermined part of the eye E to be examined at a predetermined position in the frame.

たとえば、眼内距離として眼軸長を求める場合、コヒーレンスゲートに相当するフレーム中の位置に角膜表面(たとえば角膜頂点)を配置させることを意図してオートZを実行し、その後、角膜表面を含む領域のOCT計測を実行する。さらに、コヒーレンスゲートに相当するフレーム中の位置に網膜表面(たとえば網膜中心)を配置させることを意図してオートZを実行し、その後、網膜表面を含む領域のOCT計測を実行する。この実施形態に係る処理は、このようなオートZの成否にかかわらず実行可能である。なお、コヒーレンスゲートとは、測定光路長と参照光路長との差がゼロになる位置を示す。   For example, when obtaining the axial length as the intraocular distance, auto Z is executed with the intention of placing the corneal surface (for example, the corneal apex) at a position in the frame corresponding to the coherence gate, and then the corneal surface is included. Perform OCT measurement of the region. Furthermore, auto-Z is executed with the intention of placing the retina surface (for example, the retina center) at a position in the frame corresponding to the coherence gate, and thereafter, OCT measurement of the region including the retina surface is executed. The processing according to this embodiment can be executed regardless of whether Auto Z is successful or not. The coherence gate indicates a position where the difference between the measurement optical path length and the reference optical path length is zero.

(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、被検眼Eの断面像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCTが適用される場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
(Image forming part)
The image forming unit 220 forms image data of a cross-sectional image of the eye E based on the detection signal from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filter processing, FFT (Fast Fourier Transform), and the like, similar to the conventional spectral domain type OCT. When another type of OCT is applied, the image forming unit 220 executes a known process corresponding to the type.

画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。   The image forming unit 220 includes, for example, the circuit board described above. In this specification, “image data” and “image” based thereon may be identified.

(データ処理部)
データ処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、データ処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Data processing part)
The data processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the data processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. Further, the data processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.

データ処理部230は、断面像の間の画素を補間する補間処理などの公知の画像処理を実行して、被検眼Eの3次元画像データを形成する。なお、3次元画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部241には、この擬似的な3次元画像が表示される。   The data processing unit 230 performs known image processing such as interpolation processing for interpolating pixels between cross-sectional images to form three-dimensional image data of the eye E. The three-dimensional image data means image data in which pixel positions are defined by a three-dimensional coordinate system. As the three-dimensional image data, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the data processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and views the image from a specific gaze direction. Image data of a pseudo three-dimensional image is formed. The pseudo three-dimensional image is displayed on the display unit 241.

また、3次元画像データとして、複数の断面像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断面像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断面像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。   It is also possible to form stack data of a plurality of cross-sectional images as 3D image data. The stack data is image data obtained by three-dimensionally arranging a plurality of cross-sectional images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of cross-sectional images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.

また、データ処理部230は、3次元画像データに基づいて、任意の断面における断面像を形成することができる。この処理は、断面変換または多断面再構成(Multi−Planar Reconstruction)などと呼ばれ、指定された断面に位置する画素(ボクセル)を抽出する処理と、抽出された画素を配列する処理とを含む。   Further, the data processing unit 230 can form a cross-sectional image at an arbitrary cross-section based on the three-dimensional image data. This process is called section conversion or multi-planar reconstruction, and includes a process of extracting pixels (voxels) located in a specified section and a process of arranging the extracted pixels. .

さらに、データ処理部230には、解析部231と、画像判定部232と、画像特定部233と、距離演算部234とが設けられている。   Further, the data processing unit 230 is provided with an analysis unit 231, an image determination unit 232, an image specification unit 233, and a distance calculation unit 234.

(解析部)
解析部231は、2以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像を解析することで、被検眼Eの3次元位置を求める。この処理を実行するための構成の一例として、解析部231には、画像補正部2311と、特徴位置特定部2312と、3次元位置算出部2313が設けられている。
(Analysis Department)
The analysis unit 231 obtains the three-dimensional position of the eye E by analyzing two or more captured images obtained substantially simultaneously by the two or more anterior segment cameras 300. As an example of a configuration for executing this processing, the analysis unit 231 includes an image correction unit 2311, a feature position specifying unit 2312, and a three-dimensional position calculation unit 2313.

(画像補正部)
画像補正部2311は、前眼部カメラ300により得られた各撮影画像の歪みを、記憶部212に記憶されている収差情報212aに基づいて補正する。この処理は、たとえば、歪曲収差を補正するための補正係数に基づく公知の画像処理技術によって実行される。なお、前眼部カメラ300の光学系が撮影画像に与える歪曲収差が十分に小さい場合などには、収差情報212aおよび画像補正部2311を設けなくてもよい。
(Image correction unit)
The image correction unit 2311 corrects the distortion of each captured image obtained by the anterior eye camera 300 based on the aberration information 212 a stored in the storage unit 212. This process is executed by, for example, a known image processing technique based on a correction coefficient for correcting distortion. Note that the aberration information 212a and the image correction unit 2311 do not have to be provided when the distortion aberration given to the captured image by the optical system of the anterior eye camera 300 is sufficiently small.

(特徴位置特定部)
特徴位置特定部2312は、(画像補正部2311により歪曲収差が補正された)各撮影画像を解析することで、前眼部Eaの所定の特徴部位に相当する当該撮影画像中の位置(特徴位置と呼ぶ)を特定する。所定の特徴部位としては、たとえば被検眼Eの瞳孔中心または角膜頂点が用いられる。以下、瞳孔中心を特定する処理の具体例を説明する。
(Feature position identification part)
The feature position specifying unit 2312 analyzes each captured image (the distortion of which has been corrected by the image correcting unit 2311), thereby analyzing a position (feature position) in the captured image corresponding to a predetermined feature part of the anterior segment Ea. Specified). For example, the center of the pupil of the eye E or the apex of the cornea is used as the predetermined characteristic part. Hereinafter, a specific example of the process of specifying the pupil center will be described.

まず、特徴位置特定部2312は、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。   First, the feature position specifying unit 2312 specifies an image region (pupil region) corresponding to the pupil of the eye E based on the distribution of pixel values (such as luminance values) of the captured image. In general, since the pupil is drawn with lower brightness than other parts, the pupil area can be specified by searching for the low brightness image area. At this time, the pupil region may be specified in consideration of the shape of the pupil. That is, the pupil region can be specified by searching for a substantially circular and low luminance image region.

次に、特徴位置特定部2312は、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭(の近似円または近似楕円)の中心位置を特定し、これを瞳孔中心とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔中心としてもよい。   Next, the feature position specifying unit 2312 specifies the center position of the specified pupil region. Since the pupil is substantially circular as described above, the contour of the pupil region can be specified, the center position of this contour (approximate circle or approximate ellipse) can be specified, and this can be used as the pupil center. Further, the center of gravity of the pupil region may be obtained, and the center of gravity position may be used as the center of the pupil.

なお、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴位置を特定することが可能である。   Even when the feature position corresponding to another feature part is specified, it is possible to specify the feature position based on the distribution of pixel values of the photographed image in the same manner as described above.

(3次元位置算出部)
3次元位置算出部2313は、2以上の前眼部カメラ300の位置と、特徴位置特定部2312により特定された2以上の撮影画像中の特徴位置とに基づいて、被検眼Eの特徴部位の3次元位置を算出する。この処理について図5Aおよび図5Bを参照しつつ説明する。
(3D position calculator)
The three-dimensional position calculation unit 2313 determines the characteristic part of the eye E based on the positions of the two or more anterior eye camera 300 and the feature positions in the two or more captured images specified by the feature position specifying unit 2312. A three-dimensional position is calculated. This process will be described with reference to FIGS. 5A and 5B.

図5Aは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す上面図である。図5Bは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す側面図である。2つの前眼部カメラ300Aおよび300Bの間の距離(基線長)を「B」で表す。2つの前眼部カメラ300Aおよび300Bの基線と、被検眼Eの特徴部位Pとの間の距離(撮影距離)を「H」で表す。各前眼部カメラ300Aおよび300Bと、その画面平面との間の距離(画面距離)を「f」で表す。   FIG. 5A is a top view showing the positional relationship between the eye E and the anterior eye cameras 300A and 300B. FIG. 5B is a side view showing the positional relationship between the eye E and the anterior eye cameras 300A and 300B. The distance (baseline length) between the two anterior eye cameras 300A and 300B is represented by “B”. The distance (imaging distance) between the baselines of the two anterior eye cameras 300A and 300B and the characteristic part P of the eye E is represented by “H”. A distance (screen distance) between each anterior eye camera 300A and 300B and its screen plane is represented by “f”.

このような配置状態において、前眼部カメラ300Aおよび300Bによる撮影画像の分解能は次式で表される。ここで、Δpは画素分解能を表す。   In such an arrangement state, the resolution of the image captured by the anterior eye cameras 300A and 300B is expressed by the following equation. Here, Δp represents pixel resolution.

xy方向の分解能(平面分解能):Δxy=H×Δp/f
z方向の分解能(奥行き分解能):Δz=H×H×Δp/(B×f)
Resolution in xy direction (planar resolution): Δxy = H × Δp / f
Resolution in the z direction (depth resolution): Δz = H × H × Δp / (B × f)

3次元位置算出部2313は、2つの前眼部カメラ300Aおよび300Bの位置(既知である)と、2つの撮影画像において特徴部位Pに相当する特徴位置とに対して、図5Aおよび図5Bに示す配置関係を考慮した公知の三角法を適用することにより、特徴部位Pの3次元位置、つまり被検眼Eの3次元位置を算出する。   The three-dimensional position calculation unit 2313 is shown in FIGS. 5A and 5B with respect to the positions (known) of the two anterior eye cameras 300A and 300B and the characteristic position corresponding to the characteristic part P in the two captured images. By applying a known trigonometric method that takes into account the arrangement relationship shown, the three-dimensional position of the characteristic part P, that is, the three-dimensional position of the eye E to be examined is calculated.

3次元位置算出部2313により算出された被検眼Eの3次元位置は制御部210に送られる。制御部210は、この3次元位置の算出結果に基づいて、光学系の光軸を被検眼Eの軸に合わせるように、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように光学系駆動部2Aを制御する。   The three-dimensional position of the eye E calculated by the three-dimensional position calculation unit 2313 is sent to the control unit 210. Based on the calculation result of the three-dimensional position, the control unit 210 adjusts the optical axis of the optical system to the axis of the eye E and makes the distance of the optical system with respect to the eye E to be a predetermined working distance. The optical system driving unit 2A is controlled.

また、前眼部カメラ300が前眼部Eaを異なる方向から並行して動画撮影する場合、たとえば次のような処理(1)および(2)を行うことにより、被検眼Eの動きに対する光学系のトラッキングを実行することが可能である。
(1)解析部231が、2以上の前眼部カメラ300による動画撮影において実質的に同時に得られた2以上のフレームを逐次に解析することで、被検眼Eの3次元位置を逐次に求める。
(2)制御部210が、解析部231により逐次に求められる被検眼Eの3次元位置に基づき光学系駆動部2Aを逐次に制御することにより、光学系の位置を被検眼Eの動きに追従させる。
Further, when the anterior eye camera 300 shoots a moving image of the anterior eye part Ea in parallel from different directions, for example, by performing the following processes (1) and (2), an optical system for the movement of the eye E It is possible to perform tracking.
(1) The analysis unit 231 sequentially obtains the three-dimensional position of the eye E by sequentially analyzing two or more frames obtained substantially simultaneously in moving image shooting by the two or more anterior segment cameras 300. .
(2) The control unit 210 sequentially controls the optical system driving unit 2A based on the three-dimensional position of the eye E to be sequentially obtained by the analysis unit 231 so that the position of the optical system follows the movement of the eye E to be examined. Let

解析部231は、3次元位置算出部2313により取得された被検眼Eの3次元位置に基づいて、被検眼Eと光学系との間の変位を求めることができる。この処理は、前眼部カメラ300の位置および光学系の位置が既知であることを利用して実行される。なお、光学系の位置は、あらかじめ決められた所定位置であり、たとえば、対物レンズ22の前面(被検眼Eの面)と、光学系の光軸とが交差する位置である。   The analysis unit 231 can obtain the displacement between the eye E and the optical system based on the 3D position of the eye E acquired by the 3D position calculation unit 2313. This process is executed using the fact that the position of the anterior eye camera 300 and the position of the optical system are known. The position of the optical system is a predetermined position determined in advance, for example, a position where the front surface of the objective lens 22 (the surface of the eye E) and the optical axis of the optical system intersect.

被検眼Eと光学系との間の変位を求めるための処理の他の例を説明する。本例では、被検眼Eの前眼部にアライメント指標が投影される。さらに、アライメント指標が投影されている状態の前眼部を眼底カメラユニット2によって動画撮影する。この動画撮影により取得される各フレームには、一般に、一対のアライメント指標が映り込んでいる。解析部231は、一対のアライメント指標の描画位置に基づいて、目的の変位を算出する。   Another example of the process for obtaining the displacement between the eye E and the optical system will be described. In this example, an alignment index is projected on the anterior segment of the eye E. Further, the fundus camera unit 2 captures a moving image of the anterior segment where the alignment index is projected. In general, a pair of alignment indices is reflected in each frame acquired by this moving image shooting. The analysis unit 231 calculates a target displacement based on the drawing positions of the pair of alignment indexes.

この処理についてより具体的に説明する。光学系が被検眼Eに対して所定の検査可能位置に配置されると、一対のアライメント指標はフレームの所定位置(たとえばフレーム中心)に重なって描画される。検査可能位置とは、たとえば、被検眼Eの所定位置(角膜頂点、瞳孔中心など)のx座標およびy座標と、光学系の光軸のx座標およびy座標とが実質的に等しく、かつ、被検眼Eと光学系(たとえば対物レンズ22)との間の距離が所定の作動距離に実質的に等しくなるような、被検眼Eと光学系との位置関係を示す。また、2つのアライメント指標の間の描画位置のズレ(第1のズレ)は、z方向における作動距離からの変位を反映し、フレームの所定位置に対するアライメント指標の描画位置のズレ(第2のズレ)は、xy方向における被検眼Eの所定位置からの変位を反映する。解析部231は、この関係を利用することにより、第1のズレからz方向の変位を求め、第2のズレからxy方向の変位を求める。それにより、被検眼Eと光学系との間の3次元的な変位が得られる。なお、このような変位算出処理は、公知のオートアライメントにおいて実行される処理である。   This process will be described more specifically. When the optical system is disposed at a predetermined inspectable position with respect to the eye E, the pair of alignment indexes are drawn so as to overlap a predetermined position (for example, the frame center) of the frame. The inspectable position is, for example, that the x coordinate and y coordinate of a predetermined position of the eye E to be examined (corneal vertex, pupil center, etc.) are substantially equal to the x coordinate and y coordinate of the optical axis of the optical system, and The positional relationship between the eye E and the optical system is shown such that the distance between the eye E and the optical system (for example, the objective lens 22) is substantially equal to a predetermined working distance. Also, the drawing position shift (first shift) between the two alignment indexes reflects the displacement from the working distance in the z direction, and the alignment index drawing position shift (second shift) with respect to the predetermined position of the frame. ) Reflects the displacement of the eye E from the predetermined position in the xy direction. Using this relationship, the analysis unit 231 obtains a displacement in the z direction from the first deviation, and obtains a displacement in the xy direction from the second deviation. Thereby, a three-dimensional displacement between the eye E and the optical system is obtained. Such a displacement calculation process is a process executed in a known auto alignment.

(画像判定部)
画像判定部232は、2以上の前眼部カメラ300のうちの少なくとも1つにより得られた撮影画像を解析することで、前眼部Eaの画像が当該撮影画像中の所定領域に含まれているか否か判定する。
(Image judgment part)
The image determination unit 232 analyzes the captured image obtained by at least one of the two or more anterior segment cameras 300, so that the image of the anterior segment Ea is included in a predetermined region in the captured image. Determine whether or not.

この所定領域は、前眼部カメラ300による撮影範囲内においてあらかじめ設定され、たとえば当該撮影範囲の中心を含む領域として設定される。ここで、前眼部カメラ300による撮影条件(前眼部カメラ300の位置、撮影倍率等)に応じて当該所定領域の範囲を変化させることができる。また、後述の特徴点の設定に応じて当該所定領域の範囲を決定することができる。また、被検者の顔を支持する支持部440(顎受け、額当て等。図4Aおよび図4Bを参照。)の位置またはその近傍位置に相当するように当該所定領域を設定することができる。   This predetermined area is set in advance within the imaging range of the anterior eye camera 300, and is set as an area including the center of the imaging range, for example. Here, the range of the predetermined region can be changed according to the imaging conditions (the position of the anterior eye camera 300, the imaging magnification, etc.) by the anterior eye camera 300. Further, the range of the predetermined area can be determined according to the setting of feature points described later. Further, the predetermined region can be set so as to correspond to the position of the support portion 440 (chin rest, forehead pad, etc., see FIGS. 4A and 4B) supporting the face of the subject or the vicinity thereof. .

画像判定部232が実行する処理の具体例を説明する。まず、画像判定部232は、前眼部Eaの所定の特徴点に相当する画像領域を撮影画像中から特定する。この特徴点としては、瞳孔中心、瞳孔輪郭、虹彩中心、虹彩輪郭、角膜頂点などがある。特徴点に相当する画像領域の特定処理は、たとえば特徴位置特定部2312が実行する処理と同様である。なお、特徴点と特徴部位とが同一の場合には、特徴位置特定部2312による特定結果を画像判定部232が行う処理に利用することができる。   A specific example of processing executed by the image determination unit 232 will be described. First, the image determination unit 232 specifies an image region corresponding to a predetermined feature point of the anterior eye portion Ea from the captured image. These feature points include the pupil center, pupil contour, iris center, iris contour, and corneal apex. The process for specifying the image area corresponding to the feature point is the same as the process executed by the feature position specifying unit 2312, for example. When the feature point and the feature part are the same, the specification result by the feature position specifying unit 2312 can be used for processing performed by the image determining unit 232.

次に、画像判定部232は、特定された特徴点が撮影画像(のフレーム)中の所定領域に含まれているか否か判定する。この処理は、所定領域に相当する座標と特徴点の座標とを比較することによって行われる。   Next, the image determination unit 232 determines whether or not the specified feature point is included in a predetermined region in the captured image (frame thereof). This process is performed by comparing the coordinates corresponding to the predetermined area with the coordinates of the feature points.

画像判定部232は、この判定結果を制御部210に送る。制御部210は、前眼部Eaの画像が所定領域に含まれていないと判定された場合に、光学系駆動部2A(撮影移動部)を制御して前眼部カメラ300を支持部440(つまり被検者の顔)から離れる方向および/または支持部440の外側方向に移動させる。支持部440から離れる方向とは、図1等に示す座標系における−z方向である。また、支持部440の外側方向とは、前眼部カメラ300が光学系の光軸から離れる方向である。光学系から離れる方向については、水平方向(±x方向)および/または垂直方向(±y方向)において定義することが可能である。つまり、xy平面内の任意の方向において、光学系から離れる方向を定義することが可能である。   The image determination unit 232 sends this determination result to the control unit 210. When it is determined that the image of the anterior segment Ea is not included in the predetermined area, the control unit 210 controls the optical system driving unit 2A (imaging moving unit) to support the anterior segment camera 300 with the support unit 440 ( That is, it is moved in the direction away from the subject's face) and / or the outside of the support portion 440. The direction away from the support portion 440 is the −z direction in the coordinate system shown in FIG. Further, the outward direction of the support portion 440 is a direction in which the anterior eye camera 300 is separated from the optical axis of the optical system. The direction away from the optical system can be defined in the horizontal direction (± x direction) and / or the vertical direction (± y direction). That is, it is possible to define a direction away from the optical system in an arbitrary direction in the xy plane.

また、前眼部カメラ300の移動方向および/または移動距離については、たとえば、移動前における前眼部カメラ300と支持部440との位置関係に基づいて設定することができる。また、画像判定部232による判定処理と、前眼部カメラ300の移動処理とを交互に行うことにより、前眼部カメラ300を好適な位置に追い込んでいくように制御を行うことも可能である。また、特徴点に相当する画像領域と所定領域との間の距離(ピクセル数)に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成してもよい。また、特徴点に相当する画像領域と所定領域内の所定位置(たとえば中心位置)との間の距離に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成することも可能である。   Further, the moving direction and / or moving distance of the anterior eye camera 300 can be set based on, for example, the positional relationship between the anterior eye camera 300 and the support part 440 before the movement. Further, by alternately performing the determination process by the image determination unit 232 and the movement process of the anterior segment camera 300, it is possible to perform control so as to drive the anterior segment camera 300 to a suitable position. . Further, the moving direction and / or moving distance of the anterior eye camera 300 may be determined according to the distance (number of pixels) between the image area corresponding to the feature point and the predetermined area. Further, the moving direction and / or moving distance of the anterior segment camera 300 is determined according to the distance between the image area corresponding to the feature point and a predetermined position (for example, the center position) in the predetermined area. Is also possible.

画像判定部232による判定結果に基づく他の動作例を説明する。制御部210は、前眼部Eaの画像が所定領域に含まれていないと判定された場合に、所定の警告情報を出力部に出力させる。この出力部としては、表示部241、図示しない音声出力部などがある。表示部241を出力部として用いる場合、制御部210は、所定の文字列情報、画像情報、ポップアップウインドウ等からなる警告メッセージを表示部241に表示させる。音声出力部を出力部として用いる場合、制御部210は、所定の音声情報、警告音等を音声出力部に出力させる。   Another operation example based on the determination result by the image determination unit 232 will be described. When it is determined that the image of the anterior segment Ea is not included in the predetermined area, the control unit 210 causes the output unit to output predetermined warning information. Examples of the output unit include a display unit 241 and an audio output unit (not shown). When the display unit 241 is used as an output unit, the control unit 210 causes the display unit 241 to display a warning message including predetermined character string information, image information, a pop-up window, and the like. When the audio output unit is used as the output unit, the control unit 210 causes the audio output unit to output predetermined audio information, warning sound, and the like.

このような警告情報によりユーザは前眼部Eaの画像が所定領域に含まれていないことを認識する。そして、ユーザは、操作部242を用いて前眼部カメラ300を3次元的に移動させる。なお、制御部210が、前眼部カメラ300の移動方向および/または移動距離を表す情報(移動情報)を警告情報とともに出力させるようにしてもよい。この移動情報は、たとえば、画像判定部232により得られる特徴点に相当する画像領域と所定領域との間の位置関係に基づいて生成される。ユーザによる手動での移動が完了したら、画像判定部232による判定処理を再度行うように構成してもよい。   With such warning information, the user recognizes that the image of the anterior segment Ea is not included in the predetermined area. Then, the user moves the anterior eye camera 300 three-dimensionally using the operation unit 242. Note that the control unit 210 may output information (movement information) indicating the movement direction and / or movement distance of the anterior eye camera 300 together with the warning information. This movement information is generated based on the positional relationship between the image area corresponding to the feature point obtained by the image determination unit 232 and the predetermined area, for example. When the manual movement by the user is completed, the determination process by the image determination unit 232 may be performed again.

(画像特定部)
画像特定部233は、たとえば、前眼部カメラ300が時系列画像を取得する場合に動作する。時系列画像とは、時系列(時間軸)に並ぶ複数の静止画像(フレーム)を意味する。時系列画像は動画像を含む。ここで、動画像とは、時間軸に同期して(つまり一定の時間間隔で)取得された一連の静止画像であり、被写体の動きを表す。なお、時系列画像は、動画像には限定されず、たとえばフレーム間の時間間隔は一定である必要はない。
(Image identification part)
For example, the image specifying unit 233 operates when the anterior eye camera 300 acquires a time-series image. A time-series image means a plurality of still images (frames) arranged in a time series (time axis). The time series image includes a moving image. Here, the moving image is a series of still images acquired in synchronization with the time axis (that is, at regular time intervals) and represents the movement of the subject. Note that the time-series images are not limited to moving images, and for example, the time interval between frames need not be constant.

画像特定部233は、時系列画像として順次に取得される静止画像を既定の参照画像(第1の画像)と比較することにより、この参照画像と実質的に同一の静止画像(第2の画像)を特定する。この比較処理は、2つの画像の同一性(類似度)を判定するための任意の画像処理を含む。この画像処理は、たとえば、画像相関、特徴点抽出、画像差分、アフィン変換などのいずれかを含んでいてよい。   The image specifying unit 233 compares substantially the same still image (second image) as the reference image by comparing still images sequentially acquired as time-series images with a predetermined reference image (first image). ). This comparison processing includes arbitrary image processing for determining the identity (similarity) of two images. This image processing may include any of image correlation, feature point extraction, image difference, affine transformation, and the like.

なお、この比較処理において、第1の画像および第2の画像は、2つの前眼部カメラ300Aおよび300Bのそれぞれにより得られる画像であってよい。その場合、画像特定部233は、前眼部カメラ300Aにより取得された第1の画像と第2の画像とを比較し、および/または、前眼部カメラ300Bにより取得された第1の画像と第2の画像とを比較する。或いは、第1の画像および第2の画像は、2つの前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの画像の合成画像(たとえば立体画像)であってよい。その場合、画像特定部233は、合成画像としての第1の画像と、合成画像としての第2の画像とを比較する。   In this comparison process, the first image and the second image may be images obtained by the two anterior eye cameras 300A and 300B, respectively. In that case, the image specifying unit 233 compares the first image acquired by the anterior segment camera 300A with the second image and / or the first image acquired by the anterior segment camera 300B. The second image is compared. Alternatively, the first image and the second image may be a composite image (for example, a stereoscopic image) of two images acquired substantially simultaneously by the two anterior eye cameras 300A and 300B. In that case, the image specifying unit 233 compares the first image as the composite image with the second image as the composite image.

「実質的に同一」とは、2つの画像の相違を既定の程度まで許容することを意図している。たとえば、画像特定部233は、画像相関値の許容範囲をあらかじめ記憶しており、上記比較処理中の画像相関により得られた相関値がこの許容範囲に含まれるか判定する。許容範囲に含まれていると判定された場合、比較された2つの画像は実質的に同一と判定される。実質的に同一と判定された静止画像は上記第2の画像に相当する。なお、許容範囲は、たとえば、眼内距離を取得するという目的を考慮して経験的におよび/または理論的に設定される(以下同様)。   “Substantially the same” is intended to allow a difference between two images to a predetermined extent. For example, the image specifying unit 233 stores an allowable range of image correlation values in advance, and determines whether the correlation value obtained by the image correlation during the comparison process is included in the allowable range. If it is determined that the images are within the allowable range, the two compared images are determined to be substantially the same. Still images determined to be substantially the same correspond to the second image. The allowable range is set empirically and / or theoretically in consideration of the purpose of obtaining the intraocular distance (the same applies hereinafter).

他の例を説明する。画像特定部233は、2以上の特徴点の配置関係(距離、相対位置など)の相違の許容範囲をあらかじめ記憶している。特徴点は、眼の任意の部位(たとえば瞳孔中心、瞳孔周縁など)に相当する画像中の位置である。さらに、画像特定部233は、特徴点抽出を実行することにより、第1の画像(参照画像)中の2以上の特徴点の配置関係と、時系列画像に含まれる静止画像中の2以上の特徴点の配置関係とをそれぞれ取得する。そして、画像特定部233は、これら2つの配置関係の相違を示す指標(差、比など)を算出し、この指標が上記許容範囲に含まれるか判定する。許容範囲に含まれていると判定された場合、比較された2つの画像は実質的に同一と判定される。実質的に同一と判定された静止画像は上記第2の画像に相当する。   Another example will be described. The image specifying unit 233 stores in advance an allowable range of a difference in arrangement relationship (distance, relative position, etc.) of two or more feature points. A feature point is a position in an image corresponding to an arbitrary part of the eye (for example, the center of the pupil, the periphery of the pupil, etc.). Further, the image specifying unit 233 executes the feature point extraction to thereby arrange the two or more feature points in the first image (reference image) and the two or more in the still images included in the time-series image. The feature point arrangement relationship is acquired. Then, the image specifying unit 233 calculates an index (difference, ratio, etc.) indicating the difference between these two arrangement relationships, and determines whether this index is included in the allowable range. If it is determined that the images are within the allowable range, the two compared images are determined to be substantially the same. Still images determined to be substantially the same correspond to the second image.

さらに他の例を説明する。画像特定部233は、差分画像に表れる画素に関する情報(たとえば画素数、画素値など)の許容範囲をあらかじめ記憶している。画像特定部233は、第1の画像(参照画像)と、時系列画像に含まれる静止画像との差分画像を生成する。このとき、2以上の特徴点が一致されるように2つの画像の位置合わせ(アフィン変換等)を実行することができる。さらに、画像特定部233は、生成された差分画像に表れる画素に関する情報を取得し、取得された情報が上記許容範囲に含まれるか判定する。許容範囲に含まれていると判定された場合、比較された2つの画像は実質的に同一と判定される。実質的に同一と判定された静止画像は上記第2の画像に相当する。   Still another example will be described. The image specifying unit 233 stores in advance a permissible range of information (for example, the number of pixels, pixel value, etc.) regarding the pixels appearing in the difference image. The image specifying unit 233 generates a difference image between the first image (reference image) and a still image included in the time series image. At this time, alignment (such as affine transformation) of the two images can be executed so that two or more feature points are matched. Further, the image specifying unit 233 acquires information regarding the pixels appearing in the generated difference image, and determines whether the acquired information is included in the allowable range. If it is determined that the images are within the allowable range, the two compared images are determined to be substantially the same. Still images determined to be substantially the same correspond to the second image.

(距離演算部)
距離演算部234は、参照画像の取得とともに行われた第1のOCT計測において得られた情報と、この参照画像と実質的に同一の画像(上記第2の画像)の取得とともに行われた第2のOCT計測において得られた情報とに基づいて、第1のOCT計測におけるスキャン範囲に含まれる第1の部位と、第2のOCT計測におけるスキャン範囲に含まれる第2の部位との間の距離を求める。
(Distance calculation section)
The distance calculation unit 234 performs information obtained in the first OCT measurement performed along with the acquisition of the reference image, and the first image performed along with the acquisition of the image substantially identical to the reference image (the second image). Between the first part included in the scan range in the first OCT measurement and the second part included in the scan range in the second OCT measurement based on the information obtained in the second OCT measurement. Find the distance.

ここで、OCT計測において得られた情報は、測定光路または参照光路の光路長を含み、特に、この実施形態においては、測定光路長に関する情報(たとえば、光路長変更部41の位置、光路長変更部41の移動に関する制御内容など)を含む。なお、参照光路長を変更可能な構成が適用される場合、参照光路長に関する情報(たとえば、参照ミラーの位置、参照ミラーの移動に関する制御内容など)が含まれる。   Here, the information obtained in the OCT measurement includes the optical path length of the measurement optical path or the reference optical path. In particular, in this embodiment, information on the measurement optical path length (for example, the position of the optical path length changing unit 41, the optical path length change). Control content related to movement of the unit 41). Note that, when a configuration in which the reference optical path length can be changed is applied, information on the reference optical path length (for example, the position of the reference mirror, the control content related to the movement of the reference mirror, etc.) is included.

OCT計測により得られた情報(たとえば、検出信号、OCT画像、検出信号またはOCT画像を処理して得られた情報など)における第1の部位および第2の部位の位置に応じて、距離演算部234が実行する処理の内容を変更することが可能である。   According to the position of the first part and the second part in information obtained by OCT measurement (for example, information obtained by processing a detection signal, OCT image, detection signal, or OCT image), a distance calculation unit It is possible to change the contents of the processing executed by H.234.

たとえば、コヒーレンスゲートに対する第1の部位の変位(第1の変位)と、コヒーレンスゲートに対する第2の部位の変位(第2の変位)とに基づいて、処理の内容を変更することができる。これら変位は、たとえば、前述したオートZの成否の判定に用いられる変位であってよい。   For example, the content of the process can be changed based on the displacement of the first part relative to the coherence gate (first displacement) and the displacement of the second part relative to the coherence gate (second displacement). These displacements may be, for example, displacements used for determining whether the above-described auto Z is successful.

第1の変位および第2の変位のそれぞれが既定の閾値以内である場合(たとえばオートZに成功した場合)、つまり、第1の部位および第2の部位のそれぞれがコヒーレンスゲートに相当する場合、距離演算部234は、第1のOCT計測における測定光路長(第1の光路長)と、第2のOCT計測における測定光路長(第2の光路長)との間の差を算出する。算出された差の値は、第1の部位と第2の部位との間の距離に相当する。   When each of the first displacement and the second displacement is within a predetermined threshold (for example, when auto Z is successful), that is, when each of the first portion and the second portion corresponds to a coherence gate, The distance calculator 234 calculates a difference between the measurement optical path length (first optical path length) in the first OCT measurement and the measurement optical path length (second optical path length) in the second OCT measurement. The calculated difference value corresponds to the distance between the first part and the second part.

一方、第1の変位および第2の変位の一方または双方が既定の閾値を超える場合(たとえばオートZに失敗した場合)、つまり、第1の部位および第2の部位の少なくとも一方がコヒーレンスゲートから離れた位置に相当する場合、距離演算部234は、上記した第1の光路長および第2の光路長に加え、コヒーレンスゲートに対する第1の部位および/または第2の部位の変位も参照して、これら部位の間の距離を算出する。その具体例として、距離演算部234は、次の3段階の処理を実行することができる:第1の光路長と第2の光路長との間の差を算出する第1の処理;第1の部位および/または第2の部位とコヒーレンスゲートとの間の変位を算出する第2の処理;第1の処理で得られた差と第2の処理で得られた変位とに基づいて第1の部位と第2の部位との間の距離を算出する第3の処理。   On the other hand, when one or both of the first displacement and the second displacement exceed a predetermined threshold (for example, when auto Z fails), that is, at least one of the first portion and the second portion is from the coherence gate. In the case where the distance is equivalent to the distant position, the distance calculator 234 refers to the displacement of the first part and / or the second part with respect to the coherence gate in addition to the first optical path length and the second optical path length described above. The distance between these parts is calculated. As a specific example, the distance calculation unit 234 can execute the following three steps: a first process for calculating a difference between the first optical path length and the second optical path length; And / or a second process for calculating a displacement between the second part and the second part and the coherence gate; first based on the difference obtained in the first process and the displacement obtained in the second process 3rd process which calculates the distance between a site | part and a 2nd site | part.

第2の処理では、変位量と変位方向とが求められる。変位量は、たとえば、Aスキャンのプロファイルにおいてコヒーレンスゲートに対応する信号位置および対象部位に対応する信号位置に基づいて算出される。或いは、OCT画像においてコヒーレンスゲートに対応する画像位置および対象部位に対応する画像位置に基づいて、変位量を算出することができる。また、変位方向は、第1の部位と第2の部位との位置関係(既知)と、Aスキャンのプロファイルにおいてコヒーレンスゲートに対応する信号位置および対象部位に対応する信号位置に基づいて得られる。或いは、第1の部位と第2の部位との位置関係(既知)と、OCT画像においてコヒーレンスゲートに対応する画像位置および対象部位に対応する画像位置とに基づいて、変位方向を求めることができる。   In the second process, the displacement amount and the displacement direction are obtained. The displacement amount is calculated based on, for example, the signal position corresponding to the coherence gate and the signal position corresponding to the target site in the A-scan profile. Alternatively, the displacement amount can be calculated based on the image position corresponding to the coherence gate and the image position corresponding to the target site in the OCT image. The displacement direction is obtained based on the positional relationship (known) between the first part and the second part, the signal position corresponding to the coherence gate in the A-scan profile, and the signal position corresponding to the target part. Alternatively, the displacement direction can be obtained based on the positional relationship (known) between the first part and the second part and the image position corresponding to the coherence gate and the image position corresponding to the target part in the OCT image. .

第3の処理では、変位方向に応じて、第1の処理で得られた差の値に対して変位量が加算または減算される。具体的には、コヒーレンスゲートに対する第1の部位(または第2の部位)の変位方向が第2の部位側(または第1の部位側)である場合、差の値から変位量が減算される。たとえば、コヒーレンスゲートに対する角膜頂点(または網膜中心)の変位方向が網膜側(または角膜側)である場合、差の値から変位量が減算される。   In the third process, the displacement amount is added to or subtracted from the difference value obtained in the first process according to the displacement direction. Specifically, when the displacement direction of the first part (or the second part) with respect to the coherence gate is the second part side (or the first part side), the displacement amount is subtracted from the difference value. . For example, when the displacement direction of the corneal apex (or retinal center) relative to the coherence gate is the retinal side (or corneal side), the displacement amount is subtracted from the difference value.

逆に、コヒーレンスゲートに対する第1の部位(または第2の部位)の変位方向が第2の部位の反対側(または第1の部位の反対側)である場合、差の値に変位量が加算される。たとえば、コヒーレンスゲートに対する角膜頂点(または網膜中心)の変位方向が網膜の反対側(または角膜の反対側)である場合、差の値に変位量が加算される。   Conversely, when the displacement direction of the first part (or the second part) relative to the coherence gate is the opposite side of the second part (or the opposite side of the first part), the displacement amount is added to the difference value. Is done. For example, when the displacement direction of the corneal apex (or the retina center) with respect to the coherence gate is the opposite side of the retina (or the opposite side of the cornea), the displacement amount is added to the difference value.

なお、この実施形態では、前眼部カメラ300によって実質的に同じ画像が得られるタイミングで第1のOCT計測と第2のOCT計測とが実行される。つまり、眼科装置1に対する被検眼Eの相対位置が実質的に同じである状態で、第1のOCT計測と第2のOCT計測とが実行される。よって、上記の距離演算では、この相対位置のズレが用いられていない。しかしながら、この相対位置のズレを考慮に加えることにより、距離演算の確度を向上させることができる。そのために、たとえば、画像特定部233と同様の画像比較を実行することにより、参照画像(第1の画像)と第2の画像との間の変位を求める。なお、これら画像は、それぞれ、2つの前眼部カメラ300Aおよび300Bにより取得された画像であるから、前述したように、各撮影タイミングにおける被検眼Eの3次元位置を求めることができる(解析部231、特に3次元位置算出部2313を参照)。したがって、これら画像から得られる相対位置のズレは、3次元(x方向、y方向、z方向)の変位を表す。z方向の変位は、第2の処理で得られた変位方向および変位量を用いた処理と同様に、第3の処理で得られた距離の値に加算または減算される。また、x方向の変位およびy方向の変位は、三角法を用いることによって、第3の処理で得られた距離の値に加味される。   In this embodiment, the first OCT measurement and the second OCT measurement are performed at a timing at which substantially the same image is obtained by the anterior segment camera 300. That is, the first OCT measurement and the second OCT measurement are performed in a state where the relative position of the eye E to the ophthalmologic apparatus 1 is substantially the same. Therefore, this relative position shift is not used in the distance calculation. However, the accuracy of the distance calculation can be improved by taking this relative position shift into consideration. For this purpose, for example, a displacement between the reference image (first image) and the second image is obtained by executing an image comparison similar to that of the image specifying unit 233. Since these images are images acquired by the two anterior eye cameras 300A and 300B, as described above, the three-dimensional position of the eye E at each imaging timing can be obtained (analysis unit). 231, especially see the three-dimensional position calculator 2313). Therefore, the displacement of the relative position obtained from these images represents a three-dimensional displacement (x direction, y direction, z direction). The displacement in the z direction is added to or subtracted from the distance value obtained in the third process, similarly to the process using the displacement direction and the displacement amount obtained in the second process. Further, the displacement in the x direction and the displacement in the y direction are added to the distance value obtained in the third process by using the trigonometric method.

以上のように機能するデータ処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。   The data processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部242は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The user interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation unit 242 includes the operation device of the arithmetic control unit 200 described above. The operation unit 242 may include various buttons and keys provided on the housing of the ophthalmologic apparatus 1 or outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 242 may include a joystick, an operation panel, or the like provided on the housing. Further, the display unit 241 may include various display devices such as a touch panel provided in the housing of the fundus camera unit 2.

なお、表示部241と操作部242は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部242は、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部242に対する操作内容は、電気信号として制御部210に入力される。また、表示部241に表示されたグラフィカルユーザインターフェイス(GUI)と、操作部242とを用いて、操作や情報入力を行うようにしてもよい。   The display unit 241 and the operation unit 242 do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. In that case, the operation unit 242 includes the touch panel and a computer program. The operation content for the operation unit 242 is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using the graphical user interface (GUI) displayed on the display unit 241 and the operation unit 242.

[動作]
この実施形態に係る眼科装置1の動作について説明する。眼科装置1の動作の例を図6〜図8に示す。図6に示す動作は、この実施形態の基本動作の一例を示す。図7A〜図7Dに示す動作は、前述のオートZが適用される場合における動作の一例を示す。図8に示す動作は、前述の参照画像を用いたオートアライメントが適用される場合における動作の一例を示す。なお、この実施形態に係る動作はこれらに限定されない。たとえば、図6〜図8に示す3つの動作例のうちの2つ以上を組み合わせることが可能である。
[Operation]
The operation of the ophthalmologic apparatus 1 according to this embodiment will be described. Examples of operations of the ophthalmologic apparatus 1 are shown in FIGS. The operation shown in FIG. 6 shows an example of the basic operation of this embodiment. The operation shown in FIGS. 7A to 7D shows an example of the operation when the above-described auto Z is applied. The operation shown in FIG. 8 shows an example of the operation when the above-described auto alignment using the reference image is applied. In addition, the operation | movement which concerns on this embodiment is not limited to these. For example, two or more of the three operation examples shown in FIGS. 6 to 8 can be combined.

以下の動作例において、患者登録や検査条件の設定は既に行われたものとする。患者登録は、たとえば、ユーザインターフェイス240を用いて当該被検者の患者IDを入力することにより行われる。   In the following operation example, it is assumed that patient registration and setting of examination conditions have already been performed. Patient registration is performed by inputting the patient ID of the subject using the user interface 240, for example.

検査条件は、OCT計測および/またはその後の処理において適用される各種条件(たとえばスキャンパターン、解析処理の種別など)を含んでいてよい。このような条件は、デフォルトの条件でもよいし、手動または自動で選択された条件でもよい。   The inspection conditions may include various conditions (for example, scan patterns, types of analysis processes, etc.) applied in OCT measurement and / or subsequent processing. Such a condition may be a default condition or a condition selected manually or automatically.

また、検査条件は、計測目的である眼内距離の種別を含んでよい。眼内距離の種別は、たとえば、眼内距離の名称(例:眼軸長、水晶体−網膜間距離)、眼内距離に相当する線分の端部の名称(例:角膜(角膜頂点)、眼底(眼底中心)、水晶体後嚢(水晶体後嚢中心))など、眼内距離を定義するために必要な任意の情報によって特定される。眼内距離の設定は、このような情報を入力する処理を含んでよい。   Further, the inspection condition may include a type of intraocular distance that is a measurement purpose. Types of intraocular distance include, for example, names of intraocular distances (eg, axial length, lens-retinal distance), names of end portions of line segments corresponding to intraocular distances (eg, cornea (corneal apex)), Specified by any information necessary to define the intraocular distance, such as the fundus (fundus center), the posterior capsule (the posterior capsule center)). The setting of the intraocular distance may include a process of inputting such information.

眼内距離の種別を設定する処理のいくつかの例を説明する。第1の例を説明する。制御部210は、眼の画像(眼画像)を表示部241に表示させる。眼画像は、たとえば、OCT画像、前眼部像、眼底像、SLO画像および(前眼部、眼底等の)模式図のうちのいずれかを含んでよい。また、眼画像は、被検眼Eを描画した画像でもよいし、他の眼を描画した画像でもよい。また、眼画像が被検眼Eの画像である場合、この眼画像は、過去(過去の検査、今回の検査など)に取得された画像でもよいし、リアルタイムで取得されている画像(観察画像、リアルタイムOCT画像など)でもよい。ユーザは、表示されている眼画像中の所望の位置をユーザインターフェイス240を用いて指定する。この指定操作は、1以上の眼画像のそれぞれに対して行われる。たとえば、眼内距離の種別として眼軸長を設定したい場合、ユーザは、前眼部のOCT画像中の角膜頂点位置をクリック操作やタッチ操作によって指定し、かつ、眼底のOCT画像中の眼底中心位置を指定する。制御部210は、指定された画像位置を示す情報(画素の座標値、部位名など)を記憶部212に保存する。以降の処理において、このようにして指定された画像位置により特定される眼内距離が計測される。また、指定された画像位置を、前述のオートZなどの任意の処理に用いることが可能である。   Several examples of processing for setting the type of intraocular distance will be described. A first example will be described. The control unit 210 causes the display unit 241 to display an eye image (eye image). The eye image may include, for example, any of an OCT image, an anterior ocular segment image, a fundus oculi image, an SLO image, and schematic diagrams (such as the anterior ocular segment and the fundus oculi). The eye image may be an image in which the eye E is drawn or an image in which another eye is drawn. When the eye image is an image of the eye E to be examined, this eye image may be an image acquired in the past (past examination, current examination, etc.), or an image (observation image, A real-time OCT image or the like). The user designates a desired position in the displayed eye image using the user interface 240. This designation operation is performed for each of one or more eye images. For example, when it is desired to set the axial length as the type of intraocular distance, the user specifies the corneal apex position in the OCT image of the anterior segment by clicking or touching, and the fundus center in the OCT image of the fundus Specify the position. The control unit 210 stores information (pixel coordinate values, part names, etc.) indicating the designated image position in the storage unit 212. In the subsequent processing, the intraocular distance specified by the image position designated in this way is measured. Further, the designated image position can be used for arbitrary processing such as the above-described auto Z.

眼内距離の種別を設定する処理の第2の例を説明する。制御部210は、眼の部位の名称や、眼内距離の名称など、眼内距離の複数の種別を示す複数の情報を選択肢として含むリスト情報を表示部241に表示させる。このリスト情報の例として、プルダウンメニュー、チェックボックスが付帯されたリストなどがある。ユーザは、ユーザインターフェイス240を用いて所望の選択肢を指定する。制御部210は、この選択肢の指定結果を示す情報を記憶部212に保存する。以降の処理において、指定された選択肢に基づいて眼内距離が計測される。たとえば、データ処理部230は、OCT画像を解析することにより、指定された選択肢に対応する部位の画像領域を特定する。たとえば、眼内距離の種別として眼軸長を設定したい場合、ユーザは、選択肢「眼軸長」、または選択肢「角膜(角膜頂点)」および「眼底(眼底中心)」を指定する。データ処理部230は、この指定結果に基づき、前眼部のOCT画像を解析することにより角膜頂点に相当する画像領域を特定する処理を実行し、かつ、眼底のOCT画像を解析することにより眼底中心に相当する画像領域を特定する処理を実行する。   A second example of processing for setting the type of intraocular distance will be described. The control unit 210 causes the display unit 241 to display list information including a plurality of pieces of information indicating a plurality of types of intraocular distances as options, such as the name of an eye part and the name of an intraocular distance. Examples of the list information include a pull-down menu and a list with a check box. The user designates a desired option using the user interface 240. The control unit 210 stores information indicating the selection result of the options in the storage unit 212. In the subsequent processing, the intraocular distance is measured based on the designated option. For example, the data processing unit 230 identifies an image region of a part corresponding to the designated option by analyzing the OCT image. For example, when it is desired to set the axial length as the type of intraocular distance, the user designates the option “ocular axial length” or the options “cornea (corneal apex)” and “fundus (fundus center)”. Based on this designation result, the data processing unit 230 performs a process of specifying an image region corresponding to the corneal apex by analyzing the OCT image of the anterior ocular segment, and analyzes the OCT image of the fundus oculi. Processing for specifying an image region corresponding to the center is executed.

眼内距離の種別を設定する処理の第3の例を説明する。制御部210は、眼の部位の名称や、眼内距離の名称など、眼内距離の種別を示す情報を取得する。この処理は、たとえば、当該被検者の電子カルテに記録されている傷病名、クリニカルパスにおける検査のフェーズ、検診における検査のフェーズなどを参照して行われる。このような情報は、たとえば、院内サーバからネットワーク経由で眼科装置1に入力される。制御部210は、取得された情報を記憶部212に保存する。以降の処理において、この保存された情報に基づいて眼内距離が計測される。その処理は、たとえば第2の例と同様である。   A third example of processing for setting the type of intraocular distance will be described. The control unit 210 acquires information indicating the type of intraocular distance, such as the name of the eye part and the name of the intraocular distance. This processing is performed with reference to, for example, the names of wounds and diseases recorded in the electronic medical record of the subject, the examination phase in the clinical path, the examination phase in the examination, and the like. Such information is input to the ophthalmologic apparatus 1 from a hospital server via a network, for example. The control unit 210 stores the acquired information in the storage unit 212. In the subsequent processing, the intraocular distance is measured based on the stored information. The processing is the same as in the second example, for example.

以上のような準備が、図6〜図8に示す各動作の前に実行される。なお、準備段階において実行される処理は上記のものに限定されず、たとえば一般的に実施されている任意の予備的処理を含んでいてよい。   The above preparation is performed before each operation shown in FIGS. In addition, the process performed in a preparation stage is not limited to the above-mentioned thing, For example, you may include the arbitrary preliminary processes currently implemented.

(動作例1)
図6に示すフローチャートを参照する。本例は、眼内距離を求めるための基本動作の一例を示すものである。
(Operation example 1)
Refer to the flowchart shown in FIG. This example shows an example of the basic operation for obtaining the intraocular distance.

(S1:前眼部撮影の開始)
上記の準備の後に所定の指示が入力されると、制御部210は、前眼部カメラ300Aおよび300Bによる前眼部Eaの撮影を開始させる。この撮影は、前眼部Eaを撮影対象とする動画撮影である。各前眼部カメラ300Aおよび300Bは所定のフレームレートで動画撮影を行う。
(S1: Start of anterior segment imaging)
When a predetermined instruction is input after the above preparation, the control unit 210 causes the anterior segment camera 300A and 300B to start photographing the anterior segment Ea. This shooting is moving image shooting in which the anterior segment Ea is a shooting target. Each anterior eye camera 300A and 300B shoots a moving image at a predetermined frame rate.

ここで、前眼部カメラ300Aおよび300Bによる撮影タイミングが制御部210によって同期されていてもよい。各前眼部カメラ300Aおよび300Bは、取得されたフレームをリアルタイムで順次に制御部210に送る。制御部210は、双方の前眼部カメラ300Aおよび300Bにより得られたフレームを、撮影タイミングに応じて対応付ける。つまり、制御部210は、双方の前眼部カメラ300Aおよび300Bにより実質的に同時に取得されたフレーム同士を対応付ける。この対応付けは、たとえば、上記の同期制御に基づいて、または、前眼部カメラ300Aおよび300Bからのフレームの入力タイミングに基づいて実行される。制御部210は、対応付けられた一対のフレームを解析部231に送る。   Here, the imaging timings of the anterior eye cameras 300A and 300B may be synchronized by the control unit 210. Each anterior eye camera 300A and 300B sequentially sends the acquired frames to the control unit 210 in real time. The controller 210 associates the frames obtained by both anterior eye cameras 300A and 300B according to the photographing timing. That is, the control unit 210 associates frames acquired substantially simultaneously by both anterior eye cameras 300A and 300B. This association is executed, for example, based on the above-described synchronization control or based on the input timing of frames from the anterior eye cameras 300A and 300B. The control unit 210 sends a pair of associated frames to the analysis unit 231.

なお、撮影開始のトリガとなる上記指示は、たとえば、ユーザがユーザインターフェイス240を操作することにより入力される。或いは、上記準備の完了が上記指示であってもよい。   In addition, the said instruction | indication used as a trigger of imaging | photography start is input when a user operates the user interface 240, for example. Alternatively, the completion of the preparation may be the instruction.

(S2:アライメント)
前眼部撮影の開始を受けて、またはユーザからの指示を受けて、眼科装置1は、被検眼Eに対する光学系のアライメントを開始する。このアライメントは、前眼部EaのOCT計測を行うための位置(被検眼Eに対する所定の相対位置)に光学系を配置させるために実行される。このアライメントは、前眼部カメラ300Aおよび300Bによりリアルタイムで取得される前眼部像に基づき実行される。
(S2: Alignment)
The ophthalmologic apparatus 1 starts alignment of the optical system with respect to the eye E in response to the start of anterior ocular segment imaging or an instruction from the user. This alignment is executed in order to place the optical system at a position (predetermined relative position with respect to the eye E) for performing OCT measurement of the anterior segment Ea. This alignment is executed based on the anterior segment image acquired in real time by the anterior segment cameras 300A and 300B.

前眼部カメラ300Aおよび300Bにより取得される前眼部像(フレーム)に基づくアライメントは、たとえば次のようにして実行される。まず、画像補正部2311は、制御部210から送られた各フレームの歪みを収差情報212aに基づいて補正する。歪みが補正された一対のフレームは、特徴位置特定部2312に送られる。特徴位置特定部2312は、画像補正部2311から送られた各フレームを解析することで、前眼部Eaの瞳孔中心に相当する当該フレーム内の特徴位置を特定するための処理を実行する。   The alignment based on the anterior segment images (frames) acquired by the anterior segment cameras 300A and 300B is executed as follows, for example. First, the image correction unit 2311 corrects the distortion of each frame sent from the control unit 210 based on the aberration information 212a. The pair of frames whose distortion has been corrected is sent to the feature position specifying unit 2312. The feature position specifying unit 2312 analyzes each frame sent from the image correction unit 2311 to execute a process for specifying the feature position in the frame corresponding to the pupil center of the anterior segment Ea.

特徴位置の特定に失敗した場合、制御部210は、特徴位置特定部2312からの情報を受けたことに対応し、前述の撮影移動部を制御して、前眼部カメラ300Aおよび300Bを支持部440から離れる方向および/または支持部440の外側方向に移動させる。支持部440から離れる方向に前眼部カメラ300Aおよび300Bを移動させる場合、前眼部カメラ300Aおよび300Bと被検者(被検眼E)との間の距離が大きくなるので、被検者の顔面のより広い範囲を撮影することが可能となり、前眼部カメラ300Aおよび300Bによる好適な撮影可能範囲に被検眼Eが配置される可能性が高まる。一方、支持部440の外側方向に前眼部カメラ300Aおよび300Bを移動させる場合、被検者の耳側の方向に前眼部カメラ300Aおよび300Bが移動するので、好適な撮影可能範囲に被検眼Eが配置される可能性が高まる。また、これら2方向への移動を組み合わせることにより、好適な撮影可能範囲に被検眼Eが配置される可能性がさらに高まる。   If the identification of the feature position fails, the control unit 210 responds to the reception of the information from the feature position specification unit 2312 and controls the above-described imaging movement unit to support the anterior eye cameras 300A and 300B. It moves to the direction which leaves | separates from 440, and / or the outer side of the support part 440. FIG. When the anterior eye cameras 300A and 300B are moved in the direction away from the support part 440, the distance between the anterior eye cameras 300A and 300B and the subject (eye E) increases, so that the face of the subject It is possible to image a wider range, and the possibility that the eye E to be inspected is arranged in a suitable imageable range by the anterior eye camera 300A and 300B increases. On the other hand, when the anterior eye cameras 300A and 300B are moved in the outward direction of the support part 440, the anterior eye cameras 300A and 300B are moved in the direction of the subject's ear, so that the eye to be examined is in a suitable photographing range. The possibility that E is arranged increases. In addition, by combining these movements in the two directions, the possibility that the eye E to be examined is arranged in a suitable photographing range is further increased.

前眼部カメラ300Aおよび300Bの移動の完了後には、前眼部カメラ300Aおよび300Bによる動画撮影、瞳孔中心の特定、特定成功の判定が再度実行される。なお、このルーチンが所定回数繰り返された場合、アライメント指標を用いるオートアライメント、または手動でのアライメントに移行するように制御を行うことができる。   After the movement of the anterior eye cameras 300A and 300B is completed, moving image shooting by the anterior eye cameras 300A and 300B, specification of the pupil center, and determination of successful identification are executed again. When this routine is repeated a predetermined number of times, control can be performed so as to shift to automatic alignment using an alignment index or manual alignment.

特徴位置の特定に成功した場合、画像判定部232は、前眼部Eaに相当する画像がフレームの所定領域内に位置しているか判定する。この動作例では、特徴位置特定部2312により特定された特徴位置を用いて当該判定処理を実行する。前眼部Eaの画像がフレームの所定領域内に位置していないと判定された場合、前眼部カメラ300Aおよび300Bの移動が再度実行される。一方、前眼部Eaの画像がフレームの所定領域内に位置していると判定された場合、3次元位置算出部2313は、前眼部カメラ300Aおよび300Bの位置と、特徴位置特定部2312により一対のフレームについて特定された特徴位置とに基づいて、被検眼Eの瞳孔中心の3次元位置を算出する。そして、制御部210は、算出された3次元位置に基づいて、光学系の光軸を被検眼Eの軸に合わせるように、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように光学系駆動部2Aを制御する。以上のようにしてアライメントが実行される。   When the feature position is successfully identified, the image determination unit 232 determines whether an image corresponding to the anterior segment Ea is located within a predetermined region of the frame. In this operation example, the determination process is executed using the feature position specified by the feature position specifying unit 2312. When it is determined that the image of the anterior segment Ea is not located within the predetermined region of the frame, the movement of the anterior segment cameras 300A and 300B is executed again. On the other hand, when it is determined that the image of the anterior segment Ea is located within a predetermined region of the frame, the three-dimensional position calculation unit 2313 uses the positions of the anterior segment cameras 300A and 300B and the feature position specifying unit 2312. Based on the characteristic position specified for the pair of frames, the three-dimensional position of the pupil center of the eye E is calculated. Then, the control unit 210 adjusts the optical axis of the optical system to the axis of the eye E based on the calculated three-dimensional position, and the distance of the optical system with respect to the eye E becomes a predetermined working distance. Thus, the optical system driving unit 2A is controlled. The alignment is executed as described above.

なお、前眼部カメラ300Aおよび300Bにより取得される前眼部像を参照する代わりに、または当該前眼部像を参照することに加えて、前述したアライメント指標を用いてアライメントを行うことも可能である。また、前眼部Eaの観察画像を参照しつつ手動でアライメントを行ってもよい。   In addition, instead of referring to the anterior segment image acquired by the anterior segment cameras 300A and 300B, or in addition to referring to the anterior segment image, it is possible to perform alignment using the alignment index described above. It is. Moreover, you may align manually, referring the observation image of the anterior eye part Ea.

(S3:角膜のOCT計測)
アライメントの完了後、眼科装置1は、被検眼Eの角膜(前眼部Ea)のOCT計測を実行する。このOCT計測は、上記の準備において設定された検査条件に基づいて実行される。なお、この段階においても、ステップS1で開始された前眼部撮影は継続的に行われている。
(S3: OCT measurement of cornea)
After completion of the alignment, the ophthalmologic apparatus 1 performs OCT measurement of the cornea (anterior eye portion Ea) of the eye E to be examined. This OCT measurement is executed based on the inspection conditions set in the above preparation. Even at this stage, the anterior ocular segment imaging started in step S1 is continuously performed.

(S4:OCTデータおよび前眼部像の記憶)
制御部210は、ステップS3にて得られたOCTデータと、そのOCT計測時に得られた前眼部像とを記憶部212に記憶させる。
(S4: Storage of OCT data and anterior segment image)
The control unit 210 causes the storage unit 212 to store the OCT data obtained in step S3 and the anterior ocular segment image obtained during the OCT measurement.

OCTデータは、少なくとも、角膜のOCT計測において適用された、光学系の光路長を示す情報(第1の光路長情報)を含む。本例では測定光路長が可変な構成であるから、第1の光路長情報は、測定光路長を示す情報を含む。   The OCT data includes at least information indicating the optical path length of the optical system (first optical path length information) applied in OCT measurement of the cornea. In this example, since the measurement optical path length is variable, the first optical path length information includes information indicating the measurement optical path length.

OCTデータは、角膜のOCT計測において適用された条件のうち任意のものを含んでいてよい(例:スキャンパターン)。また、OCTデータは、角膜のOCT計測により取得されたデータ(たとえば、Aスキャンのプロファイル、断面像の画像データなど)を含んでいてよい。また、OCTデータは、角膜のOCT計測により取得されたデータを処理して得られたデータ(たとえば、解析処理により得られたデータ、表示用の加工が施されたデータなど)を含んでいてよい。   The OCT data may include any of conditions applied in corneal OCT measurement (eg, scan pattern). The OCT data may include data (for example, A-scan profile, cross-sectional image data, etc.) acquired by OCT measurement of the cornea. The OCT data may include data obtained by processing data obtained by corneal OCT measurement (for example, data obtained by analysis processing, data subjected to display processing, etc.). .

記憶される前眼部像は、角膜のOCT計測が行われる直前、行っている間、行われた直後のうち、少なくともいずれかのタイミングにおいて取得された画像である。ここで、角膜のOCT計測のタイミングと、前眼部像の取得タイミングとの誤差は、たとえば、眼球運動が介在しないと一般的に認識されている範囲であれば許容される。   The stored anterior ocular segment image is an image acquired at least at one of the timing immediately before, during, and immediately after the corneal OCT measurement. Here, an error between the OCT measurement timing of the cornea and the acquisition timing of the anterior ocular segment image is permissible as long as it is generally recognized that no eye movement is involved.

また、記憶される前眼部像は、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された一対のフレームを含んでいてもよいし、前眼部カメラ300Aおよび300Bの一方により取得されたフレームのみを含んでいてもよい。   The stored anterior segment image may include a pair of frames acquired substantially simultaneously by the anterior segment cameras 300A and 300B, or acquired by one of the anterior segment cameras 300A and 300B. Only the frame may be included.

(S5:光路長の変更)
続いて、制御部210は、OCT計測の対象を角膜から眼底に変更するために、光学系の光路長を変更する。本例では、光路長変更部41を制御することによって測定光路長が変更される。光路長の変更量はデフォルト値であってよい。或いは、被検眼Eの画像(たとえば、前眼部カメラ300Aおよび300Bによる撮影画像、光学系による観察画像など)を参照して光路長を変更することもできる。
(S5: Change of optical path length)
Subsequently, the control unit 210 changes the optical path length of the optical system in order to change the target of OCT measurement from the cornea to the fundus. In this example, the measurement optical path length is changed by controlling the optical path length changing unit 41. The change amount of the optical path length may be a default value. Alternatively, the optical path length can be changed with reference to the image of the eye E (for example, the images taken by the anterior eye cameras 300A and 300B, the observation image by the optical system, etc.).

(S6:角膜計測時と実質同一の前眼部像が得られたか?)
この段階においても、ステップS1で開始された前眼部撮影は継続的に行われている。制御部210は、前眼部カメラ300Aおよび/または300Bから入力されるフレームを画像特定部233に逐次に送る。また、制御部210は、ステップS4で記憶部212に記憶された前眼部像を画像特定部233に送る。この前眼部像は、画像特定部233による比較処理における参照画像(第1の画像)として用いられる。なお、前述したように、この参照画像は、前眼部カメラ300Aおよび300Bの一方または双方により取得されたフレームである。
(S6: Was an anterior ocular segment image substantially the same as that obtained during cornea measurement?)
Even at this stage, the anterior segment imaging started in step S1 is continuously performed. The control unit 210 sequentially sends frames input from the anterior eye camera 300A and / or 300B to the image specifying unit 233. In addition, the control unit 210 sends the anterior segment image stored in the storage unit 212 in step S4 to the image specifying unit 233. This anterior segment image is used as a reference image (first image) in the comparison process by the image specifying unit 233. As described above, this reference image is a frame acquired by one or both of the anterior eye cameras 300A and 300B.

画像特定部233は、制御部210から逐次に入力されるフレームを参照画像と比較する。この比較処理は、参照画像と実質的に同一のフレーム(第2の画像)が特定されるまで、逐次に入力されるフレームについて繰り返し実行される(S6:NO)。第2の画像が特定されたことに対応し、画像特定部233は、制御部210に信号を送信する(S6:YES)。   The image specifying unit 233 compares the frames sequentially input from the control unit 210 with the reference image. This comparison process is repeatedly executed for sequentially input frames until the substantially same frame (second image) as the reference image is specified (S6: NO). In response to specifying the second image, the image specifying unit 233 transmits a signal to the control unit 210 (S6: YES).

なお、比較処理を既定の時間だけ実行しても第2の画像が特定されない場合、または、比較処理を既定の回数だけ実行しても第2の画像が特定されない場合、眼科装置1は報知を行うことができる。この報知処理は、たとえば、第2の画像が特定されない旨のメッセージを制御部210が表示部241に表示させることにより、または、制御部210が音声出力部(図示省略)に警告音声を出力させることにより行われる。このような報知を認識したユーザは、たとえば、光学系の位置を手動で調整することができる。   If the second image is not specified even if the comparison process is executed for a predetermined time, or if the second image is not specified even if the comparison process is executed a predetermined number of times, the ophthalmologic apparatus 1 notifies the user. It can be carried out. In this notification process, for example, the control unit 210 causes the display unit 241 to display a message indicating that the second image is not specified, or the control unit 210 causes a sound output unit (not shown) to output a warning sound. Is done. A user who recognizes such notification can manually adjust the position of the optical system, for example.

(S7:眼底のOCT計測)
前述したように、画像特定部233は、参照画像と実質的に同一のフレーム(第2の画像)が特定されたことに対応し、制御部210に信号を送信する。この信号を受けた制御部210は、眼底EfのOCT計測を眼科装置1に実行させる。このOCT計測は、上記の準備において設定された検査条件に基づいて実行される。なお、この段階において、ステップS1で開始された前眼部撮影が継続的に行われていてもよいし、既に終了されていてもよい。
(S7: OCT measurement of the fundus)
As described above, the image specifying unit 233 transmits a signal to the control unit 210 in response to the fact that substantially the same frame (second image) as the reference image has been specified. Receiving this signal, the control unit 210 causes the ophthalmologic apparatus 1 to perform OCT measurement of the fundus oculi Ef. This OCT measurement is executed based on the inspection conditions set in the above preparation. At this stage, the anterior ocular segment imaging started in step S1 may be continuously performed or may have already been completed.

制御部210は、眼底EfのOCT計測にて得られたOCTデータを記憶部212に記憶させる。OCTデータは、少なくとも、眼底EfのOCT計測において適用された、光学系の光路長を示す情報(第2の光路長情報)を含む。また、このOCTデータは、前述したような他のデータを含んでいてもよい。また、制御部210は、眼底EfのOCT計測時に得られた前眼部像を、OCTデータとともに記憶させてもよい。この前眼部像は、たとえば、ステップS6において特定された第2の画像である。   The control unit 210 causes the storage unit 212 to store OCT data obtained by OCT measurement of the fundus oculi Ef. The OCT data includes at least information indicating the optical path length of the optical system (second optical path length information) applied in OCT measurement of the fundus oculi Ef. The OCT data may include other data as described above. The control unit 210 may store an anterior ocular segment image obtained during OCT measurement of the fundus oculi Ef together with OCT data. This anterior segment image is, for example, the second image specified in step S6.

(S8:眼内距離の算出)
制御部210は、ステップS4において得られた第1の光路長情報と、ステップS7において得られた第2の光路長情報とを記憶部212から読み出し、これらを距離演算部234に送る。距離演算部234は、第1の光路長情報および第2の光路長情報に基づいて、角膜のOCT計測におけるスキャン範囲に含まれる第1の部位と、眼底EfのOCT計測におけるスキャン範囲に含まれる第2の部位との間の距離(眼内距離)を求める。
(S8: Calculation of intraocular distance)
The control unit 210 reads out the first optical path length information obtained in step S4 and the second optical path length information obtained in step S7 from the storage unit 212, and sends them to the distance calculation unit 234. Based on the first optical path length information and the second optical path length information, the distance calculation unit 234 is included in the first region included in the scan range in the corneal OCT measurement and in the scan range in the OCT measurement of the fundus oculi Ef. The distance (intraocular distance) between the second part is obtained.

本例において距離演算部234が実行する処理を説明する。第1の部位は角膜頂点であり、第2の部位は眼底中心であり、眼内距離は眼軸長であるとする。本例では、角膜のOCT計測とともに取得された前眼部像と実質的に同一の前眼部像が得られたタイミングで眼底EfのOCT計測が実行される。また、角膜頂点(第1の部位)がコヒーレンスゲートに実質的に一致している状態で角膜のOCT計測が行われ、かつ、眼底中心(第2の部位)がコヒーレンスゲートに実質的に一致している状態で眼底EfのOCT計測が行われたとする(そうでない場合については後述の動作例2で説明する)。   The processing executed by the distance calculation unit 234 in this example will be described. It is assumed that the first part is the corneal apex, the second part is the fundus center, and the intraocular distance is the axial length. In this example, OCT measurement of the fundus oculi Ef is executed at the timing when an anterior ocular segment image substantially identical to the anterior ocular segment image acquired together with the corneal OCT measurement is obtained. In addition, the OCT measurement of the cornea is performed in a state where the apex of the cornea (first portion) substantially coincides with the coherence gate, and the fundus center (second portion) substantially coincides with the coherence gate. It is assumed that OCT measurement of the fundus oculi Ef is performed in a state in which it is in a state (a case where this is not the case will be described in operation example 2 described later).

これら仮定の下、距離演算部234は、第1の光路長情報が示す第1の測定光路長L1と、第2の光路長情報が示す第2の測定光路長L2との差(の絶対値)|L1−L2|を算出する。この演算処理は、たとえば、2つの測定光路長のうち大きい方から小さい方を減算する処理、または、2つの測定光路長の差を算出した後にその絶対値を求める処理を含む。このようにして求められた差の値が、目的の眼内距離(眼軸長)となる。   Under these assumptions, the distance calculation unit 234 calculates the absolute value of the difference between the first measurement optical path length L1 indicated by the first optical path length information and the second measurement optical path length L2 indicated by the second optical path length information. ) | L1-L2 | is calculated. This calculation process includes, for example, a process of subtracting the smaller one of the two measurement optical path lengths or a process of calculating the absolute value after calculating the difference between the two measurement optical path lengths. The value of the difference obtained in this way becomes the target intraocular distance (ocular axis length).

なお、本例においては、光路長変更部41のコーナーキューブを移動することによって測定光路長が変更される。したがって、第1および第2の光路長情報が示す情報は、このコーナーキューブの位置情報であってよい。この位置情報は、たとえば、制御部210による制御内容(たとえば制御パルスのパルス数など)に基づき取得されるか、或いは、位置センサにより検出される。距離演算部234は、第1の光路長情報が示すコーナーキューブの位置P1と第2の光路長情報が示す位置P2との間の差の2倍の値を、眼内の屈折率nで除算した値「2×|P1−P2|÷n」を、眼内距離(眼軸長)として算出する。なお、屈折率nの値は既知であり、標準的な値(たとえばGullstrand模型眼の値)または被検眼Eの実測値である。   In this example, the measurement optical path length is changed by moving the corner cube of the optical path length changing unit 41. Therefore, the information indicated by the first and second optical path length information may be the position information of the corner cube. This position information is acquired based on, for example, control content (for example, the number of control pulses) by the control unit 210, or is detected by a position sensor. The distance calculation unit 234 divides a value twice the difference between the position P1 of the corner cube indicated by the first optical path length information and the position P2 indicated by the second optical path length information by the refractive index n in the eye. The calculated value “2 × | P1−P2 | ÷ n” is calculated as the intraocular distance (ocular length). Note that the value of the refractive index n is known and is a standard value (for example, a value of a Gullstrand model eye) or an actual measurement value of the eye E to be examined.

(動作例2)
図7Aおよび図7Bに示すフローチャートを参照する。また、図7Cおよび図7Dも参照する。本例は、オートZが適用される場合の動作の一例を示す。
(Operation example 2)
Refer to the flowcharts shown in FIGS. 7A and 7B. Reference is also made to FIGS. 7C and 7D. This example shows an example of the operation when auto-Z is applied.

(S11:前眼部撮影の開始)
まず、図7Aを参照する。このステップは、たとえば、動作例1のステップS1と同様にして実行される。
(S11: Start of anterior segment imaging)
First, refer to FIG. 7A. This step is executed, for example, in the same manner as Step S1 of Operation Example 1.

(S12:アライメント)
このステップは、たとえば、動作例1のステップS2と同様にして実行される。
(S12: Alignment)
This step is executed, for example, in the same manner as step S2 of the operation example 1.

(S13:角膜頂点を対象とするオートZ)
ステップS12のアライメントの完了後、制御部210は、角膜頂点をコヒーレンスゲートに一致させるためのオートZを実行させる。オートZは前述の要領で実行される。制御部210は、オートZの成功または失敗を示す情報を記憶部212に記憶させる。
(S13: Auto Z targeting the corneal apex)
After completing the alignment in step S12, the control unit 210 executes auto-Z for matching the corneal apex to the coherence gate. Auto Z is executed as described above. The control unit 210 causes the storage unit 212 to store information indicating success or failure of the auto-Z.

オートZに失敗した場合、たとえば、マニュアル操作によって、OCT画像のフレーム内における画像の位置調整を行うことができる。なお、本例において、角膜頂点に相当する画像がフレームに含まれていればよい。   When auto Z fails, the position of the image within the frame of the OCT image can be adjusted by, for example, manual operation. In the present example, an image corresponding to the corneal apex may be included in the frame.

(S14:角膜のOCT計測)
このステップは、たとえば、動作例1のステップS3と同様にして実行される。
(S14: OCT measurement of cornea)
This step is executed, for example, in the same manner as step S3 in the first operation example.

(S15:OCTデータおよび前眼部像の記憶)
このステップは、たとえば、動作例1のステップS4と同様にして実行される。
(S15: Storage of OCT data and anterior segment image)
This step is executed, for example, in the same manner as Step S4 of Operation Example 1.

(S16:光路長の変更)
このステップは、たとえば、動作例1のステップS5と同様にして実行される。
(S16: Change of optical path length)
This step is executed, for example, in the same manner as step S5 of the first operation example.

(S17:眼底中心を対象とするオートZ)
続いて、制御部210は、眼底中心をコヒーレンスゲートに一致させるためのオートZを実行させる。オートZは前述の要領で実行される。制御部210は、オートZの成功または失敗を示す情報を記憶部212に記憶させる。
(S17: Auto Z targeting the fundus center)
Subsequently, the control unit 210 executes auto Z for making the fundus center coincide with the coherence gate. Auto Z is executed as described above. The control unit 210 causes the storage unit 212 to store information indicating success or failure of the auto-Z.

オートZに失敗した場合、たとえば、マニュアル操作によって、OCT画像のフレーム内における画像の位置調整を行うことができる。なお、本例において、眼底中心に相当する画像がフレームに含まれていればよい。   When auto Z fails, the position of the image within the frame of the OCT image can be adjusted by, for example, manual operation. In this example, an image corresponding to the fundus center may be included in the frame.

(S18:角膜計測時と実質同一の前眼部像が得られたか?)
このステップは、たとえば、動作例1のステップS6と同様にして実行される。
(S18: Was an anterior ocular segment image substantially the same as that obtained during cornea measurement?)
This step is executed, for example, in the same manner as Step S6 of Operation Example 1.

(S19:眼底のOCT計測)
このステップは、たとえば、動作例1のステップS7と同様にして実行される。
(S19: OCT measurement of the fundus)
This step is executed, for example, in the same manner as step S7 in the first operation example.

(S20:OCTデータの記憶)
このステップは、たとえば、動作例1のステップS4におけるOCTデータの記憶処理と同様にして実行される。ここで、図7Bに移行する。
(S20: Storage of OCT data)
This step is executed, for example, in the same manner as the OCT data storage process in step S4 of the first operation example. Here, it transfers to FIG. 7B.

(S21:オートZは成功したか?)
制御部210は、ステップS13およびステップS17において記憶された情報を参照することにより、それぞれのオートZの成否を認識することができる。双方のオートZが成功である場合(S21:YES)、ステップS25に移行する。逆に、一方または双方のオートZが失敗である場合(S21:NO)、ステップS22に移行する。
(S21: Was Auto-Z successful?)
The controller 210 can recognize the success or failure of each auto Z by referring to the information stored in step S13 and step S17. When both auto Zs are successful (S21: YES), the process proceeds to step S25. Conversely, if one or both of the auto Zs have failed (S21: NO), the process proceeds to step S22.

(S22:光路長の差の算出)
ステップS13および/またはステップS17のオートZが失敗である場合(S21:NO)、距離演算部234は、まず、動作例1のステップS8と同様にして、第1の光路長情報が示す第1の測定光路長L1と、第2の光路長情報が示す第2の測定光路長L2との差(の絶対値)|L1−L2|を算出する。この算出処理は、たとえば、ステップS14における光路長変更部41のコーナーキューブの位置と、ステップS19における位置との間の差の2倍の値を算出するものである。
(S22: Calculation of optical path length difference)
When the auto Z in step S13 and / or step S17 is unsuccessful (S21: NO), the distance calculation unit 234 first performs the first optical path length information indicated by the first optical path length information in the same manner as in step S8 of operation example 1. The difference (absolute value) | L1−L2 | between the measured optical path length L1 and the second measured optical path length L2 indicated by the second optical path length information is calculated. In this calculation process, for example, a value that is twice the difference between the position of the corner cube of the optical path length changing unit 41 in step S14 and the position in step S19 is calculated.

(S23:コヒーレンスゲートに対する変位の算出)
次に、距離演算部234は、ステップS14のOCT計測におけるコヒーレンスゲートに対する角膜頂点の変位と、ステップS19のOCT計測におけるコヒーレンスゲートに対する眼底中心の変位とを算出する。
(S23: Calculation of displacement with respect to coherence gate)
Next, the distance calculation unit 234 calculates the displacement of the corneal apex with respect to the coherence gate in the OCT measurement in step S14 and the displacement of the fundus center with respect to the coherence gate in the OCT measurement in step S19.

角膜頂点の変位を算出する処理について図7Cを参照しつつ説明する。なお、ここではOCT画像を参照しつつ説明を行うが、OCT計測により得られる干渉光の検出信号や、この検出信号を処理して得られる任意の信号または画像に基づいて変位の算出を行うことが可能である。   Processing for calculating the displacement of the corneal apex will be described with reference to FIG. 7C. Here, the description will be made with reference to the OCT image, but the displacement is calculated based on the detection signal of the interference light obtained by the OCT measurement, or an arbitrary signal or image obtained by processing this detection signal. Is possible.

さて、図7Cには、ステップS14のOCT計測に基づき生成されるOCT画像(角膜OCT画像)G1が示されている。角膜OCT画像G1には角膜頂点に相当する位置の画素(角膜頂点画素)A1が含まれている。また、角膜OCT画像G1のフレーム(画像範囲)において、z方向の中心位置がコヒーレンスゲートに相当していると仮定する(コヒーレンスゲート位置C1と記載する)。なお、フレームにおけるコヒーレンスゲートの位置はこれには限定されないが、いずれの場合においても当該位置は既知である。   FIG. 7C shows an OCT image (corneal OCT image) G1 generated based on the OCT measurement in step S14. The cornea OCT image G1 includes a pixel (corneal apex pixel) A1 at a position corresponding to the apex of the cornea. Further, in the frame (image range) of the corneal OCT image G1, it is assumed that the center position in the z direction corresponds to the coherence gate (denoted as coherence gate position C1). The position of the coherence gate in the frame is not limited to this, but the position is known in any case.

まず、距離演算部234は、角膜OCT画像G1を解析することにより、角膜頂点画素A1を特定する。この解析処理は、たとえば、画素値に基づいて角膜表面(角膜前面)に相当する画素群を特定する処理と、特定された画素群のうち最も−z方向(フレームにおける上方向)に位置する画素を特定する処理とを含む。他の例として、この解析処理は、角膜OCT画像G1においてz方向に直交するライン(フレームにおいて左右方向に延びるライン)上の画素群の画素値を上方から下方に向かって順に角膜に相当する画素値と比較することにより、角膜に相当する画素値を有する最初の画素を特定する処理を含む。さらに他の例として、アライメントが合った状態でOCT計測が行われた場合、この解析処理は、画素値に基づいて角膜表面(角膜前面)に相当する画素群を特定する処理と、特定された画素群のうち、z方向に直交する方向(フレームの左右方向)にフレームを2等分する直線上に位置する画素を特定する処理とを含む。   First, the distance calculation unit 234 identifies the corneal vertex pixel A1 by analyzing the corneal OCT image G1. This analysis process includes, for example, a process for specifying a pixel group corresponding to the corneal surface (frontal cornea) based on the pixel value, and a pixel located in the most −z direction (upward in the frame) among the specified pixel group. And a process for specifying As another example, in this analysis process, pixels corresponding to the cornea are sequentially changed from the upper side to the lower side in pixel values of a pixel group on a line orthogonal to the z direction (a line extending in the left-right direction in the frame) in the corneal OCT image G1. The process includes identifying the first pixel having a pixel value corresponding to the cornea by comparing with the value. As yet another example, when OCT measurement is performed in a state of alignment, this analysis process is identified as a process for specifying a pixel group corresponding to the cornea surface (frontal cornea) based on the pixel value. And specifying a pixel located on a straight line that bisects the frame in the direction orthogonal to the z direction (the left-right direction of the frame) in the pixel group.

次に、距離演算部234は、前段の処理において特定された角膜頂点画素A1と、コヒーレンスゲート位置C1との間の距離D1を算出する。この算出処理は、たとえば、角膜頂点画素A1からコヒーレンスゲート位置C1に下ろされた垂線を求める処理と、この垂線上の画素の個数をカウントする処理と、この画素の個数と既定の画素間隔(実空間における距離に相当する)とを乗算する処理とを含む。垂線を求める処理は、たとえば、角膜頂点画素A1とコヒーレンスゲート位置C1とを結ぶ、z方向に延びる線分を求める処理を含んでいてよい。以上のようにして求められた距離D1が、コヒーレンスゲートに対する角膜頂点の変位に相当する。なお、前述したように、この変位は、変位量と変位方向とを含む。図7Cに示す例において、変位量は距離D1であり、変位方向は−z方向(眼底Efから離れる方向)である。   Next, the distance calculation unit 234 calculates a distance D1 between the corneal apex pixel A1 specified in the preceding process and the coherence gate position C1. This calculation process includes, for example, a process for obtaining a perpendicular drawn from the corneal apex pixel A1 to the coherence gate position C1, a process for counting the number of pixels on the perpendicular, a number of pixels and a predetermined pixel interval (actual Processing corresponding to a distance in space). The process for obtaining a perpendicular line may include, for example, a process for obtaining a line segment extending in the z direction connecting the corneal apex pixel A1 and the coherence gate position C1. The distance D1 obtained as described above corresponds to the displacement of the corneal apex with respect to the coherence gate. As described above, this displacement includes a displacement amount and a displacement direction. In the example shown in FIG. 7C, the displacement amount is the distance D1, and the displacement direction is the −z direction (the direction away from the fundus oculi Ef).

眼底中心の変位を算出する処理について図7Dを参照しつつ説明する。この処理は、角膜頂点の変位の算出と同様であってよい。なお、図7Dにおいて、符号G2は、ステップS19のOCT計測に基づき生成されるOCT画像(眼底OCT画像)を示す。また、符号A2は眼底中心を示し、符号C2はコヒーレンスゲート位置を示す。そして、符号D2は、コヒーレンスゲート位置C2に対する眼底中心A2の変位を示す。図7Dに示す例において、変位量は距離D2であり、変位方向は+z方向(角膜から離れる方向)である。   A process for calculating the displacement of the fundus center will be described with reference to FIG. 7D. This process may be similar to the calculation of the corneal apex displacement. In FIG. 7D, symbol G2 indicates an OCT image (fundus OCT image) generated based on the OCT measurement in step S19. Reference A2 indicates the fundus center, and reference C2 indicates the coherence gate position. Reference sign D2 indicates the displacement of the fundus center A2 with respect to the coherence gate position C2. In the example shown in FIG. 7D, the displacement amount is the distance D2, and the displacement direction is the + z direction (the direction away from the cornea).

(S24:光路長の差と画像の変位に基づく眼内距離の算出)
距離演算部234は、ステップS22で算出された光路長の差(ΔL)と、ステップS23で算出されたコヒーレンスゲートに対する角膜頂点の変位(ΔA1)および/またはコヒーレンスゲートに対する眼底中心の変位(ΔA2)とに基づいて、眼内距離(眼軸長)を算出する。
(S24: Calculation of intraocular distance based on optical path length difference and image displacement)
The distance calculation unit 234 calculates the difference in optical path length (ΔL) calculated in step S22, the displacement of the corneal apex with respect to the coherence gate calculated in step S23 (ΔA1), and / or the displacement of the fundus center with respect to the coherence gate (ΔA2). Based on the above, the intraocular distance (axial length) is calculated.

図7Cおよび図7Dに示す場合においては、角膜頂点の変位方向が眼底Efから離れる方向であり、かつ、眼底中心の変位方向が角膜から離れる方向であるから、角膜頂点の変位と眼底中心の変位の双方を光路長の差に加算することにより眼内距離(眼軸長)が得られる:ΔL+ΔA1+ΔA2。一般に、一方の部位の変位方向が他方の部位から離れる方向である場合には当該変位量が加算され、一方の部位の変位方向が他方の部位に近づく方向である場合には当該変位量が減算される。以上で、ステップS13のオートZおよび/またはステップS17のオートZが失敗である場合(S21:NO)における処理は終了となる。   In the case shown in FIG. 7C and FIG. 7D, the displacement direction of the corneal apex is the direction away from the fundus oculi Ef, and the displacement direction of the fundus oculi center is the direction away from the cornea. Is added to the optical path length difference to obtain the intraocular distance (ocular length): ΔL + ΔA1 + ΔA2. Generally, when the displacement direction of one part is away from the other part, the displacement amount is added, and when the displacement direction of one part is a direction approaching the other part, the displacement amount is subtracted. Is done. The process in the case where the auto Z in step S13 and / or the auto Z in step S17 is unsuccessful (S21: NO) ends.

(S25:光路長に基づく眼内距離の算出)
一方、ステップS13のオートZおよびステップS17のオートZの双方が成功である場合(S21:YES)、距離演算部234は、動作例1のステップS8と同様にして眼内距離(眼軸長)を算出する(S25)。
(S25: Calculation of intraocular distance based on optical path length)
On the other hand, when both auto-Z in step S13 and auto-Z in step S17 are successful (S21: YES), the distance calculation unit 234 performs intraocular distance (ocular length) in the same manner as in step S8 of operation example 1. Is calculated (S25).

(動作例3)
図8に示すフローチャートを参照する。本例は、参照画像を用いたオートアライメントが行われる場合の動作の一例を示す。
(Operation example 3)
Reference is made to the flowchart shown in FIG. This example shows an example of the operation when auto-alignment using a reference image is performed.

(S31:前眼部撮影の開始)
このステップは、たとえば、動作例1のステップS1と同様にして実行される。
(S31: Start of anterior segment imaging)
This step is executed, for example, in the same manner as Step S1 of Operation Example 1.

(S32:アライメント)
このステップは、たとえば、動作例1のステップS2と同様にして実行される。
(S32: Alignment)
This step is executed, for example, in the same manner as step S2 of the operation example 1.

(S33:角膜のOCT計測)
このステップは、たとえば、動作例1のステップS3と同様にして実行される。
(S33: OCT measurement of cornea)
This step is executed, for example, in the same manner as step S3 in the first operation example.

(S34:OCTデータおよび前眼部像の記憶)
このステップは、たとえば、動作例1のステップS4と同様にして実行される。ここで記憶された前眼部像は、ステップS36のオートアライメントに用いられる。
(S34: Storage of OCT data and anterior segment image)
This step is executed, for example, in the same manner as Step S4 of Operation Example 1. The anterior ocular segment image stored here is used for auto-alignment in step S36.

(S35:光路長の変更)
このステップは、たとえば、動作例1のステップS5と同様にして実行される。
(S35: Change of optical path length)
This step is executed, for example, in the same manner as step S5 of the first operation example.

(S36:オートアライメント)
制御部210は、ステップS34で記憶された前眼部像を記憶部212から読み出す。制御部210(およびデータ処理部230)は、この前眼部像を参照画像としてオートアライメントを行う。このオートアライメントは、たとえば、前眼部カメラ300Aおよび/または300Bから逐次に入力される各フレーム(前眼部像)について、参照画像に対する当該フレームの変位を算出する処理と、算出された変位をキャンセルするように光学系を移動する処理とを含む。
(S36: Auto alignment)
The control unit 210 reads the anterior segment image stored in step S34 from the storage unit 212. The control unit 210 (and the data processing unit 230) performs auto alignment using the anterior segment image as a reference image. This auto-alignment includes, for example, a process for calculating the displacement of the frame with respect to the reference image for each frame (anterior eye image) sequentially input from the anterior eye camera 300A and / or 300B, and the calculated displacement. And a process of moving the optical system so as to cancel.

参照画像に対するフレームの変位を算出する処理は、2つの画像の間の変位を算出するための公知の画像処理を含み、たとえば、特徴点抽出、画像差分、アフィン変換、画像相関などのいずれかを含んでいてよい。   The processing for calculating the displacement of the frame with respect to the reference image includes known image processing for calculating the displacement between the two images. For example, any of feature point extraction, image difference, affine transformation, image correlation, and the like is performed. May contain.

光学系を移動する処理は、参照画像に対するフレームの変位の算出結果に基づいて制御部210が光学系駆動部2Aを制御することによって行われる。なお、「変位をキャンセルする」とは、変位が(Δx、Δy)である場合に、光学系を(−Δx、−Δy)だけ移動させることを示す。これにより、参照画像と実質的に同じ前眼部像が得られる位置に光学系が配置される。なお、生体眼はランダムな移動を伴うので、上記のようなアライメント処理を繰り返し実行することにより光学系を被検眼Eの運動に追従させることが可能である(オートトラッキング)。   The process of moving the optical system is performed by the control unit 210 controlling the optical system driving unit 2A based on the calculation result of the frame displacement with respect to the reference image. Note that “cancel displacement” indicates that the optical system is moved by (−Δx, −Δy) when the displacement is (Δx, Δy). Thereby, the optical system is arranged at a position where an anterior ocular segment image substantially the same as the reference image is obtained. Since the living eye is randomly moved, the optical system can be made to follow the movement of the eye E (auto tracking) by repeatedly executing the alignment process as described above.

(S37:角膜計測時と実質同一の前眼部像が得られたか?)
このステップは、たとえば、動作例1のステップS6と同様にして実行される。
(S37: Was an anterior ocular segment image substantially the same as that obtained during cornea measurement?)
This step is executed, for example, in the same manner as Step S6 of Operation Example 1.

(S38:眼底のOCT計測)
このステップは、たとえば、動作例1のステップS7と同様にして実行される。なお、眼底EfのOCT計測の開始タイミングにおいて、ステップS36のオートアライメント(オートトラッキング)は既に終了されていてもよいし、未だ継続中であってもよい。
(S38: OCT measurement of the fundus)
This step is executed, for example, in the same manner as step S7 in the first operation example. Note that, at the start timing of OCT measurement of the fundus oculi Ef, the auto-alignment (auto-tracking) in step S36 may already be completed or may be continued.

(S39:眼内距離の算出)
このステップは、たとえば、動作例1のステップS8と同様にして実行される。
(S39: Calculation of intraocular distance)
This step is executed, for example, in the same manner as step S8 of the operation example 1.

[効果]
この実施形態に係る眼科装置の効果について説明する。
[effect]
The effect of the ophthalmologic apparatus according to this embodiment will be described.

実施形態に係る眼科装置は、撮影部と、光学系と、変更部と、制御部と、演算部(たとえば距離演算部234)とを有する。   The ophthalmologic apparatus according to the embodiment includes an imaging unit, an optical system, a changing unit, a control unit, and a calculation unit (for example, a distance calculation unit 234).

撮影部(たとえば前眼部カメラ300Aおよび300B)は、2以上の異なる方向から被検眼を撮影する。光学系(たとえば図1および図2に示す光学系)は、光源(たとえば光源ユニット101)からの光を測定光と参照光とに分割し、被検眼からの測定光の戻り光と参照光との干渉光を検出する。変更部(たとえば光路長変更部41)は、測定光の光路長を変更する。なお、変更部は、参照光の光路長を変更する機能を有していてよい。また、変更部は、測定光の光路長と参照光の光路長の双方を変更可能に構成されてもよい。   The imaging unit (for example, the anterior eye cameras 300A and 300B) images the eye to be examined from two or more different directions. The optical system (for example, the optical system shown in FIGS. 1 and 2) divides the light from the light source (for example, the light source unit 101) into measurement light and reference light, and returns the measurement light from the eye to be examined and the reference light. Interference light is detected. The changing unit (for example, the optical path length changing unit 41) changes the optical path length of the measurement light. Note that the changing unit may have a function of changing the optical path length of the reference light. The changing unit may be configured to be able to change both the optical path length of the measurement light and the optical path length of the reference light.

制御部(たとえば制御部210(およびデータ処理部230))は、変更部により第1の光路長が設定されているときに、撮影部による撮影と、光学系による第1の検出とを実行させる。さらに、制御部は、変更部により第2の光路長が設定されておりかつ上記撮影により取得された第1の画像と実質的に同一の第2の画像が撮影部により取得されたときに、光学系による第2の検出を実行させる。   The control unit (for example, the control unit 210 (and the data processing unit 230)), when the first optical path length is set by the changing unit, causes the imaging unit to perform imaging and the optical system first detection. . Further, when the second optical path length is set by the changing unit and the second image substantially the same as the first image acquired by the imaging is acquired by the imaging unit, the control unit, The second detection by the optical system is executed.

上記の例において、第1の光路長は、角膜のOCT計測を行うために設定される光路長に相当する。また、撮影は、角膜のOCT計測とともに実行される前眼部撮影に相当する。また、第1の検出は角膜のOCT計測に相当する。また、第2の光路長は、眼底のOCT計測を行うために設定される光路長に相当する。また、第2の検出は眼底のOCT計測に相当する。これらは一例に過ぎず、たとえば、第1の光路長は、眼底または他の部位のOCT計測を行うための光路長であってよく、第2の光路長は、角膜または他の部位のOCT計測を行うための光路長であってよい。また、撮影部により取得される画像は前眼部像には限定されず、眼底や他の部位の画像であってよい。   In the above example, the first optical path length corresponds to the optical path length set to perform OCT measurement of the cornea. Imaging is equivalent to anterior segment imaging performed together with OCT measurement of the cornea. The first detection corresponds to OCT measurement of the cornea. The second optical path length corresponds to the optical path length set for performing OCT measurement of the fundus. The second detection corresponds to fundus OCT measurement. These are merely examples. For example, the first optical path length may be an optical path length for performing OCT measurement of the fundus or other part, and the second optical path length is OCT measurement of the cornea or other part. The optical path length for performing Moreover, the image acquired by the imaging unit is not limited to the anterior segment image, and may be an image of the fundus or other part.

演算部は、第1の光路長および第2の光路長に基づいて、第1の検出において測定光が通過した被検眼の第1の部位と、第2の検出において測定光が通過した第2の部位との間の距離を求める。   Based on the first optical path length and the second optical path length, the calculation unit includes a first part of the eye to be examined through which the measurement light has passed in the first detection, and a second part through which the measurement light has passed in the second detection. Find the distance to the part.

上記の例では眼軸長が求められるが、これには限定されず、第1の検出に基づくOCT画像に描写されている任意の部位と、第2の検出に基づくOCT画像に描写されている任意の部位との間の距離であってよい。なお、これら2つの部位の間の距離の算出において、これら部位の間の相対変位がz方向の変位のみである場合には、加算および/または減算が用いられる。一方、これら部位の間の相対変位がx方向の変位および/またはy方向の変位を含む場合には、加算および/または減算に加えて三角法が用いられる。たとえば、x方向の変位および/またはy方向の変位と、z方向の変位との合成処理において、三平方の定理を適用することができる。   In the above example, the axial length is obtained, but the present invention is not limited to this, and it is depicted in an arbitrary portion depicted in the OCT image based on the first detection and the OCT image based on the second detection. It may be a distance between any part. In calculating the distance between these two parts, if the relative displacement between these parts is only the displacement in the z direction, addition and / or subtraction is used. On the other hand, when the relative displacement between these parts includes displacement in the x direction and / or displacement in the y direction, trigonometry is used in addition to addition and / or subtraction. For example, the three-square theorem can be applied in the synthesis process of the displacement in the x direction and / or the displacement in the y direction and the displacement in the z direction.

このような実施形態によれば、2つの参照光路を形成するための光学的構成を設けずとも眼内距離の計測が可能である。また、実施形態に係る眼科装置によれば、第1の検出と第2の検出との間に被検眼の位置や向きが変化したとしても、第1の検出(OCT計測)とともに行われた撮影により得られた第1の画像と実質的に同一である第2の画像が取得されたタイミングで第2の検出(OCT計測)を実行するよう構成されているので、被検眼の位置等のずれにより眼内距離の測定確度が低下するという不利益が解消される。したがって、実施形態に係る眼科装置によれば、装置の大型化や複雑化を伴うことなく高い確度で眼内距離を測定することが可能である。   According to such an embodiment, it is possible to measure the intraocular distance without providing an optical configuration for forming two reference optical paths. Moreover, according to the ophthalmologic apparatus which concerns on embodiment, even if the position and direction of the eye to be examined change between the first detection and the second detection, the imaging performed together with the first detection (OCT measurement) Since the second detection (OCT measurement) is performed at the timing when the second image that is substantially the same as the first image obtained by the above is acquired, the displacement of the position of the eye to be examined, etc. This eliminates the disadvantage that the measurement accuracy of the intraocular distance is lowered. Therefore, according to the ophthalmologic apparatus according to the embodiment, it is possible to measure the intraocular distance with high accuracy without increasing the size and complexity of the apparatus.

実施形態に係る眼科装置は、第2の光路長が設定されているときに、撮影部によって時系列画像を取得するよう構成されていてよい。さらに、制御部は、時系列画像として順次に取得される静止画像を第1の画像と比較することにより第2の画像を特定する特定部を含んでいてよい。加えて、制御部は、特定部により第2の画像が特定されたことに対応して第2の検出を実行させるよう構成されていてよい。   The ophthalmologic apparatus according to the embodiment may be configured to acquire a time-series image by the imaging unit when the second optical path length is set. Furthermore, the control unit may include a specifying unit that specifies the second image by comparing still images sequentially acquired as time-series images with the first image. In addition, the control unit may be configured to execute the second detection in response to the second image specified by the specifying unit.

この構成によれば、第2の画像を特定すること、つまり第1の画像と実質的に同一の画像が取得されたタイミングを検出することができる。なお、時系列画像の撮影間隔(たとえば動画像のフレーム間隔)を小さく設定することにより、測定の確度がより高くなると考えられる。   According to this configuration, it is possible to specify the second image, that is, to detect the timing at which an image substantially the same as the first image is acquired. In addition, it is considered that the measurement accuracy is further improved by setting a time-series image capturing interval (for example, a frame interval of moving images) to be small.

実施形態に係る演算部は、第1の部位および第2の部位のそれぞれがコヒーレンスゲートに相当する場合に、第1の光路長と第2の光路長との間の差を、第1の部位と第2の部位との間の距離として算出するよう構成されていてよい。   When the first part and the second part each correspond to a coherence gate, the calculation unit according to the embodiment calculates the difference between the first optical path length and the second optical path length as the first part. It may be configured to calculate the distance between the first part and the second part.

一方、実施形態に係る演算部は、第1の部位および第2の部位の少なくとも一方がコヒーレンスゲートから離れた位置に相当する場合に、次の処理を実行するよう構成されていてよい:第1の光路長と第2の光路長との間の差を算出する;コヒーレンスゲートから離れた位置(第1の部位の位置、第2の部位の位置)とコヒーレンスゲートとの間の変位を算出する;上記の差および上記の変位に基づいて、第1の部位と第2の部位との間の距離を算出する。   On the other hand, the calculation unit according to the embodiment may be configured to execute the following process when at least one of the first part and the second part corresponds to a position away from the coherence gate: First The difference between the optical path length and the second optical path length is calculated; the displacement between the position away from the coherence gate (the position of the first part, the position of the second part) and the coherence gate is calculated. A distance between the first part and the second part is calculated based on the difference and the displacement.

このようなコヒーレンスゲートを参照して行われる処理によれば、第1の部位と第2の部位との間の距離を高い確度で求めることができる。   According to the processing performed with reference to such a coherence gate, the distance between the first part and the second part can be obtained with high accuracy.

実施形態に係る眼科装置は、光学系を移動する移動機構を有していてよい。この場合において次の構成を適用することが可能である:撮影部が、時系列画像を取得する;制御部が、この時系列画像として順次に取得される静止画像と第1の画像との間の変位を算出する;制御部が、算出された変位をキャンセルするように移動機構を制御する;制御部が、この移動制御を行いつつまたはこの移動制御の後に、光学系に第2の検出(OCT計測)を実行させる。   The ophthalmologic apparatus according to the embodiment may have a moving mechanism that moves the optical system. In this case, it is possible to apply the following configuration: the photographing unit acquires a time-series image; the control unit between the still image and the first image sequentially acquired as the time-series image. The control unit controls the moving mechanism so as to cancel the calculated displacement; while the control unit performs the movement control or after the movement control, a second detection ( OCT measurement) is executed.

この構成によれば、第1の検出(OCT計測)とともに行われた撮影にて取得された第1の画像と実質的に同一の第2の画像が得られるようにオートアライメント(オートトラッキング)を実行することが可能である。   According to this configuration, auto-alignment (auto-tracking) is performed so that a second image substantially identical to the first image acquired by imaging performed together with the first detection (OCT measurement) is obtained. It is possible to execute.

実施形態に係る制御部は、第1の部位をコヒーレンスゲートに配置させるための処理を、第1の検出による検出結果に基づいて実行することができる。これに加えて、またはこれに代えて、実施形態に係る制御部は、第2の部位をコヒーレンスゲートに配置させるための処理を、第2の検出による検出結果に基づいて実行することができる。このような処理は、上記の例におけるオートZに相当する。   The control part which concerns on embodiment can perform the process for arrange | positioning a 1st site | part to a coherence gate based on the detection result by 1st detection. In addition to or instead of this, the control unit according to the embodiment can execute a process for placing the second part on the coherence gate based on the detection result of the second detection. Such processing corresponds to auto Z in the above example.

この構成によれば、距離計測において参照される第1の部位および/または第2の部位をコヒーレンスゲートに配置させることができる。コヒーレンスゲートは干渉感度が最大となる位置であり、そこに描出される画像は高精細である。したがって、第1の部位および/または第2の部位の高精細な画像が得られる。それにより、距離計測の確度のさらなる向上を図ることができる。なお、第1の部位および/または第2の部位をコヒーレンスゲートに完全に一致させなくても、その近傍に第1および/または第2の部位を配置させることにより、当該機能(オートZ)を有しない場合と比較して確度の向上が図られる。   According to this structure, the 1st site | part and / or 2nd site | part referred in distance measurement can be arrange | positioned to a coherence gate. The coherence gate is the position where the interference sensitivity is maximized, and the image drawn there has a high definition. Therefore, a high-definition image of the first part and / or the second part can be obtained. Thereby, the further improvement of the accuracy of distance measurement can be aimed at. Even if the first part and / or the second part do not completely coincide with the coherence gate, the function (auto Z) can be performed by arranging the first and / or second part in the vicinity thereof. The accuracy is improved as compared with the case of not having it.

〈第2の実施形態〉
第1の実施形態では、光学系について第1の光路長が設定されている場合および第2の光路長が設定されている場合の双方において実質的に同一の撮影画像が得られるよう制御を行うことにより、被検眼の第1の部位(たとえば角膜頂点)と第2の部位(たとえば眼底中心)との間の距離(たとえば眼軸長)を求める構成について説明した。
<Second Embodiment>
In the first embodiment, control is performed so that substantially the same captured image is obtained both when the first optical path length is set for the optical system and when the second optical path length is set. Thus, the configuration for obtaining the distance (for example, the axial length) between the first part (for example, the corneal apex) and the second part (for example, the fundus center) of the eye to be examined has been described.

これに対し、第2の実施形態では、実質的に同一の撮影画像を取得するための制御を行うことなく、第1の光路長が設定されている状態で第1の撮影および第1の検出を実行し、さらに、第2の光路長が設定されている状態で第2の撮影および第2の検出を実行した後に、被検眼の第1の部位と第2の部位との間の距離を求める。この実施形態における距離の算出処理では、第1の光路長および第2の光路長に加えて、第1および第2の撮影により取得された第1および第2の画像も参照される。   On the other hand, in the second embodiment, the first photographing and the first detection are performed in a state where the first optical path length is set without performing control for acquiring substantially the same photographed image. Further, after executing the second imaging and the second detection in a state where the second optical path length is set, the distance between the first part and the second part of the eye to be examined is determined. Ask. In the distance calculation processing in this embodiment, in addition to the first optical path length and the second optical path length, the first and second images acquired by the first and second imaging are also referred to.

[構成]
この実施形態に係る眼科装置は、第1の実施形態と同様のハードウェア構成を有する(図1、図2、図4A、図4Bを参照)。また、この実施形態の眼科装置では、実質的に同一の撮影画像を取得するための制御を実行する必要がないため、当該制御のための構成を備えていなくてよい。この実施形態に係る眼科装置の制御系の構成例を図9に示す。この構成は、第1の実施形態の図3に示す構成要素のうち画像特定部233を除く構成要素を含んでいる。
[Constitution]
The ophthalmologic apparatus according to this embodiment has the same hardware configuration as that of the first embodiment (see FIGS. 1, 2, 4A, and 4B). In addition, since the ophthalmologic apparatus of this embodiment does not need to execute control for acquiring substantially the same captured image, the configuration for the control may not be provided. A configuration example of a control system of the ophthalmologic apparatus according to this embodiment is shown in FIG. This configuration includes components excluding the image specifying unit 233 among the components shown in FIG. 3 of the first embodiment.

[動作]
この実施形態に係る眼科装置の動作について説明する。眼科装置の動作の例を図10に示す。なお、第1の実施形態で説明したオートZおよび/またはオートアライメント(オートトラッキング)を適用することが可能である。また、患者登録や検査条件の設定は既に行われたものとする。
[Operation]
The operation of the ophthalmologic apparatus according to this embodiment will be described. An example of the operation of the ophthalmologic apparatus is shown in FIG. Note that the auto Z and / or auto alignment (auto tracking) described in the first embodiment can be applied. In addition, it is assumed that patient registration and setting of examination conditions have already been performed.

(S51:アライメント)
このステップは、たとえば、第1の実施形態の動作例1のステップS2と同様にして実行される。
(S51: Alignment)
This step is executed, for example, in the same manner as Step S2 of Operation Example 1 of the first embodiment.

(S52a:前眼部の撮影)
ステップS52aでは、前眼部カメラ300Aおよび300Bを用いた前眼部Eaの撮影が行われる。取得される撮影画像は静止画像でも時系列画像(動画像等)でもよい。
(S52a: Anterior segment imaging)
In step S52a, the anterior segment Ea is photographed using the anterior segment cameras 300A and 300B. The acquired captured image may be a still image or a time-series image (moving image or the like).

なお、ステップS52aとステップS52bの順序は任意である。また、これらステップを並行して行ってもよい。たとえば、第1の実施形態と同様に、ステップS51のアライメントの前に前眼部Eaの時系列画像の取得を開始し、アライメントの後に、前眼部撮影を行いつつステップS52bのOCT計測を行うように構成することが可能である。なお、ステップS52aとステップS52bとの間のタイミングの差は、眼球運動の影響を受けない程度に小さいことが望ましい。たとえば、このタイミングの差はゼロ(つまり、これらステップを同時に行う)であってよい。   Note that the order of step S52a and step S52b is arbitrary. These steps may be performed in parallel. For example, as in the first embodiment, acquisition of a time-series image of the anterior segment Ea is started before alignment in step S51, and OCT measurement in step S52b is performed while performing anterior segment imaging after alignment. It can be configured as follows. The difference in timing between step S52a and step S52b is desirably small enough not to be affected by eye movement. For example, this timing difference may be zero (ie, these steps are performed simultaneously).

(S52b:角膜のOCT計測)
このステップは、たとえば、第1の実施形態の動作例1のステップS3と同様にして実行される。
(S52b: OCT measurement of cornea)
This step is executed, for example, in the same manner as step S3 of the operation example 1 of the first embodiment.

(S53:前眼部像およびOCTデータの記憶)
このステップは、たとえば、第1の実施形態の動作例1のステップS4と同様にして実行される。
(S53: Storage of anterior segment image and OCT data)
This step is executed, for example, in the same manner as step S4 of the operation example 1 of the first embodiment.

(S54:光路長の変更)
このステップは、たとえば、第1の実施形態の動作例1のステップS5と同様にして実行される。
(S54: Change of optical path length)
This step is executed, for example, in the same manner as Step S5 of Operation Example 1 of the first embodiment.

(S55a:前眼部の撮影)
このステップは、たとえば、ステップS52aと同様にして実行される。
(S55a: Anterior segment imaging)
This step is executed in the same manner as step S52a, for example.

(S55b:眼底のOCT計測)
このステップは、たとえば、第1の実施形態の動作例1のステップS7と同様にして実行される。
(S55b: OCT measurement of the fundus)
This step is executed, for example, in the same manner as step S7 of the operation example 1 of the first embodiment.

(S56:前眼部像およびOCTデータの記憶)
このステップは、たとえば、第1の実施形態の動作例1のステップS4と同様にして実行される。
(S56: Storage of anterior segment image and OCT data)
This step is executed, for example, in the same manner as step S4 of the operation example 1 of the first embodiment.

(S57:眼内距離の算出)
制御部210は、ステップS53において記憶された前眼部像およびOCTデータと、ステップS56において記憶された前眼部像およびOCTデータとに基づいて、眼内距離(眼軸長)を算出する。
(S57: Calculation of intraocular distance)
The controller 210 calculates the intraocular distance (ocular length) based on the anterior segment image and OCT data stored in step S53 and the anterior segment image and OCT data stored in step S56.

眼内距離に相当する線分の端部(眼軸長の場合には角膜頂点と眼底中心)のそれぞれがコヒーレンスゲートに相当するフレーム中の位置に存在する場合、距離演算部234は、たとえば、次の処理を実行する:(1)ステップS53において記憶された前眼部像(第1の画像)とステップS56において記憶された前眼部像(第2の画像)との間の変位を算出する;(2)ステップS53において記憶されたOCTデータに含まれる測定光路長(第1の光路長)とステップS56において記憶されたOCTデータに含まれる測定光路長(第2の光路長)との差を算出する;(3)(1)において算出された変位と(2)において算出された差とに基づいて、目的の眼内距離を算出する。   When each of the end portions of the line segment corresponding to the intraocular distance (the corneal apex and the fundus center in the case of the axial length) exists at a position in the frame corresponding to the coherence gate, the distance calculation unit 234, for example, The following processing is executed: (1) The displacement between the anterior segment image (first image) stored in step S53 and the anterior segment image (second image) stored in step S56 is calculated. (2) The measurement optical path length (first optical path length) included in the OCT data stored in step S53 and the measurement optical path length (second optical path length) included in the OCT data stored in step S56. A difference is calculated; (3) A target intraocular distance is calculated based on the displacement calculated in (1) and the difference calculated in (2).

コヒーレンスゲートに相当する位置に上記線分の端部が存在するか否かの判定は、たとえば、第1の実施形態と同様にして実行される。   The determination as to whether or not the end of the line segment exists at a position corresponding to the coherence gate is performed, for example, in the same manner as in the first embodiment.

(1)の画像処理は、たとえば第1の実施形態の画像特定部233が実行する比較処理と同様であってよい。この画像処理では、たとえば、画像相関、特徴点抽出、画像差分、アフィン変換などのいずれかを用いて、2つの前眼部像の間の変位が求められる。この画像処理で得られる変位は、z方向に直交する方向(xy方向)の変位を少なくとも含み、z方向の変位を含んでいてもよい。   The image processing (1) may be the same as the comparison processing executed by the image specifying unit 233 of the first embodiment, for example. In this image processing, for example, displacement between two anterior segment images is obtained using any one of image correlation, feature point extraction, image difference, affine transformation, and the like. The displacement obtained by this image processing includes at least a displacement in a direction orthogonal to the z direction (xy direction), and may include a displacement in the z direction.

(2)の演算処理は、たとえば、第1の実施形態の距離演算部234が実行する処理と同様であってよい。この演算処理で得られる差は、被検眼Eの2つの部位に関するz方向の変位に相当する。   The calculation process of (2) may be the same as the process executed by the distance calculation unit 234 of the first embodiment, for example. The difference obtained by this calculation process corresponds to the displacement in the z direction with respect to the two parts of the eye E to be examined.

(3)の演算処理は、(1)の画像処理で得られたxy方向の変位と、(2)の演算処理で得られたz方向の変位(差)とを、たとえば三平方の定理などを用いて合成する処理を含む。これにより、被検眼Eの2つの部位の3次元的な変位に相当する眼内距離が取得される。なお、(1)の画像処理でz方向の変位も求められる場合、このz方向の変位も加えて合成処理が実行される。   The calculation process of (3) is performed by, for example, the three-square theorem using the displacement in the xy direction obtained by the image process of (1) and the displacement (difference) in the z direction obtained by the calculation process of (2). This includes processing to synthesize using. Thereby, the intraocular distance corresponding to the three-dimensional displacement of the two parts of the eye E is acquired. In addition, when the displacement in the z direction is also obtained in the image processing of (1), the composition processing is executed by adding the displacement in the z direction.

眼内距離に相当する線分の端部(眼軸長の場合には角膜頂点と眼底中心)の一方または双方がコヒーレンスゲートに相当するフレーム中の位置に存在しない場合、距離演算部234は、たとえば、次の処理を実行する:(1)ステップS53において記憶された前眼部像(第1の画像)とステップS56において記憶された前眼部像(第2の画像)との間の変位(第1の変位)を算出する;(2)コヒーレンスゲートから離れた位置に存在する被検眼Eの部位(上記端部に相当する部位)のそれぞれについて、この部位の位置とコヒーレンスゲートとの間の変位(第2の変位)を算出する;(3)ステップS53において記憶されたOCTデータに含まれる測定光路長(第1の光路長)とステップS56において記憶されたOCTデータに含まれる測定光路長(第2の光路長)との差を算出する;(4)(1)において算出された第1の変位と、(2)において算出された第2の変位と、(3)において算出された差とに基づいて、目的の眼内距離を算出する。   When one or both of the end portions of the line segment corresponding to the intraocular distance (the corneal vertex and the fundus center in the case of the axial length) do not exist at the position in the frame corresponding to the coherence gate, the distance calculation unit 234 For example, the following processing is executed: (1) Displacement between the anterior ocular segment image (first image) stored in step S53 and the anterior ocular segment image (second image) stored in step S56 (First displacement) is calculated; (2) for each part of the eye E (part corresponding to the above-mentioned end) existing at a position away from the coherence gate, between the position of this part and the coherence gate (3) the measurement optical path length (first optical path length) included in the OCT data stored in step S53 and the OCT data stored in step S56. The difference between the measured optical path length (second optical path length) to be measured; (4) the first displacement calculated in (1), the second displacement calculated in (2), and (3) The target intraocular distance is calculated based on the difference calculated in step (1).

(1)の画像処理および(3)の演算処理は、双方の部位がコヒーレンスゲートに相当する位置に存在する場合と同様であってよい。なお、(1)の画像処理により得られる第1の変位は、z方向に直交する方向(xy方向)の変位を少なくとも含み、z方向の変位を含んでいてもよい。また、(3)の演算処理により得られる差は、被検眼Eの2つの部位に関するz方向における変位に相当する。   The image processing of (1) and the calculation processing of (3) may be the same as the case where both parts exist at a position corresponding to the coherence gate. Note that the first displacement obtained by the image processing of (1) includes at least a displacement in a direction (xy direction) orthogonal to the z direction, and may include a displacement in the z direction. Further, the difference obtained by the calculation process of (3) corresponds to the displacement in the z direction with respect to the two parts of the eye E.

(2)の演算処理は、たとえば、OCT画像を解析することにより被検眼Eの対象部位に相当する画素を特定する処理と、特定された画素とコヒーレンスゲートに相当する画素群との間の距離を算出する処理とを含む。この演算処理により得られる第2の変位は、z方向の変位である。   The calculation process of (2) includes, for example, a process of specifying a pixel corresponding to a target part of the eye E by analyzing an OCT image and a distance between the specified pixel and a pixel group corresponding to a coherence gate. The process of calculating. The second displacement obtained by this calculation process is a displacement in the z direction.

(4)の演算処理は、たとえば、(2)の演算処理で得られたz方向の変位(第2の変位)と(3)の演算処理で得られたz方向の変位(差)との和または差を算出する処理と、このz方向の和または差の値と、(1)の画像処理で得られたxy方向の変位(第1の変位)とを、たとえば三平方の定理などを用いて合成する処理とを含む。これにより、被検眼Eの2つの部位の3次元的な変位に相当する眼内距離が取得される。   The calculation process of (4) is, for example, the displacement in the z direction (second displacement) obtained by the calculation process of (2) and the displacement (difference) in the z direction obtained by the calculation process of (3). The process of calculating the sum or difference, the value of the sum or difference in the z direction, and the displacement in the xy direction (first displacement) obtained by the image processing in (1), for example, the square theorem And processing to synthesize. Thereby, the intraocular distance corresponding to the three-dimensional displacement of the two parts of the eye E is acquired.

この実施形態に係る眼科装置は、第1の実施形態と同様のオートアライメントおよび/またはオートZを実行可能であってよい。オートアライメントは、たとえば、ステップS53で記憶された前眼部像と実質的に同じ前眼部像が得られるように、ステップS55aの前に光学系を移動させることにより行われる。また、オートZは、たとえば、ステップS52aの前および/またはステップS55aの前に、被検眼Eの対象部位(たとえば角膜頂点、眼底中心など)をコヒーレンスゲートに配置させるように、測定光路と参照光路との間の光路長差を変更することにより行われる。   The ophthalmologic apparatus according to this embodiment may be able to execute the same auto alignment and / or auto Z as in the first embodiment. Auto-alignment is performed, for example, by moving the optical system before step S55a so that an anterior segment image substantially the same as the anterior segment image stored in step S53 is obtained. In addition, in the auto Z, for example, before the step S52a and / or before the step S55a, the measurement optical path and the reference optical path are arranged so that the target site of the eye E (for example, the apex of the cornea, the fundus center, etc.) is arranged on the coherence gate. By changing the optical path length difference between

[効果]
この実施形態に係る眼科装置の効果について説明する。
[effect]
The effect of the ophthalmologic apparatus according to this embodiment will be described.

実施形態に係る眼科装置は、撮影部と、光学系と、変更部と、制御部と、演算部(たとえば距離演算部234)とを有する。   The ophthalmologic apparatus according to the embodiment includes an imaging unit, an optical system, a changing unit, a control unit, and a calculation unit (for example, a distance calculation unit 234).

撮影部(たとえば前眼部カメラ300Aおよび300B)は、2以上の異なる方向から被検眼を撮影する。光学系(たとえば図1および図2に示す光学系)は、光源(たとえば光源ユニット101)からの光を測定光と参照光とに分割し、被検眼からの測定光の戻り光と参照光との干渉光を検出する。変更部(たとえば光路長変更部41)は、測定光の光路長を変更する。なお、変更部は、参照光の光路長を変更する機能を有していてよい。また、変更部は、測定光の光路長と参照光の光路長の双方を変更可能に構成されてもよい。   The imaging unit (for example, the anterior eye cameras 300A and 300B) images the eye to be examined from two or more different directions. The optical system (for example, the optical system shown in FIGS. 1 and 2) divides the light from the light source (for example, the light source unit 101) into measurement light and reference light, and returns the measurement light from the eye to be examined and the reference light. Interference light is detected. The changing unit (for example, the optical path length changing unit 41) changes the optical path length of the measurement light. Note that the changing unit may have a function of changing the optical path length of the reference light. The changing unit may be configured to be able to change both the optical path length of the measurement light and the optical path length of the reference light.

制御部(たとえば制御部210(およびデータ処理部230))は、変更部により第1の光路長が設定されているときに、撮影部による第1の撮影と、光学系による第1の検出とを実行させる。さらに、制御部は、変更部により第2の光路長が設定されているときに、撮影部による第2の撮影と、光学系による第2の検出とを実行させる。   When the first optical path length is set by the changing unit, the control unit (for example, the control unit 210 (and the data processing unit 230)) performs first imaging by the imaging unit and first detection by the optical system. Is executed. Furthermore, the control unit causes the second imaging by the imaging unit and the second detection by the optical system to be executed when the second optical path length is set by the changing unit.

演算部は、第1の撮影により取得された第1の画像と、第2の撮影により取得された第2の画像と、第1の光路長と、第2の光路長とに基づいて、被検眼の第1の部位と第2の部位との間の距離を求める。第1の部位および第2の部位は、それぞれ、第1の検出および第2の検出において測定光が通過した範囲(スキャン範囲)に含まれる。   The computing unit is configured to detect the first image acquired by the first imaging, the second image acquired by the second imaging, the first optical path length, and the second optical path length. A distance between the first part and the second part of the optometry is obtained. The first part and the second part are included in a range (scan range) through which the measurement light passes in the first detection and the second detection, respectively.

このような実施形態によれば、2つの参照光路を形成するための光学的構成を設けずとも眼内距離の計測が可能である。また、実施形態に係る眼科装置によれば、第1の検出と第2の検出との間に被検眼の位置や向きが変化したとしても、第1の検出とともに行われる第1の撮影による画像(第1の画像)と第2の検出とともに行われる第2の撮影による画像(第2の画像)とに基づいて被検眼の変位を検出することができる。そして、この眼科装置は、検出された変位を考慮して眼内距離を求めることができる。このような構成により、被検眼の位置等のずれにより眼内距離の測定確度が低下するという不利益が解消される。したがって、実施形態に係る眼科装置によれば、装置の大型化や複雑化を伴うことなく高い確度で眼内距離を測定することができる。   According to such an embodiment, it is possible to measure the intraocular distance without providing an optical configuration for forming two reference optical paths. Moreover, according to the ophthalmologic apparatus which concerns on embodiment, even if the position and direction of a to-be-tested eye change between 1st detection and 2nd detection, the image by the 1st imaging | photography performed with 1st detection The displacement of the eye to be examined can be detected based on the (first image) and the image (second image) obtained by the second imaging performed together with the second detection. The ophthalmologic apparatus can determine the intraocular distance in consideration of the detected displacement. With such a configuration, the disadvantage that the measurement accuracy of the intraocular distance is reduced due to the shift of the position of the eye to be examined is solved. Therefore, according to the ophthalmologic apparatus according to the embodiment, the intraocular distance can be measured with high accuracy without increasing the size and complexity of the apparatus.

実施形態に係る演算部は、第1の部位および第2の部位のそれぞれがコヒーレンスゲートに相当する場合に、次の処理を実行するよう構成されていてよい:第1の画像と第2の画像との間の変位を算出する;第1の光路長と第2の光路長との差を算出する;上記変位および上記差に基づいて、第1の部位と第2の部位との間の距離を算出するよう構成されていてよい。   The calculation unit according to the embodiment may be configured to perform the following processing when each of the first part and the second part corresponds to a coherence gate: the first image and the second image A difference between the first optical path length and the second optical path length is calculated; based on the displacement and the difference, a distance between the first part and the second part May be configured to calculate.

一方、実施形態に係る演算部は、第1の部位および第2の部位の少なくとも一方がコヒーレンスゲートから離れた位置に相当する場合に、次の処理を実行するよう構成されていてよい:第1の画像と第2の画像との間の第1の変位を算出する;コヒーレンスゲートから離れた位置(第1の部位の位置、第2の部位の位置)とコヒーレンスゲートとの間の第2の変位を算出する;第1の光路長と第2の光路長との差を算出する;第1の変位、第2の変位および上記差に基づいて、第1の部位と第2の部位との間の距離を算出する。   On the other hand, the calculation unit according to the embodiment may be configured to execute the following process when at least one of the first part and the second part corresponds to a position away from the coherence gate: First A first displacement between the second image and the second image; a second distance between the coherence gate and a position away from the coherence gate (position of the first part, position of the second part) Calculating a displacement; calculating a difference between the first optical path length and the second optical path length; based on the first displacement, the second displacement, and the difference, the first portion and the second portion; Calculate the distance between them.

このようなコヒーレンスゲートを参照して行われる処理によれば、第1の部位と第2の部位との間の距離を高い確度で求めることができる。   According to the processing performed with reference to such a coherence gate, the distance between the first part and the second part can be obtained with high accuracy.

実施形態に係る眼科装置は、光学系を移動する移動機構を有していてよい。この場合において次の構成を適用することが可能である:撮影部が、時系列画像を取得する;制御部が、この時系列画像として順次に取得される静止画像と第1の画像との間の変位を算出する;制御部が、算出された変位をキャンセルするように移動機構を制御する;制御部が、この移動制御を行いつつまたはこの移動制御の後に、光学系に第2の検出(OCT計測)を実行させる。   The ophthalmologic apparatus according to the embodiment may have a moving mechanism that moves the optical system. In this case, it is possible to apply the following configuration: the photographing unit acquires a time-series image; the control unit between the still image and the first image sequentially acquired as the time-series image. The control unit controls the moving mechanism so as to cancel the calculated displacement; while the control unit performs the movement control or after the movement control, a second detection ( OCT measurement) is executed.

この構成によれば、第1の検出(OCT計測)とともに行われた撮影にて取得された第1の画像と実質的に同一の第2の画像が得られるようにオートアライメント(オートトラッキング)を実行することが可能である。   According to this configuration, auto-alignment (auto-tracking) is performed so that a second image substantially identical to the first image acquired by imaging performed together with the first detection (OCT measurement) is obtained. It is possible to execute.

実施形態に係る制御部は、第1の部位をコヒーレンスゲートに配置させるための処理を、第1の検出による検出結果に基づいて実行することができる。これに加えて、またはこれに代えて、実施形態に係る制御部は、第2の部位をコヒーレンスゲートに配置させるための処理を、第2の検出による検出結果に基づいて実行することができる。このような処理は、上記の例におけるオートZに相当する。   The control part which concerns on embodiment can perform the process for arrange | positioning a 1st site | part to a coherence gate based on the detection result by 1st detection. In addition to or instead of this, the control unit according to the embodiment can execute a process for placing the second part on the coherence gate based on the detection result of the second detection. Such processing corresponds to auto Z in the above example.

この構成によれば、第1の部位および/または第2の部位の高精細な画像が得られる。それにより、距離計測の確度のさらなる向上を図ることができる。なお、第1の部位および/または第2の部位をコヒーレンスゲートに完全に一致させなくても、その近傍に第1および/または第2の部位を配置させることにより、当該機能(オートZ)を有しない場合と比較して確度の向上が図られる。   According to this configuration, a high-definition image of the first part and / or the second part can be obtained. Thereby, the further improvement of the accuracy of distance measurement can be aimed at. Even if the first part and / or the second part do not completely coincide with the coherence gate, the function (auto Z) can be performed by arranging the first and / or second part in the vicinity thereof. The accuracy is improved as compared with the case of not having it.

〈変形例〉
以上に説明した実施形態は一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を施すことが可能である。
<Modification>
The embodiment described above is only an example. A person who intends to implement the present invention can make arbitrary modifications (omission, replacement, addition, etc.) within the scope of the present invention.

上記の実施形態においては、光路長変更部41の位置を変更することにより、測定光路長を変更するように構成されているが、参照光路長を変更可能であってもよい。参照光路長を変更するための構成は、たとえば、参照光の光路に配置された反射ミラー(参照ミラー)と、この参照ミラーを参照光の進行方向に移動させる駆動機構とを含む。   In the above embodiment, the measurement optical path length is changed by changing the position of the optical path length changing unit 41, but the reference optical path length may be changeable. The configuration for changing the reference optical path length includes, for example, a reflection mirror (reference mirror) disposed in the optical path of the reference light, and a drive mechanism that moves the reference mirror in the traveling direction of the reference light.

実施形態において説明された技術を眼科以外の医療分野や医療以外の分野に適用することが可能である。実施形態に係る技術は、対象物が動き(移動、変形など)を伴う場合に特に有効である。たとえば、心臓や消化器の計測、動物の組織の計測などに当該技術を適用することができる。   The technology described in the embodiment can be applied to a medical field other than ophthalmology or a field other than medical care. The technology according to the embodiment is particularly effective when the object is accompanied by movement (movement, deformation, etc.). For example, the technique can be applied to measurement of the heart and digestive organs, measurement of animal tissues, and the like.

上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。   A computer program for realizing the above embodiment can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.

1 眼科装置
2 眼底カメラユニット
2A 光学系駆動部
100 OCTユニット
200 演算制御ユニット
210 制御部
220 画像形成部
230 データ処理部
231 解析部
232 画像判定部
233 画像特定部
234 距離演算部
241 表示部
242 操作部
300、300A、300B 前眼部カメラ
E 被検眼
Ea 前眼部
Ef 眼底
DESCRIPTION OF SYMBOLS 1 Ophthalmology apparatus 2 Fundus camera unit 2A Optical system drive part 100 OCT unit 200 Operation control unit 210 Control part 220 Image formation part 230 Data processing part 231 Analysis part 232 Image determination part 233 Image specification part 234 Distance calculation part 241 Display part 242 Operation Part 300, 300A, 300B anterior eye camera E eye Ea anterior eye part Ef fundus

Claims (4)

2以上の異なる方向から被検眼を撮影する撮影部と、
光源からの光を測定光と参照光とに分割し、被検眼からの測定光の戻り光と参照光との干渉光を検出する光学系と、
測定光および/または参照光の光路長を変更する変更部と、
前記変更部により第1の光路長が設定されているときに前記撮影部による第1の撮影と前記光学系による第1の検出とを実行させ、さらに、第2の光路長が設定されているときに前記撮影部による第2の撮影と前記光学系による第2の検出とを実行させる制御部と、
前記第1の撮影により取得された第1の画像と、前記第2の撮影により取得された第2の画像と、前記第1の光路長と、前記第2の光路長とに基づいて、前記第1の検出において測定光が通過した被検眼の第1の部位と、前記第2の検出において測定光が通過した第2の部位との間の距離を求める演算部と
を有し、
前記第1の部位および前記第2の部位のそれぞれがコヒーレンスゲートに相当する場合、前記演算部は、
前記第1の画像と前記第2の画像との間の変位を算出し、
前記第1の光路長と前記第2の光路長との差を算出し、
前記変位および前記差に基づいて前記距離を算出する
ことを特徴とする眼科装置。
An imaging unit for imaging the eye to be examined from two or more different directions;
An optical system that divides light from the light source into measurement light and reference light, and detects interference light between the return light of the measurement light from the eye to be examined and the reference light;
A changing unit for changing the optical path length of the measurement light and / or the reference light;
When the first optical path length is set by the changing unit, the first imaging by the imaging unit and the first detection by the optical system are executed, and further the second optical path length is set. A control unit that sometimes performs second imaging by the imaging unit and second detection by the optical system;
Based on the first image acquired by the first imaging, the second image acquired by the second imaging, the first optical path length, and the second optical path length, the A calculation unit that obtains a distance between the first part of the eye to be examined through which the measurement light has passed in the first detection and the second part through which the measurement light has passed in the second detection;
When each of the first part and the second part corresponds to a coherence gate, the arithmetic unit is
Calculating a displacement between the first image and the second image;
Calculating the difference between the first optical path length and the second optical path length;
The ophthalmologic apparatus, wherein the distance is calculated based on the displacement and the difference.
2以上の異なる方向から被検眼を撮影する撮影部と、
光源からの光を測定光と参照光とに分割し、被検眼からの測定光の戻り光と参照光との干渉光を検出する光学系と、
測定光および/または参照光の光路長を変更する変更部と、
前記変更部により第1の光路長が設定されているときに前記撮影部による第1の撮影と前記光学系による第1の検出とを実行させ、さらに、第2の光路長が設定されているときに前記撮影部による第2の撮影と前記光学系による第2の検出とを実行させる制御部と、
前記第1の撮影により取得された第1の画像と、前記第2の撮影により取得された第2の画像と、前記第1の光路長と、前記第2の光路長とに基づいて、前記第1の検出において測定光が通過した被検眼の第1の部位と、前記第2の検出において測定光が通過した第2の部位との間の距離を求める演算部と
を有し、
前記第1の部位および前記第2の部位の少なくとも一方がコヒーレンスゲートから離れた位置に相当する場合、前記演算部は、
前記第1の画像と前記第2の画像との間の第1の変位を算出し、
コヒーレンスゲートから離れた前記位置とコヒーレンスゲートとの間の第2の変位を算出し、
前記第1の光路長と前記第2の光路長との差を算出し、
前記第1の変位、前記第2の変位および前記差に基づいて前記距離を算出する
ことを特徴とする眼科装置。
An imaging unit for imaging the eye to be examined from two or more different directions;
An optical system that divides light from the light source into measurement light and reference light, and detects interference light between the return light of the measurement light from the eye to be examined and the reference light;
A changing unit for changing the optical path length of the measurement light and / or the reference light;
When the first optical path length is set by the changing unit, the first imaging by the imaging unit and the first detection by the optical system are executed, and further the second optical path length is set. A control unit that sometimes performs second imaging by the imaging unit and second detection by the optical system;
Based on the first image acquired by the first imaging, the second image acquired by the second imaging, the first optical path length, and the second optical path length, the A calculation unit that obtains a distance between the first part of the eye to be examined through which the measurement light has passed in the first detection and the second part through which the measurement light has passed in the second detection;
When at least one of the first part and the second part corresponds to a position away from the coherence gate, the arithmetic unit is
Calculating a first displacement between the first image and the second image;
Calculating a second displacement between the position away from the coherence gate and the coherence gate;
Calculating the difference between the first optical path length and the second optical path length;
The ophthalmic apparatus characterized in that the distance is calculated based on the first displacement, the second displacement, and the difference.
前記光学系を移動する移動機構を有し、
前記撮影部は時系列画像を取得可能であり、
前記制御部は、
前記時系列画像として順次に取得される静止画像と前記第1の画像との間の変位を算出し、
算出された前記変位をキャンセルするように前記移動機構を制御し、
当該制御を行いつつまたは当該制御の後に、前記光学系に前記第2の検出を実行させる
ことを特徴とする請求項1または請求項2に記載の眼科装置。
A moving mechanism for moving the optical system;
The photographing unit can acquire a time-series image,
The controller is
Calculating a displacement between the still image sequentially acquired as the time-series image and the first image;
Controlling the moving mechanism to cancel the calculated displacement;
The ophthalmologic apparatus according to claim 1, wherein the second detection is performed by the optical system while performing the control or after the control.
前記制御部は、前記第1の検出による検出結果に基づいて前記第1の部位をコヒーレンスゲートに配置させるための処理、および、前記第2の検出による検出結果に基づいて前記第2の部位をコヒーレンスゲートに配置させるための処理のうち、一方または双方の処理を実行する
ことを特徴とする請求項1〜請求項3のいずれか一項に記載の眼科装置。
The controller is configured to place the first part on a coherence gate based on the detection result of the first detection, and to change the second part based on the detection result of the second detection. The ophthalmologic apparatus according to any one of claims 1 to 3, wherein one or both of the processes for arranging the coherence gates is performed.
JP2018003477A 2018-01-12 2018-01-12 Ophthalmologic apparatus Pending JP2018051391A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018003477A JP2018051391A (en) 2018-01-12 2018-01-12 Ophthalmologic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003477A JP2018051391A (en) 2018-01-12 2018-01-12 Ophthalmologic apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014013143A Division JP6367563B2 (en) 2014-01-28 2014-01-28 Ophthalmic equipment

Publications (1)

Publication Number Publication Date
JP2018051391A true JP2018051391A (en) 2018-04-05

Family

ID=61833689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003477A Pending JP2018051391A (en) 2018-01-12 2018-01-12 Ophthalmologic apparatus

Country Status (1)

Country Link
JP (1) JP2018051391A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019203216A1 (en) 2018-03-19 2019-09-19 Koito Manufacturing Co., Ltd. vehicle light
JP2020039848A (en) * 2018-09-07 2020-03-19 株式会社トプコン Ophthalmologic apparatus
JP2020130266A (en) * 2019-02-14 2020-08-31 株式会社トプコン Ophthalmologic apparatus
US11878757B2 (en) 2018-06-05 2024-01-23 Indian Motorcycle International, LLC Adaptive lighting system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252693A (en) * 2006-03-24 2007-10-04 Topcon Corp Eyeground observation apparatus
JP2008188047A (en) * 2007-01-31 2008-08-21 Nidek Co Ltd Ocular axial length measuring apparatus
JP2012075640A (en) * 2010-09-30 2012-04-19 Nidek Co Ltd Ophthalmologic observation system
JP2012075641A (en) * 2010-09-30 2012-04-19 Nidek Co Ltd Ophthalmologic photographing apparatus
JP2013248376A (en) * 2012-05-01 2013-12-12 Topcon Corp Ophthalmic apparatus
JP2018003476A (en) * 2016-07-04 2018-01-11 環境工学株式会社 Civil engineering block and civil engineering structure using the same and civil engineering structure building method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252693A (en) * 2006-03-24 2007-10-04 Topcon Corp Eyeground observation apparatus
JP2008188047A (en) * 2007-01-31 2008-08-21 Nidek Co Ltd Ocular axial length measuring apparatus
JP2012075640A (en) * 2010-09-30 2012-04-19 Nidek Co Ltd Ophthalmologic observation system
JP2012075641A (en) * 2010-09-30 2012-04-19 Nidek Co Ltd Ophthalmologic photographing apparatus
JP2013248376A (en) * 2012-05-01 2013-12-12 Topcon Corp Ophthalmic apparatus
JP2018003476A (en) * 2016-07-04 2018-01-11 環境工学株式会社 Civil engineering block and civil engineering structure using the same and civil engineering structure building method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019203216A1 (en) 2018-03-19 2019-09-19 Koito Manufacturing Co., Ltd. vehicle light
US11878757B2 (en) 2018-06-05 2024-01-23 Indian Motorcycle International, LLC Adaptive lighting system
US11981387B2 (en) 2018-06-05 2024-05-14 Indian Motorcycle International, LLC Adaptive lighting system
JP2020039848A (en) * 2018-09-07 2020-03-19 株式会社トプコン Ophthalmologic apparatus
JP2023024700A (en) * 2018-09-07 2023-02-16 株式会社トプコン Ophthalmologic apparatus
JP7265897B2 (en) 2018-09-07 2023-04-27 株式会社トプコン ophthalmic equipment
JP7391178B2 (en) 2018-09-07 2023-12-04 株式会社トプコン ophthalmology equipment
JP2020130266A (en) * 2019-02-14 2020-08-31 株式会社トプコン Ophthalmologic apparatus

Similar Documents

Publication Publication Date Title
JP6367563B2 (en) Ophthalmic equipment
JP6321430B2 (en) Ophthalmic equipment
JP6865788B2 (en) Ophthalmic equipment
JP5989523B2 (en) Ophthalmic equipment
JP6009935B2 (en) Ophthalmic equipment
JP6412707B2 (en) Ophthalmic equipment
JP6566541B2 (en) Ophthalmic equipment
JP6498398B2 (en) Ophthalmic equipment
JP6215413B2 (en) Ophthalmic equipment
JP6388440B2 (en) Ophthalmic equipment
JP2014087581A (en) Ophthalmological observation device
JP2018051391A (en) Ophthalmologic apparatus
JP6407631B2 (en) Ophthalmic equipment
JP6279682B2 (en) Ophthalmic observation device
JP2018051390A (en) Ophthalmologic apparatus
JP2018051340A (en) Ophthalmologic apparatus
JP6310589B2 (en) Ophthalmic equipment
JP2019130046A (en) Ophthalmologic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191008