JP7288110B2 - ophthalmic equipment - Google Patents

ophthalmic equipment Download PDF

Info

Publication number
JP7288110B2
JP7288110B2 JP2022034918A JP2022034918A JP7288110B2 JP 7288110 B2 JP7288110 B2 JP 7288110B2 JP 2022034918 A JP2022034918 A JP 2022034918A JP 2022034918 A JP2022034918 A JP 2022034918A JP 7288110 B2 JP7288110 B2 JP 7288110B2
Authority
JP
Japan
Prior art keywords
image
eye
oct
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022034918A
Other languages
Japanese (ja)
Other versions
JP2022075771A (en
Inventor
僚一 廣瀬
学 境原
達夫 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018062714A external-priority patent/JP7117873B2/en
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2022034918A priority Critical patent/JP7288110B2/en
Publication of JP2022075771A publication Critical patent/JP2022075771A/en
Application granted granted Critical
Publication of JP7288110B2 publication Critical patent/JP7288110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は眼科装置に関する。 The present invention relates to ophthalmic equipment.

眼科診療では、被検眼の画像を得るための装置(眼科撮影装置)や、被検眼の特性を測定するための装置(眼科測定装置)が用いられている。 2. Description of the Related Art In ophthalmology, an apparatus for obtaining an image of an eye to be examined (ophthalmic imaging apparatus) and an apparatus for measuring characteristics of an eye to be examined (ophthalmic measurement apparatus) are used.

眼科撮影装置の例として、光コヒーレンストモグラフィ(Optical Coherence Tomography、OCT)を利用してデータを得る光干渉断層計、眼底を写真撮影する眼底カメラ、共焦点光学系を用いたレーザー走査により眼底像を得る走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope、SLO)などがある。 Examples of ophthalmologic imaging equipment include optical coherence tomography (OCT) for obtaining data, a fundus camera for photographing the fundus, and a laser scanning system for obtaining a fundus image using a confocal optical system. There is a scanning laser ophthalmoscope (SLO) that obtains .

眼科測定装置の例として、被検眼の屈折特性を測定する眼屈折検査装置(レフラクトメータ)、ハルトマン-シャックセンサを用いて被検眼の収差データを得るウェーブフロントアナライザ、角膜頂点と網膜中心窩との間の距離(眼軸長)を測定する眼軸長測定装置などがある。 Examples of ophthalmologic measurement devices include an eye refraction tester (refractometer) that measures the refractive characteristics of an eye to be examined, a wavefront analyzer that obtains aberration data of the eye using a Hartmann-Shack sensor, and a corneal vertex and retinal fovea. There is an axial length measuring device that measures the distance (axial length) between the two.

以上に例示した眼科装置は、被検眼の眼底に向けて光を投射し、その戻り光に基づいてデータを得るものである。したがって、例えば白内障眼のように中間透光体(水晶体、硝子体など)に混濁がある場合、投射光や戻り光がその影響を受け、撮影や測定を好適に行えないことがある。 The ophthalmologic apparatus exemplified above projects light toward the fundus of the subject's eye and obtains data based on the returned light. Therefore, when there is turbidity in the intermediate translucent body (lens, vitreous body, etc.), such as in a cataractous eye, the projected light and return light are affected by the turbidity, which may hinder suitable imaging and measurement.

中間透光体の混濁を把握するための方法として徹照法が知られている。徹照法は、眼底に照明光を投射し、その反射によって被検眼内部から照明された瞳孔領域を観察する手法である。これにより得られる徹照像には、混濁箇所が影として映し出される。撮影や測定にエラーが発生したときなどには、徹照像を参照して混濁箇所を避けるようにアライメントを調整すること、つまり被検眼に対する光の入射位置を調整すること、が行われている。 A transillumination method is known as a method for grasping the turbidity of an intermediate translucent body. The transillumination method is a method of projecting illumination light onto the fundus of the eye and observing the illuminated pupil region from the inside of the subject's eye by its reflection. In the resulting retroillumination image, the turbidity portion appears as a shadow. When an error occurs in photography or measurement, the transillumination image is referred to and the alignment is adjusted so as to avoid opaque areas. .

特開2013-146546号公報JP 2013-146546 A

この発明の目的は、眼底に光を投射して行う撮影又は測定に好適な領域を特定することにある。 An object of the present invention is to specify a region suitable for imaging or measurement by projecting light onto the fundus.

例示的な実施形態は、被検眼の眼底に光を投射し、その戻り光に基づき前記被検眼のデータを取得するデータ取得部と、前記被検眼の前眼部の3次元領域に光コヒーレンストモグラフィ(OCT)スキャンを適用してOCTデータを収集するOCT部と、前記OCTデータを解析して、前記データ取得部により前記眼底に前記光を投射するための対象領域を特定するデータ処理部とを含む眼科装置である。 An exemplary embodiment includes a data acquisition unit that projects light onto the fundus of an eye to be inspected and acquires data of the eye to be inspected based on the returned light, and an optical coherence tomography unit that acquires data of the eye to be inspected in a three-dimensional region of the anterior segment of the eye to be inspected. an OCT unit that applies an OCT scan to acquire OCT data; and a data processing unit that analyzes the OCT data and identifies a target region for projecting the light onto the fundus by the data acquisition unit. An ophthalmic device comprising:

例示的な実施形態によれば、眼底に光を投射して行う撮影又は測定に好適な領域を特定することが可能である。 According to an exemplary embodiment, it is possible to identify suitable regions for imaging or measuring by projecting light onto the fundus.

例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科装置が実行可能な動作の一例を表すフローチャートである。4 is a flowchart representing an example of operations that can be performed by an ophthalmic device according to an exemplary embodiment; 例示的な実施形態に係る眼科装置が実行可能な動作の一例を表すフローチャートである。4 is a flowchart representing an example of operations that can be performed by an ophthalmic device according to an exemplary embodiment; 変形例に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of the configuration of an ophthalmologic apparatus according to a modification. 例示的な実施形態に係る眼科装置が実行可能な動作を説明するための概略図である。FIG. 4 is a schematic diagram for explaining operations that can be performed by an ophthalmic device according to an exemplary embodiment; 例示的な実施形態に係る眼科装置が実行可能な動作を説明するための概略図である。FIG. 4 is a schematic diagram for explaining operations that can be performed by an ophthalmic device according to an exemplary embodiment; 例示的な実施形態に係る眼科装置が実行可能な動作を説明するための概略図である。FIG. 4 is a schematic diagram for explaining operations that can be performed by an ophthalmic device according to an exemplary embodiment; 例示的な実施形態に係る眼科装置が実行可能な動作を説明するための概略図である。FIG. 4 is a schematic diagram for explaining operations that can be performed by an ophthalmic device according to an exemplary embodiment;

実施形態に係る眼科装置の例示的な態様について、図面を参照しながら詳細に説明する。実施形態に係る眼科装置は、被検眼のデータを光学的に(つまり、光を利用して、光学技術を利用して)取得するために用いられる。特に、実施形態に係る眼科装置は、被検眼の瞳孔を通じて眼内に光を入射することで被検眼のデータを取得することが可能である。 Exemplary aspects of ophthalmic devices according to embodiments will be described in detail with reference to the drawings. An ophthalmologic apparatus according to an embodiment is used to acquire data of an eye to be examined optically (that is, using light and optical technology). In particular, the ophthalmologic apparatus according to the embodiment can acquire data of the subject's eye by making light enter the eye through the pupil of the subject's eye.

このような眼科装置は、例えば、撮影機能及び測定機能の少なくとも一方を含む。撮影機能を有する眼科装置の例として、光干渉断層計、眼底カメラ、走査型レーザー検眼鏡などがある。測定機能を有する眼科装置の例として、眼軸長測定装置、眼屈折検査装置、ウェーブフロントアナライザ、マイクロペリメータ、視野計などがある。 Such an ophthalmic device includes, for example, at least one of an imaging function and a measurement function. Examples of ophthalmic devices with imaging functions include optical coherence tomography, fundus cameras, scanning laser ophthalmoscopes, and the like. Examples of ophthalmic devices with measurement functions include axial length measuring devices, eye refraction testing devices, wavefront analyzers, microperimeters, and perimeters.

以下の例示では、スウェプトソースOCTと眼底カメラとを組み合わせた眼科撮影装置について説明するが、実施形態はこれに限定されない。OCTの種別はスウェプトソースOCTには限定されず、例えばスペクトラルドメインOCTであってもよい。 In the following example, an ophthalmic imaging apparatus that combines swept-source OCT and a fundus camera is described, but embodiments are not limited thereto. The type of OCT is not limited to swept source OCT, and may be spectral domain OCT, for example.

スウェプトソースOCTは、波長可変光源からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光をバランスドフォトダイオード等の光検出器で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。 The swept source OCT splits the light from the wavelength tunable light source into measurement light and reference light, superimposes the return light of the measurement light from the object on the reference light to generate interference light, and balances the interference light. In this method, an image is formed by performing Fourier transform or the like on detection data collected in response to wavelength sweeping and measurement light scanning by detecting with a photodetector such as a photodiode.

スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。 Spectral domain OCT divides light from a low coherence light source into measurement light and reference light, generates interference light by superimposing the return light of the measurement light from the object on the reference light, and generates the interference light spectrum In this method, the distribution is detected by a spectrometer, and the detected spectral distribution is subjected to Fourier transform or the like to form an image.

このように、スウェプトソースOCTは時分割でスペクトル分布を取得するOCT手法であり、スペクトラルドメインOCTは空間分割でスペクトル分布を取得するOCT手法である。なお、実施形態に利用することが可能なOCT手法はこれらに限定されず、これらと異なる任意のOCT手法(例えば、タイムドメインOCT)を利用した実施形態を採用することも可能である。 Thus, the swept-source OCT is an OCT technique that acquires a spectral distribution by time division, and the spectral domain OCT is an OCT technique that acquires a spectral distribution by space division. Note that the OCT techniques that can be used in the embodiments are not limited to these, and embodiments that use arbitrary OCT techniques different from these (for example, time domain OCT) can also be adopted.

本明細書においては、特に言及しない限り、「画像データ」と、それに基づく「画像」とを区別しない。また、特に言及しない限り、被検眼の部位又は組織と、それを表す画像とを区別しない。 In this specification, "image data" and "images" based thereon are not distinguished unless otherwise specified. In addition, unless otherwise specified, the site or tissue of the subject's eye is not distinguished from the image representing it.

〈構成〉
図1に示す例示的な眼科装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構と、OCTを実行するための光学系や機構とが設けられている。OCTユニット100には、OCTを実行するための光学系や機構が設けられている。演算制御ユニット200は、各種の処理(演算、制御等)を実行するように構成された1以上のプロセッサを含んでいる。更に、眼科装置1は、2つの方向から前眼部を撮影するための2つの前眼部カメラ300を備えている。
<composition>
The exemplary ophthalmic apparatus 1 shown in FIG. 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic and control unit 200. As shown in FIG. The retinal camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye to be examined E and an optical system and a mechanism for executing OCT. The OCT unit 100 is provided with an optical system and a mechanism for performing OCT. The arithmetic control unit 200 includes one or more processors configured to perform various types of processing (calculation, control, etc.). Furthermore, the ophthalmologic apparatus 1 includes two anterior eye cameras 300 for photographing the anterior eye from two directions.

眼底カメラユニット2には、被検者の顔を支持するための顎受けと額当てが設けられている。顎受け及び額当ては、図4A及び図4Bに示す支持部440に相当する。ベース410には、光学系駆動部2A等の駆動系や、演算制御回路が格納されている。ベース410上に設けられた筐体420には、光学系が格納されている。筐体420の前面に突出して設けられたレンズ収容部430には、対物レンズ22が収容されている。 The retinal camera unit 2 is provided with a chin rest and a forehead rest for supporting the subject's face. The chin rest and forehead rest correspond to the support 440 shown in FIGS. 4A and 4B. The base 410 houses a driving system such as the optical system driving section 2A and an arithmetic control circuit. A housing 420 provided on the base 410 houses an optical system. The objective lens 22 is housed in the lens housing portion 430 that protrudes from the front surface of the housing 420 .

更に、眼科装置1は、OCTが適用される部位を切り替えるためのレンズユニットを備えている。具体的には、眼科装置1は、前眼部にOCTを適用するための前眼部OCT用アタッチメント400を備えている。前眼部OCT用アタッチメント400は、例えば、特開2015-160103号公報に開示された光学ユニットと同様に構成されていてよい。 Furthermore, the ophthalmologic apparatus 1 includes a lens unit for switching the site to which OCT is applied. Specifically, the ophthalmologic apparatus 1 includes an anterior segment OCT attachment 400 for applying OCT to the anterior segment. The anterior segment OCT attachment 400 may be configured in the same manner as the optical unit disclosed in Japanese Unexamined Patent Application Publication No. 2015-160103, for example.

図1に示すように、前眼部OCT用アタッチメント400は、対物レンズ22と被検眼Eとの間に配置可能である。前眼部OCT用アタッチメント400が光路に配置されているとき、眼科装置1は前眼部にOCTスキャンを適用することが可能である。他方、前眼部OCT用アタッチメント400が光路から退避されているとき、眼科装置1は後眼部にOCTスキャンを適用することが可能である。前眼部OCT用アタッチメント400の移動は、手動又は自動で行われる。 As shown in FIG. 1, the anterior segment OCT attachment 400 can be arranged between the objective lens 22 and the eye E to be examined. When the anterior segment OCT attachment 400 is placed in the optical path, the ophthalmologic apparatus 1 can apply an OCT scan to the anterior segment. On the other hand, when the anterior segment OCT attachment 400 is retracted from the optical path, the ophthalmologic apparatus 1 can apply an OCT scan to the posterior segment. Movement of the anterior segment OCT attachment 400 is performed manually or automatically.

他の実施形態において、アタッチメントが光路に配置されているときには後眼部にOCTスキャンを適用可能であり、且つ、アタッチメントが光路から退避されているときに前眼部にOCTスキャンを適用可能であってよい。また、アタッチメントにより切り替えられる測定部位は後眼部及び前眼部に限定されず、眼の任意の部位であってよい。なお、OCTスキャンが適用される部位を切り替えるための構成はこのようなアタッチメントに限定されず、例えば、光路に沿って移動可能なレンズを備えた構成、又は、光路に対して挿脱可能なレンズを備えた構成を採用することも可能である。 In another embodiment, an OCT scan can be applied to the posterior segment when the attachment is placed in the optical path, and an OCT scan can be applied to the anterior segment when the attachment is retracted from the optical path. you can Moreover, the measurement site that can be switched by the attachment is not limited to the posterior segment and the anterior segment of the eye, and may be any site of the eye. In addition, the configuration for switching the part to which the OCT scan is applied is not limited to such an attachment, and for example, a configuration including a lens that can be moved along the optical path, or a lens that can be inserted into and removed from the optical path It is also possible to adopt a configuration with

この実施形態において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。 In this embodiment, the “processor” includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, an SPLD (Simple Programmable Logic Device e), CPLD (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array)) or the like. The processor implements the functions according to the embodiment by, for example, reading and executing a program stored in a storage circuit or storage device.

〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efのデジタル画像(眼底像、眼底写真等と呼ばれる)は、一般に、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、可視領域のフラッシュ光を用いた静止画像である。
<Fundus camera unit 2>
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined. The acquired digital image of the fundus oculi Ef (called a fundus image, a fundus photograph, etc.) is generally a front image such as an observed image or a photographed image. Observation images are obtained by moving image shooting using near-infrared light. The photographed image is a still image using flash light in the visible region.

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は、被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eに照射された照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれる。被検眼E(例えば、眼底Ef)に投射された測定光の戻り光は、眼底カメラユニット2内の同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and an imaging optical system 30 . The illumination optical system 10 irradiates the eye E to be inspected with illumination light. The imaging optical system 30 detects return light of the illumination light with which the eye E to be examined is irradiated. Measurement light from the OCT unit 100 is guided to the subject's eye E through an optical path in the fundus camera unit 2 . Return light of the measurement light projected onto the eye E (for example, the fundus oculi Ef) is guided to the OCT unit 100 through the same optical path in the fundus camera unit 2 .

照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由して孔開きミラー21に導かれる。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef)を照明する。観察照明光の被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部に合致するように調整される。 Light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the concave mirror 12, passes through the condenser lens 13, passes through the visible cut filter 14, and becomes near-infrared light. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, passed through the relay lens system 17, the relay lens 18, the diaphragm 19, and the relay lens system 20, to the perforated mirror 21. be guided. The observation illumination light is reflected by the periphery of the perforated mirror 21 (area around the perforation), passes through the dichroic mirror 46, is refracted by the objective lens 22, and illuminates the eye E (fundus oculi Ef). do. The return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the apertured mirror 21, and passes through the dichroic mirror 55. , through a focusing lens 31 and reflected by a mirror 32 . Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the imaging lens . The image sensor 35 detects returned light at a predetermined frame rate. Note that the focus of the imaging optical system 30 is adjusted so as to match the fundus oculi Ef or the anterior segment of the eye.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。 The light (imaging illumination light) output from the imaging light source 15 irradiates the fundus oculi Ef through the same path as the observation illumination light. The return light of the imaging illumination light from the subject's eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33 , is reflected by the mirror 36 , is reflected by the imaging lens 37 . An image is formed on the light receiving surface of the image sensor 38 .

液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。固視標は、典型的には、視線の誘導及び固定に利用される。被検眼Eの視線が誘導(及び固定)される方向、つまり被検眼Eの固視が促される方向は、固視位置と呼ばれる。 A liquid crystal display (LCD) 39 displays a fixation target (fixation target image). A part of the light beam output from the LCD 39 is reflected by the half mirror 33 A, reflected by the mirror 32 , passes through the focusing lens 31 and the dichroic mirror 55 , and passes through the aperture of the apertured mirror 21 . The luminous flux that has passed through the aperture of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus oculi Ef. A fixation target is typically used for eye guidance and fixation. A direction in which the line of sight of the subject's eye E is guided (and fixed), that is, a direction in which fixation of the subject's eye E is encouraged is called a fixation position.

LCD39の画面上における固視標画像の表示位置を変更することで固視位置を変更することができる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の位置(眼底中心)を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。 By changing the display position of the fixation target image on the screen of the LCD 39, the fixation position can be changed. Examples of fixation positions include a fixation position for acquiring an image centered on the macula, a fixation position for acquiring an image centered on the optic disc, and a position between the macula and the optic disc ( There is a fixation position for acquiring an image centered on the center of the eye fundus, and a fixation position for acquiring an image of a site far away from the macula (eye fundus periphery).

このような典型的な固視位置の少なくとも1つを指定するためのグラフィカルユーザーインターフェース(GUI)等を設けることができる。また、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を設けることができる。また、固視位置を自動で設定する構成を適用することも可能である。 A graphical user interface (GUI) or the like may be provided for specifying at least one such exemplary fixation position. Further, a GUI or the like for manually moving the fixation position (the display position of the fixation target) can be provided. It is also possible to apply a configuration that automatically sets the fixation position.

固視位置の変更が可能な固視標を被検眼Eに提示するための構成は、LCD等の表示デバイスには限定されない。例えば、複数の発光部(発光ダイオード等)がマトリクス状に配列されたデバイス(固視マトリクス)を、表示デバイスの代わりに採用することができる。この場合、複数の発光部を選択的に点灯させることにより、固視標による被検眼Eの固視位置を変更することができる。他の例として、移動可能な1以上の発光部を備えたデバイスによって、固視位置の変更が可能な固視標を生成することができる。 A configuration for presenting a fixation target whose fixation position is changeable to the eye to be examined E is not limited to a display device such as an LCD. For example, a device (fixation matrix) in which a plurality of light-emitting units (light-emitting diodes, etc.) are arranged in a matrix can be employed instead of the display device. In this case, the fixation position of the subject's eye E by the fixation target can be changed by selectively lighting a plurality of light emitting units. As another example, a device with one or more movable light emitters can generate a fixation target whose fixation position can be changed.

アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行することができる。 The alignment optical system 50 generates an alignment index used for alignment of the optical system with respect to the eye E to be examined. Alignment light output from a light-emitting diode (LED) 51 passes through an aperture 52, an aperture 53, and a relay lens 54, is reflected by a dichroic mirror 55, passes through the aperture of the perforated mirror 21, and passes through the dichroic mirror 46. It is transmitted and projected onto the subject's eye E via the objective lens 22 . The return light of the alignment light from the eye to be examined E is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment or automatic alignment can be performed based on the received light image (alignment index image).

なお、実施形態に適用可能なアライメント手法は、このようなアライメント指標を用いたものに限定されず、前眼部カメラ300を利用した手法(後述)や、斜方から角膜に光を投射して反対方向にて角膜反射光を検出するよう構成された光テコを利用した手法など、任意の公知の手法であってよい。 Note that the alignment method applicable to the embodiment is not limited to the method using such an alignment index, and the method using the anterior eye camera 300 (described later), or the method of projecting light obliquely onto the cornea. It may be any known technique, such as an optical lever technique configured to detect corneal reflected light in opposite directions.

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱される。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光(眼底反射光等)は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。 The focus optical system 60 generates a split index used for focus adjustment of the eye E to be examined. The focus optical system 60 is moved along the optical path of the illumination optical system 10 (illumination optical path) in conjunction with the movement of the imaging focusing lens 31 along the optical path of the imaging optical system 30 (imaging optical path). The reflecting bar 67 is inserted into and removed from the illumination optical path. When performing focus adjustment, the reflecting surface of the reflecting bar 67 is arranged at an angle in the illumination optical path. Focus light output from the LED 61 passes through a relay lens 62, is split into two light beams by a split index plate 63, passes through a two-hole diaphragm 64, is reflected by a mirror 65, and is reflected by a condenser lens 66 onto a reflecting rod 67. is once imaged on the reflective surface of , and then reflected. Further, the focused light passes through the relay lens 20 , is reflected by the perforated mirror 21 , passes through the dichroic mirror 46 , and is projected onto the subject's eye E via the objective lens 22 . The return light of the focus light from the subject's eye E (reflected light from the fundus, etc.) is guided to the image sensor 35 through the same path as the return light of the alignment light. Manual focusing and autofocusing can be performed based on the received light image (split index image).

孔開きミラー21とダイクロイックミラー55との間の撮影光路に、視度補正レンズ70及び71を選択的に挿入することができる。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。 Diopter correction lenses 70 and 71 can be selectively inserted in the imaging optical path between the apertured mirror 21 and the dichroic mirror 55 . The dioptric correction lens 70 is a plus lens (convex lens) for correcting high hyperopia. The dioptric correction lens 71 is a minus lens (concave lens) for correcting strong myopia.

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路(測定アーム)とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 synthesizes the fundus imaging optical path and the OCT optical path (measurement arm). The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for photographing the fundus. The measurement arm is provided with a collimator lens unit 40, a retroreflector 41, a dispersion compensation member 42, an OCT focusing lens 43, an optical scanner 44, and a relay lens 45 in order from the OCT unit 100 side.

リトロリフレクタ41は、これに入射する測定光LSの光路に沿って移動可能とされ、それにより測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The retroreflector 41 is movable along the path of the measuring light LS incident on it, thereby changing the length of the measuring arm. The change in measurement arm length is used, for example, for optical path length correction according to the axial length of the eye, adjustment of the interference state, and the like.

分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。 The dispersion compensating member 42 works together with a dispersion compensating member 113 (described later) arranged on the reference arm to match the dispersion characteristics of the measurement light LS and the reference light LR.

OCT合焦レンズ43は、測定アームのフォーカス調整を行うために測定アームに沿って移動される。なお、撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 An OCT focusing lens 43 is moved along the measuring arm to focus the measuring arm. In addition, the movement of the imaging focusing lens 31, the movement of the focusing optical system 60, and the movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSを偏向する。光スキャナ44は、例えば、2次元走査が可能なガルバノスキャナである。典型的には、光スキャナ44は、測定光を±x方向に偏向するための1次元スキャナ(x-スキャナ)と、測定光を±y方向に偏向するための1次元スキャナ(y-スキャナ)とを含む。この場合、例えば、これら1次元スキャナのいずれか一方が瞳孔と光学的に共役な位置に配置されるか、或いは、瞳孔と光学的に共役な位置がこれら1次元スキャナの間に配置される。 The optical scanner 44 is substantially arranged at a position optically conjugate with the pupil of the eye E to be examined. A light scanner 44 deflects the measuring light LS guided by the measuring arm. The optical scanner 44 is, for example, a galvanometer scanner capable of two-dimensional scanning. Typically, the optical scanner 44 includes a one-dimensional scanner (x-scanner) for deflecting the measurement light in ±x directions and a one-dimensional scanner (y-scanner) for deflecting the measurement light in ±y directions. including. In this case, for example, either one of these one-dimensional scanners is placed at a position optically conjugate with the pupil, or a position optically conjugate with the pupil is placed between these one-dimensional scanners.

〈OCTユニット100〉
図2に示す例示的なOCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源からの光を測定光と参照光とに分割し、被検眼Eに投射された測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光の検出により得られたデータ(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
<OCT unit 100>
The exemplary OCT unit 100 shown in FIG. 2 is provided with optics for performing swept-source OCT. This optical system includes interference optics. This interference optical system divides the light from the wavelength tunable light source into measurement light and reference light, and superimposes the return light of the measurement light projected on the subject's eye E and the reference light that has passed through the reference optical path to obtain interference light. and detect this interference light. Data (detection signal) obtained by detecting the interference light is a signal representing the spectrum of the interference light and is sent to the arithmetic control unit 200 .

光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームなどと呼ばれ、参照光LRの光路は参照アームなどと呼ばれる。 The light source unit 101 includes, for example, a near-infrared tunable laser that changes the wavelength of emitted light at high speed. Light L0 output from the light source unit 101 is guided to the polarization controller 103 through the optical fiber 102, and the polarization state is adjusted. Further, the light L0 is guided by the optical fiber 104 to the fiber coupler 105 and split into the measurement light LS and the reference light LR. The optical path of the measurement light LS is called a measurement arm or the like, and the optical path of the reference light LR is called a reference arm or the like.

ファイバカプラ105により生成された参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The reference light LR generated by the fiber coupler 105 is guided by the optical fiber 110 to the collimator 111 , converted into a parallel beam, and guided to the retroreflector 114 via the optical path length correction member 112 and the dispersion compensation member 113 . The optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 works together with the dispersion compensation member 42 arranged on the measurement arm to match the dispersion characteristics between the reference light LR and the measurement light LS. The retroreflector 114 is movable along the optical path of the reference beam LR incident on it, thereby changing the length of the reference arm. A change in the reference arm length is used, for example, for optical path length correction according to the axial length of the eye, adjustment of the interference state, and the like.

リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。 The reference light LR that has passed through the retroreflector 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112 , is converted by the collimator 116 from a parallel beam into a focused beam, and enters the optical fiber 117 . The reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 to have its polarization state adjusted, guided to the attenuator 120 through the optical fiber 119 to have its light amount adjusted, and passed through the optical fiber 121 to the fiber coupler 122. be guided.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127を通じてコリメータレンズユニット40に導かれて平行光束に変換され、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光は、測定アームを逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided to the collimator lens unit 40 through the optical fiber 127 and converted into a parallel light beam, which is then converted into a parallel light beam by the retroreflector 41, the dispersion compensating member 42, the OCT focusing lens 43, and the optical scanner 44. , and a relay lens 45, reflected by a dichroic mirror 46, refracted by an objective lens 22, and projected onto an eye E to be examined. The measurement light LS is scattered and reflected at various depth positions of the eye E to be examined. The return light of the measurement light LS from the subject's eye E travels in the opposite direction through the measurement arm, is guided to the fiber coupler 105 , and reaches the fiber coupler 122 via the optical fiber 128 .

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分岐比(例えば1:1)で分岐することで一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 superimposes the measurement light LS input via the optical fiber 128 and the reference light LR input via the optical fiber 121 to generate interference light. The fiber coupler 122 splits the generated interference light at a predetermined splitting ratio (for example, 1:1) to generate a pair of interference lights LC. A pair of interference lights LC are guided to detector 125 through optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、これらにより得られた一対の検出信号の差分を出力する。検出器125は、この出力(差分信号等の検出信号)をデータ収集システム(DAQ)130に送る。 Detector 125 includes, for example, a balanced photodiode. A balanced photodiode includes a pair of photodetectors that respectively detect a pair of interference lights LC, and outputs a difference between a pair of detection signals obtained by these. Detector 125 sends this output (a detected signal such as a differential signal) to data acquisition system (DAQ) 130 .

データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、これら分岐光の一方を光学的に遅延させ、これら分岐光を合成し、得られた合成光を検出し、その検出信号に基づいてクロックKCを生成する。データ収集システム130は、検出器125から入力される検出信号(差分信号)のサンプリングをクロックKCに基づいて実行する。データ収集システム130は、このサンプリングで得られたデータを演算制御ユニット200に送る。 A clock KC is supplied from the light source unit 101 to the data collection system 130 . The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the wavelength tunable light source. The light source unit 101, for example, splits the light L0 of each output wavelength to generate two split lights, optically delays one of these split lights, combines these split lights, and produces the resulting combined light. A clock KC is generated based on the detection signal. The data acquisition system 130 samples the detection signal (difference signal) input from the detector 125 based on the clock KC. Data collection system 130 sends the data obtained by this sampling to arithmetic and control unit 200 .

本例では、測定アーム長を変更するための要素(例えば、リトロリフレクタ41)と、参照アーム長を変更するための要素(例えば、リトロリフレクタ114、又は参照ミラー)との双方が設けられているが、これら要素のうちの一方のみが設けられていてもよい。また、測定アーム長と参照アーム長との間の差(光路長差)を変更するための要素はこれらに限定されず、任意の要素(光学部材、機構など)を採用することが可能である。 In this example, both an element for changing the measurement arm length (eg retroreflector 41) and an element for changing the reference arm length (eg retroreflector 114 or reference mirror) are provided. However, only one of these elements may be provided. Also, the elements for changing the difference (optical path length difference) between the measurement arm length and the reference arm length are not limited to these, and arbitrary elements (optical members, mechanisms, etc.) can be adopted. .

〈演算制御ユニット200〉
演算制御ユニット200は、眼科装置1の各部を制御する。また、演算制御ユニット200は、各種の演算処理を実行する。例えば、演算制御ユニット200は、一連の波長走査毎に(Aライン毎に)、データ収集システム130により得られたサンプリングデータ群に基づくスペクトル分布にフーリエ変換等の信号処理を施すことによって、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することによって画像データを形成する。そのための演算処理は、従来のスウェプトソースOCTと同様である。
<Arithmetic control unit 200>
The arithmetic control unit 200 controls each part of the ophthalmologic apparatus 1 . Further, the arithmetic control unit 200 executes various kinds of arithmetic processing. For example, the arithmetic and control unit 200 performs signal processing such as Fourier transform on the spectral distribution based on the group of sampling data obtained by the data acquisition system 130 for each series of wavelength scans (for each A line), so that each A Form a reflection intensity profile in the line. Furthermore, the arithmetic and control unit 200 forms image data by imaging the reflection intensity profile of each A-line. Arithmetic processing therefor is the same as in conventional swept source OCT.

演算制御ユニット200は、例えば、プロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含む。ハードディスクドライブ等の記憶装置には各種のコンピュータプログラムが格納されている。演算制御ユニット200は、操作デバイス、入力デバイス、表示デバイスなどを含んでいてもよい。 The arithmetic control unit 200 includes, for example, a processor, RAM (Random Access Memory), ROM (Read Only Memory), hard disk drive, communication interface, and the like. Various computer programs are stored in a storage device such as a hard disk drive. The arithmetic and control unit 200 may include an operation device, an input device, a display device, and the like.

〈ユーザーインターフェイス240〉
ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科撮影装置に接続された外部装置であってよい。
<User Interface 240>
User interface 240 includes display unit 241 and operation unit 242 . Display unit 241 includes display device 3 . The operation unit 242 includes various operation devices and input devices. The user interface 240 may include a device, such as a touch panel, that combines a display function and an operation function. It is also possible to construct embodiments that do not include at least a portion of user interface 240 . For example, the display device may be an external device connected to the ophthalmic imaging equipment.

〈前眼部カメラ300〉
前眼部カメラ300は、被検眼Eの前眼部を異なる2以上の方向から撮影する。前眼部カメラ300は、CCDイメージセンサ又はCMOSイメージセンサなどの撮像素子を含む。この実施形態では、眼底カメラユニット2の被検者側の面に2台の前眼部カメラ300が設けられている(図4Aに示す前眼部カメラ300A及び300Bを参照)。図1及び図4Aに示すように、前眼部カメラ300A及び300Bは、対物レンズ22を通過する光路から外れた位置に設けられている。以下、前眼部カメラ300A及び300Bの一方又は双方を符号300で示すことがある。
<Anterior segment camera 300>
The anterior segment camera 300 photographs the anterior segment of the subject's eye E from two or more different directions. The anterior segment camera 300 includes an imaging device such as a CCD image sensor or a CMOS image sensor. In this embodiment, two anterior eye cameras 300 are provided on the subject side surface of the retinal camera unit 2 (see anterior eye cameras 300A and 300B shown in FIG. 4A). As shown in FIGS. 1 and 4A, the anterior cameras 300A and 300B are located off the optical path passing through the objective lens 22. As shown in FIG. One or both of the anterior cameras 300A and 300B may be designated 300 hereinafter.

この実施形態では、2台の前眼部カメラ300A及び300Bが設けられているが、典型的には、前眼部カメラの個数は2以上の任意の個数であってよい。後述の演算処理を考慮すると、異なる2方向から前眼部を撮影可能な構成であれば十分である(しかし、これに限定されるものではない)。また、移動可能な1以上の前眼部カメラ300がもうけられていてもよい。 In this embodiment, two anterior cameras 300A and 300B are provided, but typically the number of anterior cameras may be any number greater than or equal to two. Considering the arithmetic processing to be described later, a configuration capable of imaging the anterior segment from two different directions is sufficient (but not limited to this). One or more movable anterior eye cameras 300 may also be provided.

この実施形態では、照明光学系10及び撮影光学系30とは別個に前眼部カメラ300を設けているが、少なくとも撮影光学系30を用いて前眼部撮影を行うことができる。すなわち、2以上の前眼部カメラのうちの1つは、撮影光学系30を含んでいてよい。この実施形態に係る前眼部カメラ300は、異なる2(以上の)方向から前眼部を撮影可能であればよい。 In this embodiment, an anterior segment camera 300 is provided separately from the illumination optical system 10 and the imaging optical system 30, but at least the imaging optical system 30 can be used to perform imaging of the anterior segment. That is, one of the two or more anterior eye cameras may include the imaging optical system 30 . The anterior segment camera 300 according to this embodiment may be capable of photographing the anterior segment from two (or more) different directions.

前眼部を照明するための構成が設けられていてもよい。この前眼部照明手段には、例えば、1以上の光源が含まれる。典型的には、2以上の前眼部カメラのそれぞれの近傍に少なくとも1つの光源(例えば、赤外光源)を設けることができる。 Arrangements may be provided for illuminating the anterior segment. The anterior segment illumination means includes, for example, one or more light sources. Typically, at least one light source (eg, an infrared light source) can be provided near each of the two or more anterior cameras.

2以上の前眼部カメラは、異なる2以上の方向から実質的に同時に前眼部を撮影することができる。「実質的に同時」とは、2以上の前眼部カメラによる撮影タイミングが同時である場合に加え、例えば、眼球運動を無視できる程度の撮影タイミングのズレが介在する場合も許容されることを示す。このような実質的同時撮影によって、被検眼Eが実質的に同じ位置及び向きにあるときの画像を2以上の前眼部カメラで取得することが可能になる。 Two or more anterior segment cameras can image the anterior segment substantially simultaneously from two or more different directions. "Substantially simultaneously" means that in addition to the case where the imaging timings of two or more anterior segment cameras are simultaneous, for example, it is acceptable that there is a difference in the imaging timings that can be ignored due to eye movement. show. Such substantially simultaneous photographing makes it possible to obtain images of the subject's eye E at substantially the same position and orientation with two or more anterior eye cameras.

2以上の前眼部カメラによる撮影は、動画撮影でも静止画撮影でもよい。動画撮影の場合、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記のような実質的に同時の前眼部撮影を実現することができる。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。 The photography by the two or more anterior segment cameras may be video photography or still image photography. In the case of video shooting, by controlling the shooting start timing to match, or by controlling the frame rate and the shooting timing of each frame, it is possible to realize substantially simultaneous shooting of the anterior segment as described above. . On the other hand, in the case of still image shooting, this can be achieved by controlling the shooting timing to match.

〈制御系〉
眼科装置1の制御系(処理系)の構成の例を図3A及び図3Bに示す。制御部210、画像形成部220、及びデータ処理部230は、例えば演算制御ユニット200に設けられる。
<Control system>
An example of the configuration of the control system (processing system) of the ophthalmologic apparatus 1 is shown in FIGS. 3A and 3B. The control section 210, the image forming section 220, and the data processing section 230 are provided in the arithmetic control unit 200, for example.

〈制御部210〉
制御部210は、プロセッサを含み、眼科装置1の各部を制御する。制御部210は、主制御部211と記憶部212とを含む。
<Control unit 210>
The control unit 210 includes a processor and controls each unit of the ophthalmologic apparatus 1 . Control unit 210 includes main control unit 211 and storage unit 212 .

〈主制御部211〉
主制御部211は、プロセッサを含み、眼科装置1の各要素(図1~図3Bに示された要素を含む)を制御する。主制御部211は、回路を含むハードウェアと、制御ソフトウェアとの協働により実現される。
<Main control unit 211>
The main control unit 211 includes a processor and controls each element of the ophthalmologic apparatus 1 (including the elements shown in FIGS. 1 to 3B). The main control unit 211 is implemented by cooperation of hardware including circuits and control software.

撮影光路に配置された撮影合焦レンズ31と照明光路に配置されたフォーカス光学系60とは、主制御部211の制御の下に、図示しない撮影合焦駆動部によって移動される。測定アームに設けられたリトロリフレクタ41は、主制御部211の制御の下に、リトロリフレクタ(RR)駆動部41Aによって移動される。測定アームに配置されたOCT合焦レンズ43は、主制御部211の制御の下に、OCT合焦駆動部43Aによって移動される。測定アームに設けられた光スキャナ44は、主制御部211の制御の下に動作する。参照アームに配置されたリトロリフレクタ114は、主制御部211の制御の下に、リトロリフレクタ(RR)駆動部114Aによって移動される。ここに例示した機構のそれぞれは、典型的には、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。 The photographing focusing lens 31 arranged in the photographing optical path and the focusing optical system 60 arranged in the illumination optical path are moved by a photographing focus driving section (not shown) under the control of the main control section 211 . A retroreflector 41 provided on the measurement arm is moved by a retroreflector (RR) driving section 41A under the control of the main control section 211 . The OCT focus lens 43 placed on the measurement arm is moved by the OCT focus driver 43A under control of the main controller 211 . The optical scanner 44 provided on the measurement arm operates under the control of the main controller 211 . A retroreflector 114 located on the reference arm is moved by a retroreflector (RR) driver 114A under the control of the main controller 211 . Each of the mechanisms illustrated here typically includes an actuator such as a pulse motor that operates under the control of main control section 211 .

移動機構150は、例えば、少なくとも眼底カメラユニット2を3次元的に移動する。典型的な例において、移動機構150は、±x方向(左右方向)に移動可能なxステージと、xステージを移動するx移動機構と、±y方向(上下方向)に移動可能なyステージと、yステージを移動するy移動機構と、±z方向(奥行き方向)に移動可能なzステージと、zステージを移動するz移動機構とを含む。これら移動機構のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。 The moving mechanism 150 moves, for example, at least the retinal camera unit 2 three-dimensionally. In a typical example, the moving mechanism 150 includes an x stage that can move in ±x directions (horizontal direction), an x moving mechanism that moves the x stage, and a y stage that can move in ±y directions (vertical direction). , a y-moving mechanism for moving the y-stage, a z-stage movable in the ±z direction (depth direction), and a z-moving mechanism for moving the z-stage. Each of these moving mechanisms includes an actuator such as a pulse motor that operates under control of the main control section 211 .

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
<Storage unit 212>
The storage unit 212 stores various data. The data stored in the storage unit 212 includes, for example, image data of an OCT image, image data of a fundus image, information on an eye to be examined, and the like. The eye information to be examined includes subject information such as a patient ID and name, left/right eye identification information, electronic medical record information, and the like.

記憶部212には、図示しない収差情報が予め記憶されている。収差情報には、各前眼部カメラ300について、それに搭載された光学系の影響により撮影画像に発生する歪曲収差に関する情報が記録されている。ここで、前眼部カメラ300に搭載された光学系には、例えばレンズ等の歪曲収差を発生させる光学素子が含まれている。収差情報は、これらの光学素子が撮影画像に与える歪みを定量化したパラメータと言える。 The storage unit 212 stores in advance aberration information (not shown). In the aberration information, for each anterior eye camera 300, information on distortion occurring in the captured image due to the influence of the optical system mounted thereon is recorded. Here, the optical system mounted on the anterior eye camera 300 includes an optical element such as a lens that generates distortion aberration. Aberration information can be said to be a parameter that quantifies the distortion that these optical elements give to a captured image.

収差情報の生成方法の例を説明する。前眼部カメラ300の器差(歪曲収差の差異)を考慮して各前眼部カメラ300について次のような測定が行われる。作業者は、所定の基準点を準備する。基準点とは、歪曲収差の検出に用いられる撮影ターゲットである。作業者は、基準点と前眼部カメラ300との相対位置を変更しつつ複数回の撮影を行う。それにより、異なる方向から撮影された基準点の複数の撮影画像が得られる。作業者は、取得された複数の撮影画像をコンピュータで解析することにより、この前眼部カメラ300の収差情報を生成する。なお、この解析処理を行うコンピュータは、データ処理部230であってもよいし、それ以外の任意のコンピュータ(製品出荷前の検査用コンピュータ、メンテナンス用コンピュータ等)のであってもよい。 An example of a method of generating aberration information will be described. Considering the instrumental error (difference in distortion aberration) of the anterior eye camera 300, the following measurements are performed for each anterior eye camera 300. FIG. An operator prepares a predetermined reference point. A reference point is a shooting target used to detect distortion aberration. The operator takes multiple shots while changing the relative position between the reference point and the anterior eye camera 300 . Thereby, a plurality of photographed images of the reference point photographed from different directions are obtained. The operator generates the aberration information of the anterior eye camera 300 by analyzing the captured images with a computer. The computer that performs this analysis processing may be the data processing unit 230 or any other computer (computer for inspection before product shipment, computer for maintenance, etc.).

収差情報を生成するための解析処理には、例えば以下の工程が含まれる:
各撮影画像から基準点に相当する画像領域を抽出する抽出工程;
各撮影画像における基準点に相当する画像領域の分布状態(座標)を算出する分布状態算出工程;
得られた分布状態に基づいて歪曲収差を表すパラメータを算出する歪曲収差算出工程;
得られたパラメータに基づいて歪曲収差を補正するための係数を算出する補正係数算出工程。
An analytical process for generating aberration information includes, for example, the following steps:
an extraction step of extracting an image region corresponding to a reference point from each photographed image;
A distribution state calculation step of calculating a distribution state (coordinates) of an image area corresponding to a reference point in each captured image;
Distortion aberration calculation step of calculating a parameter representing distortion aberration based on the obtained distribution state;
a correction coefficient calculation step of calculating coefficients for correcting distortion based on the obtained parameters;

なお、光学系が画像に与える歪曲収差に関連するパラメータとしては、主点距離、主点位置(縦方向、横方向)、レンズのディストーション(放射方向、接線方向)などがある。収差情報は、各前眼部カメラ300の識別情報と、これに対応する補正係数とを関連付けた情報(例えばテーブル情報)として構成される。このようにして生成された収差情報は、主制御部211によって記憶部212に格納される。このような収差情報の生成及びこれに基づく収差補正は、カメラのキャリブレーションなどと呼ばれる。 Parameters related to the distortion aberration given to the image by the optical system include principal point distance, principal point position (vertical direction, lateral direction), lens distortion (radial direction, tangential direction), and the like. The aberration information is configured as information (for example, table information) that associates the identification information of each anterior eye camera 300 with the corresponding correction coefficients. The aberration information generated in this manner is stored in the storage section 212 by the main control section 211 . Generation of such aberration information and aberration correction based thereon are called camera calibration or the like.

〈画像形成部220〉
画像形成部220は、データ収集システム130により収集されたデータに基づいてOCT画像データを形成する。画像形成部220は、プロセッサを含む。画像形成部220は、回路を含むハードウェアと、画像形成ソフトウェアとの協働により実現される。
<Image forming unit 220>
The imager 220 forms OCT image data based on the data collected by the data collection system 130 . Image forming unit 220 includes a processor. The image forming unit 220 is implemented by cooperation of hardware including circuits and image forming software.

画像形成部220は、データ収集システム130により収集されたデータに基づいて断面像データを形成する。この処理には、従来のスウェプトソースOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、高速フーリエ変換(FFT)などの信号処理が含まれる。 The image forming section 220 forms cross-sectional image data based on the data collected by the data collection system 130 . This processing includes signal processing such as denoising (noise reduction), filtering, and fast Fourier transform (FFT), similar to conventional swept-source OCT.

画像形成部220により形成される画像データは、OCTスキャンが適用されたエリアに配列された複数のAライン(z方向に沿うスキャンライン)における反射強度プロファイルを画像化することによって形成された一群の画像データ(一群のAスキャン画像データ)を含むデータセットである。 The image data formed by the image forming unit 220 is a group of images formed by imaging reflection intensity profiles in a plurality of A-lines (scan lines along the z-direction) arranged in the area to which the OCT scan is applied. 1 is a data set containing image data (a group of A-scan image data);

画像形成部220により形成される画像データは、例えば、1以上のBスキャン画像データ、又は、複数のBスキャン画像データを単一の3次元座標系に埋め込んで形成されたスタックデータである。画像形成部220は、スタックデータにボクセル化処理を施してボリュームデータ(ボクセルデータ)を構築することも可能である。スタックデータ及びボリュームデータは、3次元座標系により表現された3次元画像データの典型的な例である。 The image data formed by the image forming unit 220 is, for example, one or more B-scan image data or stack data formed by embedding a plurality of B-scan image data in a single three-dimensional coordinate system. The image forming unit 220 can also construct volume data (voxel data) by voxelizing the stack data. Stack data and volume data are typical examples of three-dimensional image data represented by a three-dimensional coordinate system.

画像形成部220は、3次元画像データを加工することができる。例えば、画像形成部220は、3次元画像データにレンダリングを適用して新たな画像データを構築することができる。レンダリングの手法としては、ボリュームレンダリング、最大値投影(MIP)、最小値投影(MinIP)、サーフェスレンダリング、多断面再構成(MPR)などがある。また、画像形成部220は、3次元画像データをz方向(Aライン方向、深さ方向)に投影してプロジェクションデータを構築することができる。また、画像形成部220は、3次元画像データの一部をz方向に投影してシャドウグラムを構築することができる。なお、シャドウグラムを構築するために投影される3次元画像データの一部は、例えば、セグメンテーションを利用して設定される。 The image forming section 220 can process three-dimensional image data. For example, the image forming unit 220 can construct new image data by applying rendering to the 3D image data. Rendering techniques include volume rendering, maximum intensity projection (MIP), minimum intensity projection (MinIP), surface rendering, and multiplanar reconstruction (MPR). Further, the image forming unit 220 can construct projection data by projecting the three-dimensional image data in the z direction (A-line direction, depth direction). Also, the image forming unit 220 can construct a shadowgram by projecting a portion of the three-dimensional image data in the z-direction. A part of the three-dimensional image data projected to construct the shadowgram is set using, for example, segmentation.

〈データ処理部230〉
データ処理部230は、各種のデータ処理を実行する。例えば、データ処理部230は、OCT画像データに画像処理や解析処理を適用することや、観察画像データ又は撮影画像データに画像処理や解析処理を適用することが可能である。データ処理部230は、例えば、プロセッサ及び専用回路基板の少なくともいずれかを含む。
<Data processing unit 230>
The data processing unit 230 executes various data processing. For example, the data processing unit 230 can apply image processing or analysis processing to OCT image data, or apply image processing or analysis processing to observed image data or photographed image data. The data processing unit 230 includes, for example, at least one of a processor and a dedicated circuit board.

〈データ取得部250〉
以下、図3Bを参照する。データ取得部250は、被検眼Eのデータを光学的に取得するように構成される。特に、データ取得部250は、眼底Efに光を投射し、その戻り光に基づき被検眼Eのデータを取得することができる。データ取得部250は、被検眼EにOCTを適用して画像データを取得することができる。データ取得部250は、眼底カメラユニット2に設けられた測定アームを構成する要素群と、OCTユニット100に設けられた要素群と、画像形成部220とを含む。他の例において、データ取得部250は、眼底像を取得するための構成(照明光学系10、撮影光学系30など)を含んでいてもよい。
<Data Acquisition Unit 250>
Please refer to FIG. 3B below. The data acquisition unit 250 is configured to optically acquire data of the eye E to be examined. In particular, the data acquisition unit 250 can project light onto the fundus oculi Ef and acquire data of the subject's eye E based on the return light. The data acquisition unit 250 can acquire image data by applying OCT to the eye E to be examined. The data acquisition section 250 includes a group of elements forming a measurement arm provided in the retinal camera unit 2 , a group of elements provided in the OCT unit 100 , and an image forming section 220 . In another example, the data acquisition unit 250 may include a configuration (illumination optical system 10, imaging optical system 30, etc.) for acquiring a fundus image.

本例のデータ取得部250は、被検眼Eの前眼部の3次元領域にOCTスキャンを適用してOCTデータを収集するOCT部としても機能する。データ取得部250をOCT部として用いるときには、前眼部OCT用アタッチメント400が光路に挿入される。なお、データ取得部250が眼底Efに光を投射して被検眼Eのデータを取得するときには、前眼部OCT用アタッチメント400が光路から退避される。 The data acquisition unit 250 of this example also functions as an OCT unit that applies an OCT scan to the three-dimensional region of the anterior segment of the eye E to be examined and collects OCT data. When the data acquisition unit 250 is used as the OCT unit, the anterior segment OCT attachment 400 is inserted into the optical path. When the data acquisition unit 250 acquires data of the subject's eye E by projecting light onto the fundus oculi Ef, the anterior segment OCT attachment 400 is retracted from the optical path.

このように、本例では、前眼部OCTと眼底OCTの双方を実行可能であるが、実施形態はこれに限定されない。例えば、実施形態に係る眼科装置は、眼底OCTの代わりに、又は、眼底OCTに加えて、眼底撮影(眼底カメラ、SLO)、眼軸長測定、眼屈折検査、眼球収差測定(ウェーブフロントアナライザ)、視野検査(マイクロペリメータ、視野計)を実行可能であってもよい。 Thus, in this example, both anterior segment OCT and fundus OCT can be performed, but embodiments are not limited to this. For example, instead of or in addition to fundus OCT, the ophthalmologic apparatus according to the embodiment can perform fundus photography (fundus camera, SLO), axial length measurement, eye refraction test, and eye aberration measurement (wavefront analyzer). , a visual field test (microperimeter, perimeter) may be performed.

また、本例では、眼底Efに光を投射して被検眼Eのデータを取得するための光学系(データ取得部250に含まれるデータ取得光学系)と、前眼部OCTのための光学系(前眼部OCT光学系)とが、共通のスキャン光学系を含む。この共通のスキャン光学系は、眼底カメラユニット2に設けられた測定アームを構成する要素群と、OCTユニット100に設けられた要素群とを含む。他の実施形態においては、このような構成を採用する必要はなく、例えば、データ取得光学系と前眼部OCT光学系とが別々に設けられていてよい。 Further, in this example, an optical system (a data acquisition optical system included in the data acquisition unit 250) for projecting light onto the fundus oculi Ef to acquire data of the eye to be examined E, and an optical system for the anterior segment OCT (anterior segment OCT optical system) includes a common scanning optical system. This common scanning optical system includes a group of elements forming a measurement arm provided in the retinal camera unit 2 and a group of elements provided in the OCT unit 100 . In other embodiments, it is not necessary to adopt such a configuration, and for example, the data acquisition optical system and the anterior segment OCT optical system may be provided separately.

〈アライメント系260〉
アライメント系260は、データ取得光学系のアライメントを行うための要素を含む。アライメント系260は、アライメント指標を被検眼Eに投射するためのアライメント光学系50を含んでいてよい(第1の構成)。また、アライメント系260は、2つの前眼部カメラ300と、これらにより実質的に同時に取得された2つの前眼部像から被検眼Eの3次元位置を求める位置情報取得部231(後述)とを含んでいてよい(第2の構成)。また、アライメント系260は、光テコを利用したアライメントを行うための、光投射系と、受光系と、受光系からの出力から被検眼Eの位置を求めるプロセッサとを含んでいてよい(第3の構成)。
<Alignment system 260>
Alignment system 260 includes elements for aligning the data acquisition optics. The alignment system 260 may include an alignment optical system 50 for projecting an alignment index onto the subject's eye E (first configuration). The alignment system 260 also includes two anterior eye cameras 300 and a position information acquisition unit 231 (described later) that obtains the three-dimensional position of the subject's eye E from two anterior eye images obtained substantially simultaneously by these cameras. (second configuration). Further, the alignment system 260 may include a light projection system, a light receiving system, and a processor for determining the position of the subject's eye E from the output from the light receiving system for performing alignment using an optical lever (third configuration).

この実施形態に係る眼科装置1は、これら第1~第3の構成をうちの第1の構成及び第2の構成の双方を備えているが、第1~第3の構成のうちのいずれか1つ、いずれか2つ又は3つが設けられていてもよい。或いは、アライメント系260は、第1~第3の構成以外の構成を含んでいてもよい。すなわち、アライメント系260により実施されるアライメントの手法は任意である。 The ophthalmologic apparatus 1 according to this embodiment includes both the first and second configurations among the first to third configurations. There may be one, either two or three. Alternatively, the alignment system 260 may include configurations other than the first to third configurations. In other words, the alignment method performed by the alignment system 260 is arbitrary.

〈制御部210の例〉
図3Bに例示された制御部210は、駆動制御部2101と、表示制御部2102とを含む。駆動制御部2101は移動機構150を制御する。表示制御部2102はユーザーインターフェイス240(表示部241)を制御する。駆動制御部2101と表示制御部2102は、図3Aに示す主制御部211に含まれる。
<Example of control unit 210>
The controller 210 illustrated in FIG. 3B includes a drive controller 2101 and a display controller 2102 . A drive control unit 2101 controls the moving mechanism 150 . A display control unit 2102 controls the user interface 240 (display unit 241). The drive control unit 2101 and the display control unit 2102 are included in the main control unit 211 shown in FIG. 3A.

〈データ処理部230の例〉
図3Bに例示されたデータ処理部230は、位置情報取得部231と、判定部232と、混濁領域特定部233と、移動目標決定部234とを含む。
<Example of data processing unit 230>
The data processing unit 230 illustrated in FIG. 3B includes a position information acquisition unit 231, a determination unit 232, a cloudy area identification unit 233, and a movement target determination unit 234.

〈位置情報取得部231〉
位置情報取得部231は、2つの前眼部カメラ300が実質的に同時に被検眼Eの前眼部を撮影することにより取得された2つの前眼部像を解析して、被検眼Eの3次元位置を求めることができる。位置情報取得部231が実行する処理の例を以下に説明する。
<Position information acquisition unit 231>
The position information acquisition unit 231 analyzes the two anterior segment images acquired by the two anterior segment cameras 300 capturing the anterior segments of the eye E to be inspected substantially simultaneously, and obtains the 3 Dimensional position can be determined. An example of processing executed by the position information acquisition unit 231 will be described below.

まず、位置情報取得部231は、前眼部カメラ300により得られた撮影画像の歪みを、記憶部212に記憶されている収差情報に基づいて補正することができる。この補正は、例えば、歪曲収差を補正するための補正係数に基づく公知の画像処理技術によって実行可能である。なお、前眼部カメラ300の光学系が撮影画像に与える歪曲収差が十分に小さい場合などには、収差情報及びこれを用いた補正は不要であってもよい。 First, the position information acquisition unit 231 can correct the distortion of the captured image obtained by the anterior eye camera 300 based on the aberration information stored in the storage unit 212 . This correction can be performed, for example, by known image processing techniques based on correction coefficients for correcting distortion. Note that when the distortion aberration that the optical system of the anterior eye camera 300 gives to the captured image is sufficiently small, the aberration information and the correction using it may be unnecessary.

次に、位置情報取得部231は、撮影画像の画素値(例えば、輝度値)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定することができる。一般に瞳孔は他の部位よりも低い輝度で表現されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することが可能である。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。例えば、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定することができる。 Next, the position information acquisition unit 231 can specify an image region (pupil region) corresponding to the pupil of the subject's eye E based on the distribution of pixel values (eg, luminance values) of the captured image. Since the pupil is generally expressed with lower luminance than other parts, it is possible to specify the pupil region by searching for the low luminance image region. At this time, the pupil region may be specified in consideration of the shape of the pupil. For example, the pupil region can be identified by searching for a substantially circular, low-intensity image region.

続いて、位置情報取得部231は、特定された瞳孔領域の中心位置を特定することができる。前述したように瞳孔は略円形であることを利用し、位置情報取得部231は、例えば、瞳孔領域の輪郭を特定する処理と、この輪郭の近似楕円(又は、近似円)を求める処理と、この近似楕円(又は、近似円)の中心位置を特定する処理とを含む。このようにして特定された近似楕円(又は、近似円)の中心位置が、被検眼Eの瞳孔中心として用いられる。瞳孔中心を求める処理の他の例として、位置情報取得部231は、瞳孔領域の重心を求めて瞳孔中心に設定することができる。 Subsequently, the position information acquisition unit 231 can identify the central position of the identified pupillary region. Utilizing the fact that the pupil is substantially circular as described above, the position information acquisition unit 231 performs, for example, a process of identifying the contour of the pupil region, a process of obtaining an approximate ellipse (or approximate circle) of the contour, and a process of identifying the center position of this approximated ellipse (or approximated circle). The center position of the approximate ellipse (or approximate circle) specified in this way is used as the pupil center of the eye E to be examined. As another example of processing for obtaining the center of the pupil, the position information acquisition unit 231 can obtain the center of gravity of the pupil region and set it as the center of the pupil.

位置情報取得部231は、前眼部カメラ300の位置(及び撮影倍率)と、前段の処理で特定された2つの撮影画像中の瞳孔中心の位置とに基づいて、被検眼Eの瞳孔中心の3次元位置を求めることができる。 The position information acquisition unit 231 obtains the center of the pupil of the subject's eye E based on the position (and imaging magnification) of the anterior eye camera 300 and the position of the center of the pupil in the two captured images specified in the preceding processing. A three-dimensional position can be determined.

図5Aは、被検眼Eと前眼部カメラ300Aと前眼部カメラ300Bとの間の位置関係を示す上面図である。図5Bは、被検眼Eと前眼部カメラ300Aと前眼部カメラ300Bとの間の位置関係を示す側面図である。前眼部カメラ300Aと前眼部カメラ300Bとの間の距離(基線長)を「B」で表す。前眼部カメラ300A及び300Bの基線と、被検眼Eの瞳孔中心Pとの間の距離(撮影距離)を「H」で表す。前眼部カメラ300Aとその画面平面との間の距離(画面距離)を「f」で表す。 FIG. 5A is a top view showing the positional relationship between the subject's eye E, the anterior eye camera 300A, and the anterior eye camera 300B. FIG. 5B is a side view showing the positional relationship between the subject's eye E, the anterior eye camera 300A, and the anterior eye camera 300B. The distance (baseline length) between the anterior eye camera 300A and the anterior eye camera 300B is represented by "B". The distance (shooting distance) between the base line of the anterior eye cameras 300A and 300B and the pupil center P of the subject's eye E is represented by "H". The distance (screen distance) between the anterior eye camera 300A and its screen plane is represented by "f".

このような配置状態において、前眼部カメラ300A及び300Bによる撮影画像の分解能は次式で表される。ここで、Δpは画素分解能を表す。 In such an arrangement state, the resolution of images captured by the anterior eye cameras 300A and 300B is expressed by the following equation. Here, Δp represents pixel resolution.

xy方向の分解能(平面分解能):Δxy=H×Δp/f
z方向の分解能(奥行き分解能):Δz=H×H×Δp/(B×f)
Resolution in xy direction (planar resolution): Δxy=H×Δp/f
Resolution in z direction (depth resolution): Δz=H×H×Δp/(B×f)

位置情報取得部231は、例えば、前眼部カメラ300A及び300Bの位置(既知である)と、2つの撮影画像において瞳孔中心Pに相当する位置とに対し、図5A及び図5Bに示す配置関係を考慮した公知の三角法を適用することで、瞳孔中心Pの3次元位置を算出することができる。 For example, the position information acquisition unit 231 determines the positions of the anterior eye cameras 300A and 300B (which are known) and the position corresponding to the pupil center P in the two captured images, and the positional relationships shown in FIGS. 5A and 5B. The three-dimensional position of the pupil center P can be calculated by applying a known trigonometry method that takes into account .

なお、瞳孔中心以外の特徴点が適用される場合においても、位置情報取得部231は、上記と同様の処理を適用することにより、撮影画像の画素値の分布などに基づいて特徴点の3次元位置を求めることが可能である。 Note that even when a feature point other than the center of the pupil is applied, the position information acquisition unit 231 applies the same processing as described above to obtain a three-dimensional image of the feature point based on the pixel value distribution of the captured image. It is possible to determine the position.

位置情報取得部231により取得された位置情報(例えば、瞳孔中心の3次元位置を示す情報)は、制御部210に送られる。駆動制御部2101は、この位置情報に基づくアライメント制御を移動機構150に適用する。このアライメント制御は、前述したオートアライメントの例である。 The position information acquired by the position information acquisition unit 231 (for example, information indicating the three-dimensional position of the pupil center) is sent to the control unit 210 . The drive control unit 2101 applies alignment control to the moving mechanism 150 based on this position information. This alignment control is an example of the aforementioned auto alignment.

〈判定部232〉
前述したように、データ取得部250は、眼底Efに光を投射し、その戻り光に基づき被検眼Eのデータを取得する。判定部232は、データ取得部250により取得された当該データに基づいて、被検眼Eの前眼部に3次元OCTスキャンを適用するか否か判定する。典型的には、前述したオートアライメントが行われた後に、データ取得部250がデータを取得し、判定部232が判定を行う。
<Determination unit 232>
As described above, the data acquisition unit 250 projects light onto the fundus oculi Ef and acquires data of the subject's eye E based on the return light. Based on the data acquired by the data acquisition unit 250, the determination unit 232 determines whether or not to apply a three-dimensional OCT scan to the anterior segment of the eye E to be examined. Typically, after the above-described auto-alignment is performed, the data acquisition section 250 acquires data, and the determination section 232 performs determination.

本例のデータ取得部250が取得するデータは、例えば、OCTデータである。OCTデータの例として、眼軸長測定又は画像化のためのAスキャン画像データがある。この場合、判定部232は、例えば、このAスキャン画像データの輝度が既定閾値を超えるか否か判定する。典型的には、Aスキャン画像データに含まれる画素群の輝度値の統計値(例えば、和、平均、最大値)が閾値を超えるか否か判定する。この統計値が閾値を超えない場合、測定光LS及び/又はその戻り光が被検眼E内の混濁箇所を通過したことが示唆される。この閾値処理では、例えば、デフォルト設定された閾値、又は、Aスキャン画像データなどに応じて設定された閾値が用いられる。 The data acquired by the data acquisition unit 250 of this example is, for example, OCT data. Examples of OCT data are A-scan image data for axial length measurement or imaging. In this case, the determination unit 232 determines, for example, whether or not the luminance of this A-scan image data exceeds a predetermined threshold. Typically, it is determined whether a statistical value (for example, sum, average, maximum value) of luminance values of a group of pixels included in the A-scan image data exceeds a threshold. If this statistic value does not exceed the threshold, it is suggested that the measurement light LS and/or its return light has passed through an opaque portion within the eye E to be examined. In this threshold processing, for example, a default threshold or a threshold set according to A-scan image data or the like is used.

他の種別のデータをデータ取得部250が取得した場合においても、眼底Efに投射されるべき光及び/又はその戻り光が被検眼E内の混濁箇所を通過した場合には、取得されたデータの強度を示す情報(例えば、輝度)が低下する。判定部232は、データ取得部250は、データ取得部250により取得されたデータの強度に基づいて同様の判定を行うことができる。 Even when the data acquisition unit 250 acquires other types of data, if the light to be projected onto the fundus oculi Ef and/or its return light passes through the opacity part in the eye to be examined E, the acquired data information indicating the intensity of (eg, luminance) is reduced. The determination unit 232 and the data acquisition unit 250 can make similar determinations based on the intensity of the data acquired by the data acquisition unit 250 .

〈混濁領域特定部233〉
混濁領域特定部233は、被検眼Eの前眼部に対する3次元OCTスキャンにより収集されたOCTデータを解析して前眼部の混濁領域を特定する。混濁領域は、被検眼Eの内部の混濁に相当する画像領域である。混濁領域は、白内障眼に見られるような中間透光体の混濁に相当する。
<Muddy area specifying unit 233>
The opacity region specifying unit 233 analyzes OCT data acquired by three-dimensional OCT scanning of the anterior segment of the subject's eye E to specify the opacity region of the anterior segment. The opacity region is an image region corresponding to opacity inside the eye E to be examined. The region of opacity corresponds to the opacity of the medium translucency as seen in cataractous eyes.

例えば、混濁領域特定部233は、前眼部の3次元OCT画像、又はそれに基づくプロジェクション画像(若しくはシャドウグラム)を解析する。混濁領域特定部233は、このようなOCT画像の画素値(例えば、輝度値)の分布を求め、この分布に基づいて混濁領域を特定することができる。前眼部のOCT画像には混濁箇所が影のように映し出される。混濁領域特定部233は、輝度に関する閾値処理をOCT画像に適用することで、輝度値が既定閾値以下である画素を特定する。これにより特定された画素群が混濁領域に設定される。この閾値処理では、例えば、デフォルト設定された閾値、又は、OCT画像などに応じて設定された閾値が用いられる。 For example, the opacity region identifying unit 233 analyzes a three-dimensional OCT image of the anterior segment or a projection image (or shadowgram) based thereon. The opaque region specifying unit 233 can obtain the distribution of pixel values (for example, luminance values) of such an OCT image and specify the opaque region based on this distribution. OCT images of the anterior segment show opacified areas as shadows. The opaque region specifying unit 233 specifies pixels whose brightness value is equal to or less than a predetermined threshold value by applying threshold processing regarding brightness to the OCT image. The pixel group specified by this is set to the cloudy area. In this threshold processing, for example, a default threshold or a threshold set according to an OCT image or the like is used.

〈移動目標決定部234〉
移動目標決定部234は、混濁領域特定部233により特定された混濁領域に基づいて、データ取得部250に含まれるデータ取得光学系の移動目標を決定する。決定された移動目標は、データ取得光学系のアライメントに利用される。
<Movement target determination unit 234>
The moving target determination unit 234 determines the moving target of the data acquisition optical system included in the data acquisition unit 250 based on the cloudy area specified by the cloudy area specifying unit 233 . The determined moving target is used for alignment of the data acquisition optical system.

移動目標決定部234には、例えば、被検眼Eの前眼部を表現する画像と、混濁領域特定部233により特定された混濁領域(その位置・分布を示す情報)とが入力される。前眼部を表現する画像は、例えば、混濁領域特定部233による処理に供されたOCTデータ、このOCTデータを加工して得られた画像(例えば、プロジェクション画像、シャドウグラム)、眼底カメラユニット2により取得された前眼部像、前眼部カメラ300により取得された前眼部像、及び、2つの前眼部カメラ300により取得された2つの前眼部像を加工して得られた画像(例えば、正面画像)のいずれかであってよい。 For example, an image expressing the anterior segment of the subject's eye E and the opacity area specified by the opacity area specifying part 233 (information indicating its position/distribution) are input to the movement target determination unit 234 . The image representing the anterior segment is, for example, the OCT data processed by the opacity region specifying unit 233, an image obtained by processing this OCT data (eg, projection image, shadowgram), the fundus camera unit 2 An image obtained by processing the anterior eye image obtained by the anterior eye image obtained by the anterior eye camera 300 and the two anterior eye images obtained by the two anterior eye cameras 300 (for example, a front image).

前眼部を表現する画像が、混濁領域特定部233による処理に供されたOCTデータでも、このOCTデータの加工画像でもない場合、データ処理部230は、前眼部を表現する画像とこのOCTデータ(又は、その加工画像)との間のレジストレーションを行うことができる。レジストレーションは、例えば、特徴点を利用した画像マッチングであってよい。レジストレーションによれば、前眼部を表現する画像における混濁領域の位置(分布)を求めることができる。 If the image representing the anterior segment is neither the OCT data processed by the opacity region identification unit 233 nor the processed image of this OCT data, the data processing unit 230 extracts the image representing the anterior segment and this OCT A registration can be made between the data (or its processed image). Registration may be, for example, image matching using feature points. According to the registration, the position (distribution) of opacified regions in the image representing the anterior segment can be obtained.

なお、前眼部を表現する画像が、混濁領域特定部233による処理に供されたOCTデータ、又は、このOCTデータの加工画像である場合には、前眼部を表現する画像と混濁領域との間に自明な対応関係があるので、レジストレーションを適用する必要はない。 In addition, when the image representing the anterior segment is OCT data subjected to processing by the opacity region specifying unit 233 or a processed image of this OCT data, the image representing the anterior segment and the opacity region Since there is a trivial correspondence between , there is no need to apply registration.

移動目標決定部234は、前眼部を表現する画像において混濁領域とは異なる位置を通過するように、データ取得光学系の移動目標を決定することができる。つまり、移動目標決定部234は、データ取得部250により投射される測定光LSが被検眼E内の混濁を避けて案内されるように、データ取得光学系の移動目標を決定することができる。 The movement target determination unit 234 can determine the movement target of the data acquisition optical system so that the image representing the anterior segment passes through a position different from the opacity region. In other words, the movement target determination unit 234 can determine the movement target of the data acquisition optical system so that the measurement light LS projected by the data acquisition unit 250 is guided while avoiding turbidity in the eye E to be examined.

移動目標決定部234は、測定光LSのビーム径を考慮して、データ取得光学系の移動目標を決定することができる。例えば、移動目標決定部234は、測定光LSのビーム断面の全体が非混濁箇所を通過するように、データ取得光学系の移動目標を決定することができる。 The movement target determination unit 234 can determine the movement target of the data acquisition optical system in consideration of the beam diameter of the measurement light LS. For example, the movement target determination unit 234 can determine the movement target of the data acquisition optical system such that the entire beam cross section of the measurement light LS passes through the non-turbidity portion.

画像に混入するスペックルノイズを低減するために、制御部210は、測定光LSの偏向方向を時間的に変化させるように光スキャナ44を制御することができる。この場合、移動目標決定部234は、測定光LSの通過位置の変化を考慮して、データ取得光学系の移動目標を決定することができる。例えば、移動目標決定部234は、被検眼E内の所定の深さ位置における測定光LSの通過位置の変化範囲が混濁領域と重複しないように、データ取得光学系の移動目標を決定することができる。なお、典型的には、被検眼Eの瞳孔に対して光学的に共役な位置に光スキャナ44が配置されるので、瞳孔から比較的遠い箇所(例えば、水晶体の後面)における測定光LSの通過位置の変化範囲が混濁領域と重複しないように、データ取得光学系の移動目標を決定することができる。なお、瞳孔と所定箇所との間の距離は、例えば、被検眼Eを測定して得られた値、又は、模型眼データから取得した値であってよい。 In order to reduce the speckle noise mixed in the image, the controller 210 can control the optical scanner 44 so as to temporally change the deflection direction of the measurement light LS. In this case, the movement target determining section 234 can determine the movement target of the data acquisition optical system in consideration of changes in the passing position of the measurement light LS. For example, the movement target determination unit 234 can determine the movement target of the data acquisition optical system so that the change range of the passing position of the measurement light LS at a predetermined depth position within the eye E to be examined does not overlap with the cloudy region. can. Since the optical scanner 44 is typically arranged at a position optically conjugated to the pupil of the eye E to be inspected, the measurement light LS passes through a location relatively far from the pupil (for example, the posterior surface of the crystalline lens). A movement target for the data acquisition optics can be determined such that the range of change in position does not overlap with the turbidity region. The distance between the pupil and the predetermined location may be, for example, a value obtained by measuring the subject's eye E or a value obtained from model eye data.

移動目標決定部234により決定される移動目標は、例えば、少なくともx座標とy座標とを含む情報である。決定された移動目標は制御部210に送られる。 The movement target determined by the movement target determination unit 234 is, for example, information including at least the x-coordinate and the y-coordinate. The determined moving target is sent to the control unit 210 .

データ取得光学系のアライメントを自動で補正する場合、駆動制御部2101は、移動目標決定部234により求められた移動目標に基づいて移動機構150を制御することができる。例えば、駆動制御部2101は、移動目標に含まれるx座標及びy座標に応じた位置にデータ取得光学系が移動されるように移動機構150を制御することができる。 When automatically correcting the alignment of the data acquisition optical system, the drive control section 2101 can control the movement mechanism 150 based on the movement target determined by the movement target determination section 234 . For example, the drive control unit 2101 can control the movement mechanism 150 so that the data acquisition optical system is moved to a position corresponding to the x-coordinate and y-coordinate included in the movement target.

データ取得光学系のアライメントを手動で補正する場合、表示制御部2102は、例えば、前述した前眼部を表現する画像を、表示部241に表示させることができる。表示制御部2102は、前眼部を表現する画像とともにアライメント指標像を表示させることができる。操作部242は、データ取得光学系のアライメント操作をユーザーが行うために用いられる。駆動制御部2101は、操作部242から入力される信号に基づいて移動機構150を制御することができる。それにより、ユーザーは、データ取得光学系を所望の位置に移動することが可能である。 When manually correcting the alignment of the data acquisition optical system, the display control unit 2102 can cause the display unit 241 to display, for example, an image representing the anterior segment described above. The display control unit 2102 can display the alignment index image together with the image representing the anterior segment. The operation unit 242 is used by the user to perform alignment operations for the data acquisition optical system. The drive control section 2101 can control the moving mechanism 150 based on signals input from the operation section 242 . Thereby, the user can move the data acquisition optical system to a desired position.

アライメントを手動で補正する場合において、表示制御部2102は、移動目標決定部234により求められた移動目標に基づいて、アライメント操作のための情報(アライメント支援情報)を表示部241に表示させることができる。アライメント支援情報は、例えば、前眼部を表現する画像とともに表示される、移動目標に対応する位置を示す情報を含んでいてよい。或いは、アライメント支援情報は、例えば、データ取得光学系の現在位置から移動目標に対応する位置に向かう矢印画像のような、操作方向(移動方向)及び/又は操作量(移動量)を示す情報を含んでいてよい。このようなアライメント支援情報は、例えば、移動目標に含まれるx座標及びy座標に基づき生成される。 When the alignment is manually corrected, the display control unit 2102 can cause the display unit 241 to display information for alignment operation (alignment support information) based on the movement target obtained by the movement target determination unit 234. can. Alignment assistance information may include, for example, information indicating a position corresponding to a moving target displayed together with an image representing the anterior segment. Alternatively, the alignment support information may be information indicating the operation direction (movement direction) and/or the operation amount (movement amount), such as an arrow image pointing from the current position of the data acquisition optical system to the position corresponding to the movement target. may contain. Such alignment support information is generated, for example, based on the x-coordinate and y-coordinate included in the moving target.

〈動作〉
この実施形態に係る眼科装置1の動作の例を説明する。以下、眼科装置1により実行可能なアライメント補正動作について説明する。
<motion>
An example of the operation of the ophthalmologic apparatus 1 according to this embodiment will be described. Alignment correction operations that can be performed by the ophthalmologic apparatus 1 will be described below.

〈アライメントの自動補正〉
データ取得光学系のアライメントを自動で補正するための眼科装置1の動作の例を図6に示す。
<Automatic Alignment Correction>
FIG. 6 shows an example of the operation of the ophthalmologic apparatus 1 for automatically correcting the alignment of the data acquisition optical system.

(S1:アライメント開始)
まず、アライメント系260を用いたデータ取得光学系のアライメントが開始される。このアライメントは、マニュアルアライメントでもよいが、典型的にはオートアライメントである。
(S1: Alignment start)
First, alignment of the data acquisition optical system using the alignment system 260 is started. This alignment may be manual alignment, but is typically auto alignment.

オートアライメントは、例えば、前眼部カメラ300、位置情報取得部231、及び駆動制御部2101などを利用して実行可能である(ステレオカメラ方式)。或いは、オートアライメントは、アライメント光学系50により生成されるアライメント指標を利用したアライメント、光テコを利用したアライメント、プルキンエ像を利用したアライメント、及び、他の手法のアライメントのいずれかであってもよい。 Auto-alignment can be performed using, for example, the anterior eye camera 300, the position information acquisition unit 231, the drive control unit 2101, and the like (stereo camera method). Alternatively, the auto-alignment may be any one of alignment using an alignment index generated by the alignment optical system 50, alignment using an optical lever, alignment using a Purkinje image, and alignment using other methods. .

(S2:アライメント完了)
ステップS1のアライメントは、被検眼Eに対するデータ取得光学系のアライメントが所定の許容範囲内に入ることで完了となる。
(S2: Alignment completed)
The alignment in step S1 is completed when the alignment of the data acquisition optical system with respect to the subject's eye E falls within a predetermined allowable range.

例えば、この実施形態におけるステレオカメラ方式のオートアライメントによれば、被検眼Eの瞳孔中心に対してデータ取得光学系の光軸が略一致され(xy方向のアライメント)、かつ、被検眼Eとデータ取得光学系(例えば、対物レンズ22)との間の距離が所定のワーキングディスタンスに略一致される(z方向のアライメント)。 For example, according to the auto-alignment of the stereo camera system in this embodiment, the optical axis of the data acquisition optical system is substantially aligned with the pupil center of the eye E to be inspected (alignment in the xy direction), and the eye E to be inspected and the data The distance from the acquisition optical system (for example, the objective lens 22) is approximately matched to a predetermined working distance (alignment in the z direction).

アライメントの完了を受けて、被検眼Eの動きに合わせてデータ取得光学系を移動させるための公知のトラッキングを開始してもよい。 Upon completion of the alignment, known tracking for moving the data acquisition optical system in accordance with the movement of the eye E to be examined may be started.

(S3:眼底に向けて光を投射してデータを取得)
アライメントが完了したことを受けて、制御部210は、データ取得部250にデータを取得させる。本例のデータ取得部250は、被検眼Eの眼底Efに向けて測定光LSを投射し、その戻り光と参照光LRとを重ね合わせて生成された干渉光LCを検出し、データ収集システム130により収集されたデータからAスキャン画像データを形成する。
(S3: Acquire data by projecting light toward the fundus)
Upon completion of the alignment, the control section 210 causes the data acquisition section 250 to acquire data. The data acquisition unit 250 of this example projects the measurement light LS toward the fundus Ef of the eye E to be examined, detects the interference light LC generated by superimposing the return light and the reference light LR, and detects the interference light LC. A-scan image data is formed from the data acquired by 130 .

(S4、S5:データに基づき前眼部OCTを行うか判定)
判定部232は、ステップS3で取得されたデータに基づいて、被検眼Eの前眼部の3次元領域に対するOCTスキャンを適用するか否か判定する。前眼部OCTスキャンを行うと判定された場合(S5:Yes)、処理はステップS6に移行する。
(S4, S5: Determine whether to perform anterior segment OCT based on data)
The determination unit 232 determines whether to apply an OCT scan to the three-dimensional region of the anterior segment of the eye E to be examined based on the data acquired in step S3. If it is determined that an anterior segment OCT scan is to be performed (S5: Yes), the process proceeds to step S6.

前眼部OCTスキャンを行わないと判定された場合(S5:No)、ステップS3で取得されたデータが撮影結果又は測定結果として採用される。これにより、図6に例示した動作は完了となる。 If it is determined not to perform an anterior segment OCT scan (S5: No), the data acquired in step S3 is adopted as the imaging result or the measurement result. This completes the operation illustrated in FIG.

(S6:前眼部に3次元OCTを適用)
ステップS5において前眼部OCTを行うと判定された場合(S5:Yes)、前眼部OCT用アタッチメント400が対物レンズ22と被検眼Eとの間に挿入される。制御部210は、被検眼Eの前眼部に3次元OCTを適用するようにデータ取得部250を制御する。
(S6: Apply 3D OCT to the anterior segment)
If it is determined in step S5 that anterior segment OCT is to be performed (S5: Yes), the anterior segment OCT attachment 400 is inserted between the objective lens 22 and the eye E to be examined. The control unit 210 controls the data acquisition unit 250 to apply three-dimensional OCT to the anterior segment of the eye E to be examined.

データ取得部250(画像形成部220)は、前眼部の3次元OCTにより得られた3次元OCT画像データから、前眼部を表現する画像(プロジェクション画像、シャドウグラムなど)を形成することができる。 The data acquisition unit 250 (image forming unit 220) can form an image representing the anterior segment (projection image, shadowgram, etc.) from the 3D OCT image data obtained by the 3D OCT of the anterior segment. can.

前眼部OCTとは別に、眼底カメラユニット2、前眼部カメラ300などを用いて、前眼部を表現する画像を取得することも可能である。 Aside from the anterior segment OCT, it is also possible to obtain an image expressing the anterior segment using the fundus camera unit 2, the anterior segment camera 300, and the like.

(S7:正面画像中の混濁領域を特定)
混濁領域特定部233は、ステップS6で取得された3次元OCT画像データ(又は、これに基づく前眼部を表現する画像)を解析して、前眼部の混濁領域を特定する。
(S7: Identify the opaque area in the front image)
The opacity region specifying unit 233 analyzes the three-dimensional OCT image data (or an image representing the anterior segment based thereon) acquired in step S6 to specify the opacity region of the anterior segment.

表示制御部2102は、特定された混濁領域を示す情報を、前眼部を表現する画像とともに、表示部241に表示させることができる。 The display control unit 2102 can cause the display unit 241 to display information indicating the specified opacity region together with an image representing the anterior segment.

(S8:データ取得光学系の移動目標を決定)
移動目標決定部234は、ステップS7で特定された混濁領域に基づいて、データ取得光学系の移動目標を決定する。
(S8: Determining the movement target of the data acquisition optical system)
The movement target determination unit 234 determines the movement target of the data acquisition optical system based on the turbidity area identified in step S7.

移動目標決定部234は、混濁領域とは異なる位置をデータ取得光学系の光軸(測定光LS)が通過するように移動目標を決定する。前述したように、移動目標の決定において、測定光LSのビーム径、及び/又は、スペックルノイズ低減のための測定光LSの偏向範囲を考慮してもよい。 The movement target determination unit 234 determines the movement target so that the optical axis (measurement light LS) of the data acquisition optical system passes through a position different from the cloudy area. As described above, in determining the moving target, the beam diameter of the measurement light LS and/or the deflection range of the measurement light LS for speckle noise reduction may be considered.

表示制御部2102は、決定された移動目標を示す情報を、前眼部を表現する画像及び/又は混濁領域を示す情報とともに、表示部241に表示させることができる。 The display control unit 2102 can cause the display unit 241 to display information indicating the determined movement target together with an image representing the anterior segment and/or information indicating the opacified region.

(S9:データ取得光学系を移動)
駆動制御部2101は、移動機構150を制御して、ステップS8で決定された移動目標が示す位置(x座標、y座標)にデータ取得光学系の光軸を移動させる。
(S9: Move data acquisition optical system)
The drive control unit 2101 controls the movement mechanism 150 to move the optical axis of the data acquisition optical system to the position (x coordinate, y coordinate) indicated by the movement target determined in step S8.

(S10:眼底に向けて光を投射してデータを取得)
ステップS9のデータ取得光学系の移動が完了したら、制御部210は、データ取得部250にデータを取得させる。本例のデータ取得部250は、被検眼Eの眼底Efに向けて測定光LSを投射し、その戻り光と参照光LRとを重ね合わせて生成された干渉光LCを検出し、データ収集システム130により収集されたデータからOCT画像データを形成する。
(S10: Acquire data by projecting light toward the fundus)
After the movement of the data acquisition optical system in step S9 is completed, the control section 210 causes the data acquisition section 250 to acquire data. The data acquisition unit 250 of this example projects the measurement light LS toward the fundus Ef of the eye E to be examined, detects the interference light LC generated by superimposing the return light and the reference light LR, and detects the interference light LC. OCT image data is formed from the data acquired by 130 .

例えば、OCT画像データはAスキャンOCT画像データであり、データ処理部230はこのAスキャンOCT画像データから角膜-網膜間距離を算出する。この角膜-網膜間距離は眼軸長の近似値として参照可能である。他の例において、OCT画像データはBスキャン画像データ又は3次元スキャン画像データである。 For example, the OCT image data is A-scan OCT image data, and the data processing unit 230 calculates the cornea-retina distance from this A-scan OCT image data. This cornea-retina distance can be referred to as an approximation of the axial length of the eye. In other examples, the OCT image data is B-scan image data or 3D scan image data.

ステップS10で実行されるデータ取得はOCTに限定されず、例えば、眼底撮影(眼底カメラ、SLO)、眼屈折検査、眼球収差測定(ウェーブフロントアナライザ)、又は、視野検査(マイクロペリメータ、視野計)であってもよい。以上で、図6に例示した動作は完了となる。 The data acquisition performed in step S10 is not limited to OCT, for example fundus photography (retinal camera, SLO), eye refraction examination, ocular aberration measurement (wavefront analyzer), or visual field examination (microperimeter, perimeter). may be With this, the operation illustrated in FIG. 6 is completed.

〈アライメントの手動補正〉
データ取得光学系のアライメントを手動で補正するための眼科装置1の動作の例を図7に示す。
<Manual correction of alignment>
An example of the operation of the ophthalmic apparatus 1 for manually correcting the alignment of the data acquisition optics is shown in FIG.

(S21~S28)
ステップS21~S28は、それぞれ、図6(自動補正)のステップS1~S8と同じ要領で実行される。
(S21-S28)
Steps S21 to S28 are executed in the same manner as steps S1 to S8 in FIG. 6 (automatic correction), respectively.

(S29:前眼部の画像を表示)
表示制御部2102は、被検眼Eの前眼部の画像を表示部241に表示させる。この画像は、例えば、前眼部を表現する画像、及び、リアルタイムで取得される観察画像の少なくとも一方を含んでよい。
(S29: Display the image of the anterior segment)
The display control unit 2102 causes the display unit 241 to display an image of the anterior segment of the eye E to be examined. This image may include, for example, at least one of an image representing the anterior segment and an observed image acquired in real time.

また、表示制御部2102は、ステップS27で特定された混濁領域を示す情報を、前眼部の画像とともに、表示部241に表示させることができる。 In addition, the display control unit 2102 can cause the display unit 241 to display information indicating the opacity region identified in step S27 together with the image of the anterior segment.

(S30:アライメント支援情報を表示)
表示制御部2102は、ステップS28で決定された移動目標に基づくアライメント支援情報を、前眼部の画像(及び、混濁領域を示す情報)とともに、表示部241に表示させる。
(S30: display alignment support information)
The display control unit 2102 causes the display unit 241 to display the alignment support information based on the moving target determined in step S28 together with the image of the anterior segment (and information indicating the opacity region).

(S31:ユーザーがアライメント操作を実施)
ユーザーは、表示部241に表示されている前眼部の画像及びアライメント支援情報(並びに、混濁領域を示す情報)を参照しつつ、操作部242を用いて、データ取得光学系のアライメントを補正する操作を行う。
(S31: User performs alignment operation)
The user corrects the alignment of the data acquisition optical system using the operation unit 242 while referring to the image of the anterior segment and the alignment support information (and information indicating the opacified region) displayed on the display unit 241. perform an operation.

(S32:眼底に向けて光を投射してデータを取得)
例えば、ユーザーが操作部242を用いてアライメント補正完了指示又はOCT開始指示を入力すると、制御部210は、ステップS10と同じ要領で、データ取得部250にデータを取得させる。或いは、アライメント補正の完了を眼科装置1が検知したことを受けて、制御部210は、ステップS10と同じ要領で、データ取得部250にデータを取得させる。これで、図7に例示した動作は完了となる。
(S32: Acquire data by projecting light toward the fundus)
For example, when the user inputs an alignment correction completion instruction or an OCT start instruction using the operation unit 242, the control unit 210 causes the data acquisition unit 250 to acquire data in the same manner as in step S10. Alternatively, in response to the fact that the ophthalmologic apparatus 1 has detected the completion of the alignment correction, the control section 210 causes the data acquisition section 250 to acquire data in the same manner as in step S10. This completes the operation illustrated in FIG.

〈変形例〉
上記の実施形態の変形例を説明する。
<Modification>
A modification of the above embodiment will be described.

上記の実施形態におけるデータ処理部230は、被検眼Eの前眼部の3次元領域にOCTスキャンを適用して収集されたOCTデータを解析して前眼部の混濁領域を特定している。混濁領域は、データ取得部250により眼底Efに光を投射して行う撮影又は測定には不適当な領域である。これとは逆に、データ取得部250により眼底Efに光を投射して行う撮影又は測定に好適な領域を特定することができる。そのような実施形態を以下に説明する。 The data processing unit 230 in the above-described embodiment applies OCT scanning to the three-dimensional region of the anterior segment of the subject's eye E, analyzes OCT data collected, and identifies the opacified region of the anterior segment. The cloudy area is an area unsuitable for imaging or measurement performed by projecting light onto the fundus oculi Ef by the data acquisition unit 250 . Conversely, the data acquisition unit 250 can identify a region suitable for imaging or measurement by projecting light onto the fundus oculi Ef. Such embodiments are described below.

変形例に係る眼科装置の構成を図8に示す。図8に示す構成は、上記実施形態の図3Bに示す構成の代わりに適用可能である。図3Bに示す構成と図8に示す構成と間の差異は、図3Bのデータ処理部230が図8のデータ処理部230Aに置換されていることである。データ処理部230とデータ処理部230Aとの間の差異は、データ処理部230の混濁領域特定部233がデータ処理部230Aの対象領域特定部235に置換されていることである。変形例において、特に言及しない限り、上記実施形態と同様の要素を同じ符号で示す。また、上記実施形態の図面(例えば、図1、図2、図3Aなど)を参照することがある。 FIG. 8 shows the configuration of an ophthalmologic apparatus according to a modification. The configuration shown in FIG. 8 can be applied instead of the configuration shown in FIG. 3B of the above embodiment. The difference between the configuration shown in FIG. 3B and the configuration shown in FIG. 8 is that data processing section 230 in FIG. 3B is replaced with data processing section 230A in FIG. The difference between the data processing section 230 and the data processing section 230A is that the opaque area identifying section 233 of the data processing section 230 is replaced with the target area identifying section 235 of the data processing section 230A. In the modified examples, elements similar to those of the above embodiment are denoted by the same reference numerals unless otherwise specified. Also, the drawings of the above embodiments (eg, FIGS. 1, 2, 3A, etc.) may be referred to.

なお、混濁領域特定部233と対象領域特定部235の双方を含み、これらを選択的に使用可能な構成を採用することも可能である。 It should be noted that it is also possible to employ a configuration that includes both the opaque area identifying section 233 and the target area identifying section 235 and can selectively use them.

対象領域特定部235について説明する。対象領域特定部235は、被検眼Eの前眼部の3次元領域にOCTスキャンを適用して収集されたOCTデータを解析して、データ取得部250により眼底Efに光(例えば、測定光LS)を投射するための対象領域を特定するように構成されている。 The target area identification unit 235 will be described. The target region identifying unit 235 analyzes the OCT data collected by applying the OCT scan to the three-dimensional region of the anterior segment of the eye E to be examined, and the data acquisition unit 250 emits light (for example, the measurement light LS ) to identify a region of interest for projecting.

対象領域特定部235は、例えば、混濁領域特定部233と同様に混濁領域を特定する処理と、特定された混濁領域に基づいて対象領域を特定する処理とを含む。後者の処理は、例えば、瞳孔領域と全体集合とし、且つ、混濁領域をその部分集合としたとき、この混濁領域の補集合を求める処理を含む。 The target area specifying unit 235 includes, for example, a process of specifying a cloudy area similarly to the cloudy area specifying unit 233 and a process of specifying a target area based on the specified cloudy area. The latter process includes, for example, a process of obtaining a complement of the cloudy area when the pupil area is the whole set and the opaque area is a subset thereof.

他の例を説明する。対象領域特定部235は、前眼部の3次元OCT画像、又はそれに基づくプロジェクション画像(若しくはシャドウグラム)を解析する。対象領域特定部235は、このようなOCT画像の画素値(例えば、輝度値)の分布を求め、この分布に基づいて対象領域を特定することができる。例えば、対象領域特定部235は、輝度に関する閾値処理をOCT画像に適用することで、輝度値が既定閾値を超える画素を特定する。これにより特定された画素群が対象領域に設定される。この閾値処理では、例えば、デフォルト設定された閾値、又は、OCT画像などに応じて設定された閾値が用いられる。 Another example will be described. The target region identifying unit 235 analyzes a three-dimensional OCT image of the anterior segment or a projection image (or shadowgram) based thereon. The target region specifying unit 235 can obtain the distribution of pixel values (for example, luminance values) of such an OCT image and specify the target region based on this distribution. For example, the target region identification unit 235 identifies pixels whose luminance values exceed a predetermined threshold by applying threshold processing relating to luminance to the OCT image. The specified pixel group is set as the target area. In this threshold processing, for example, a default threshold or a threshold set according to an OCT image or the like is used.

移動目標決定部234は、対象領域特定部235により特定された対象領域に基づいてデータ取得光学系の移動目標を決定することができる。決定された移動目標は、データ取得光学系のアライメントに利用される。 The movement target determination section 234 can determine the movement target of the data acquisition optical system based on the target area identified by the target area identification section 235 . The determined moving target is used for alignment of the data acquisition optical system.

移動目標決定部234には、例えば、被検眼Eの前眼部を表現する画像と、対象領域特定部235により特定された対象領域(その位置・分布を示す情報)とが入力される。前眼部を表現する画像の種別や、レジストレーションについては、上記の実施形態と同様である。 For example, an image representing the anterior segment of the subject's eye E and the target region specified by the target region specifying unit 235 (information indicating its position/distribution) are input to the movement target determination unit 234 . The type of image representing the anterior segment and the registration are the same as in the above embodiment.

移動目標決定部234は、前眼部を表現する画像における対象領域を通過するように、データ取得光学系の移動目標を決定することができる。つまり、移動目標決定部234は、データ取得部250により投射される測定光LSが被検眼E内の混濁を避けて案内されるように、データ取得光学系の移動目標を決定することができる。このとき、測定光LSのビーム径や偏向範囲を考慮して移動目標を決定することが可能である。 The movement target determination unit 234 can determine the movement target of the data acquisition optical system so as to pass through the target region in the image representing the anterior segment. In other words, the movement target determination unit 234 can determine the movement target of the data acquisition optical system so that the measurement light LS projected by the data acquisition unit 250 is guided while avoiding turbidity in the eye E to be examined. At this time, it is possible to determine the moving target in consideration of the beam diameter and deflection range of the measurement light LS.

移動目標決定部234により決定される移動目標は、例えば、少なくともx座標とy座標とを含む情報である。決定された移動目標は制御部210に送られる。 The movement target determined by the movement target determination unit 234 is, for example, information including at least the x-coordinate and the y-coordinate. The determined moving target is sent to the control unit 210 .

データ取得光学系のアライメントを自動で補正する場合、駆動制御部2101は、移動目標決定部234により求められた移動目標に基づいて移動機構150を制御することができる。例えば、駆動制御部2101は、移動目標に含まれるx座標及びy座標に応じた位置にデータ取得光学系が移動されるように移動機構150を制御することができる。 When automatically correcting the alignment of the data acquisition optical system, the drive control section 2101 can control the movement mechanism 150 based on the movement target determined by the movement target determination section 234 . For example, the drive control unit 2101 can control the movement mechanism 150 so that the data acquisition optical system is moved to a position corresponding to the x-coordinate and y-coordinate included in the movement target.

データ取得光学系のアライメントを手動で補正する場合、表示制御部2102は、例えば、前述した前眼部を表現する画像を、表示部241に表示させることができる。表示制御部2102は、前眼部を表現する画像とともにアライメント指標像を表示させることができる。表示制御部2102は、移動目標決定部234により求められた移動目標に基づくアライメント支援情報を表示させることも可能である。操作部242は、データ取得光学系のアライメント操作をユーザーが行うために用いられる。駆動制御部2101は、操作部242から入力される信号に基づいて移動機構150を制御することができる。それにより、ユーザーは、データ取得光学系を所望の位置に移動することが可能である。 When manually correcting the alignment of the data acquisition optical system, the display control unit 2102 can cause the display unit 241 to display, for example, an image representing the anterior segment described above. The display control unit 2102 can display the alignment index image together with the image representing the anterior segment. The display control unit 2102 can also display alignment support information based on the movement target determined by the movement target determination unit 234 . The operation unit 242 is used by the user to perform alignment operations for the data acquisition optical system. The drive control section 2101 can control the moving mechanism 150 based on signals input from the operation section 242 . Thereby, the user can move the data acquisition optical system to a desired position.

〈他の実施形態〉
以上に例示した実施形態では、アライメントを行う場合について説明したが、前眼部のOCTデータから得られた混濁箇所の情報をアライメント以外の用途に適用することも可能である。例えば、前眼部の混濁箇所の情報を各種の表示に利用することが可能である。このような表示に関する例示的な実施形態を以下に説明する。
<Other embodiments>
In the embodiments exemplified above, the case of performing alignment has been described, but it is also possible to apply the information on the opacity site obtained from the OCT data of the anterior segment to uses other than alignment. For example, it is possible to use the information on the opacified portion of the anterior segment for various displays. Exemplary embodiments for such displays are described below.

このような例示的な実施形態は、図1~図3Bに示す構成、又は、図1~図3A及び図8に示す構成を、少なくとも含んでいてよい。以下、前者の構成を含む場合を例として説明する。以下の例示的な実施形態では、特に言及しない限り、上記実施形態と同様の要素を同じ符号で示す。また、以下の例示的な実施形態は、上記実施形態の他の図面に示す構成を更に含んでいてもよい。 Such exemplary embodiments may include at least the configurations shown in FIGS. 1-3B or the configurations shown in FIGS. 1-3A and 8. FIG. A case including the former configuration will be described below as an example. In the following exemplary embodiments, elements similar to those in the above embodiments are denoted by the same reference numerals unless otherwise noted. In addition, the following exemplary embodiments may further include configurations shown in other drawings of the above embodiments.

例示的な実施形態に係る眼科装置1は、上記実施形態と同様に、被検眼Eの前眼部の3次元領域にOCTスキャンを適用してOCTデータを収集し、このOCTデータを解析して前眼部の混濁領域を特定することが可能である。 The ophthalmologic apparatus 1 according to the exemplary embodiment applies an OCT scan to the three-dimensional region of the anterior segment of the eye E to be examined, collects OCT data, and analyzes the OCT data in the same manner as in the above embodiments. It is possible to identify areas of opacity in the anterior segment.

表示制御部2102は、前眼部の混濁領域を表す画像を表示部241に表示させることができる。混濁領域を表す画像の態様は任意であってよい。例えば、混濁領域を表す画像は、混濁領域の外縁(輪郭)を表す画像を含んでいてよい。また、混濁領域を表す画像は、混濁領域の全体を表す画像を含んでいてよい。 The display control unit 2102 can cause the display unit 241 to display an image representing the opacified region of the anterior segment. The aspect of the image representing the opaque area may be arbitrary. For example, the image representing the opaque area may include an image representing the outer edge (outline) of the opaque area. Also, the image representing the opaque area may include an image representing the entire opaque area.

表示制御部2102は、予め取得された被検眼Eの画像とともに、混濁領域を表す画像を表示させることが可能である。 The display control unit 2102 can display an image representing the opacity region together with the image of the subject's eye E acquired in advance.

被検眼Eの画像は、眼科装置1により取得された画像でもよいし、他の装置により取得された画像でもよい。他の装置により取得された被検眼Eの画像が適用される場合、例えば通信回線又は記録媒体を介して被検眼Eの画像が眼科装置1に入力される。 The image of the subject's eye E may be an image acquired by the ophthalmologic apparatus 1 or may be an image acquired by another apparatus. When an image of the eye to be examined E acquired by another device is applied, the image of the eye to be examined E is input to the ophthalmologic apparatus 1 via, for example, a communication line or a recording medium.

被検眼Eの画像は、被検眼Eの任意の部位を表す画像であってよく、例えば、眼底Efを表す画像、前眼部を表す画像、又は、前眼部から後眼部までの範囲を表す画像であってよい。 The image of the subject's eye E may be an image representing any part of the subject's eye E. For example, an image representing the fundus oculi Ef, an image representing the anterior segment, or an image representing the range from the anterior segment to the posterior segment. It may be an image representing

被検眼Eの画像は、任意のモダリティにより取得された画像であってよく、その例として、眼底カメラにより取得された画像(眼底写真)、SLOにより取得された画像(SLO画像)、OCTスキャンにより取得された画像(OCT画像)、前眼部カメラにより取得された画像などがある。 The image of the subject's eye E may be an image acquired by any modality, examples of which include an image acquired by a fundus camera (retinal photograph), an image acquired by SLO (SLO image), and an image acquired by OCT scanning. There are an acquired image (OCT image), an image acquired by an anterior segment camera, and the like.

被検眼Eの画像は、被検眼Eを撮影して取得された画像でなくてもよい。例えば、シェーマ図のように、眼の部位を模式的に表現した絵を被検眼Eの画像として採用することが可能である。 The image of the eye E to be inspected does not have to be an image obtained by photographing the eye E to be inspected. For example, as an image of the subject's eye E, a picture that schematically expresses the part of the eye, such as a schematic diagram, can be used.

被検眼Eの眼底Efの画像(又は、眼底のシェーマ図など)とともに混濁領域を表す画像を表示させる場合、データ処理部230は、この眼底画像と、前眼部の3次元領域に対するOCTスキャンで得られた3次元OCTデータ(又は、この3次元OCTデータから特定された混濁領域)との間のレジストレーションを行うことができる。 When an image representing an opacity region is displayed together with an image of the fundus Ef of the eye to be examined E (or a schematic diagram of the fundus), the data processing unit 230 performs OCT scanning of the fundus image and the three-dimensional region of the anterior segment of the eye. Registration can be performed between the obtained 3D OCT data (or opacified regions identified from this 3D OCT data).

例えば、前眼部の特徴点と眼底の特徴点とを参照してレジストレーションを行うことが可能である。典型的には、角膜頂点(又は、瞳孔中心)の位置と中心窩の位置とが一致するように、眼底画像と前眼部3次元OCTデータとの間のレジストレーションを行うことが可能である。或いは、瞳孔領域の位置と黄斑領域の位置とに基づいてレジストレーションを行うことも可能である。 For example, registration can be performed by referring to the feature points of the anterior segment and the feature points of the fundus. Typically, it is possible to perform registration between the fundus image and the anterior segment 3D OCT data so that the position of the corneal vertex (or pupil center) and the position of the fovea coincide. . Alternatively, registration can be based on the location of the pupil region and the location of the macular region.

他の例として、前眼部を対象とするOCTスキャンにより得られた3次元OCTデータに眼底Efの組織が描出されている場合、この3次元OCTデータ中の眼底Efの画像を参照してレジストレーションを行うことが可能である。 As another example, when the tissue of the fundus oculi Ef is depicted in the three-dimensional OCT data obtained by the OCT scan targeting the anterior segment, the image of the fundus oculi Ef in the three-dimensional OCT data is referenced to perform registration. It is possible to perform a ration.

更に他の例として、被検眼Eの前眼部から後眼部にわたる領域を表す広域画像(典型的にはOCT画像)が予め得られた場合、この広域画像を利用してレジストレーションを行うことが可能である。 As still another example, when a wide area image (typically an OCT image) representing the area from the anterior segment to the posterior segment of the eye to be examined E is obtained in advance, this wide area image may be used for registration. is possible.

混濁領域を表す画像を眼底Efの画像とともに表示する場合の例示的な表示態様を図9Aに示す。本例において、表示制御部2102は、眼底カメラユニット2(又は、他の眼底撮影装置)により取得された眼底画像500と、混濁領域画像510とを、表示部241に表示させる。より具体的には、表示制御部2102は、例えば上記したレジストレーションの結果に基づいて、混濁領域画像510を眼底画像500に重ねて表示させる。これにより、眼底Efと混濁箇所との位置関係を容易に把握することが可能になる。 FIG. 9A shows an exemplary display mode in which an image representing an opacified region is displayed together with an image of the fundus oculi Ef. In this example, the display control unit 2102 causes the display unit 241 to display the fundus image 500 and the opacity area image 510 acquired by the fundus camera unit 2 (or other fundus imaging device). More specifically, the display control unit 2102 superimposes the opacity area image 510 on the fundus image 500 and displays it, for example, based on the result of the registration described above. This makes it possible to easily grasp the positional relationship between the fundus oculi Ef and the opacity site.

図9Aに示す例では、混濁領域画像510の下に位置する眼底Efの部位を観察することができない。そこで、例えば図9Bに示すように、透明度(アルファ値)がゼロより大きい値に設定された混濁領域画像520を、眼底画像500に重ねて表示させることができる。ここで、操作部242を用いて不透明度の値を自由に変更可能であってよい。このような混濁領域画像520を眼底画像500に重ねて表示させることで、混濁領域画像520の下に位置する眼底Efの部位を観察することが可能になる。なお、混濁領域の画像としてその外縁を表す画像を表示させる場合などにおいても、同様の効果が得られる。 In the example shown in FIG. 9A, the part of the fundus oculi Ef located under the opacity region image 510 cannot be observed. Therefore, for example, as shown in FIG. 9B, a cloudy region image 520 with transparency (alpha value) set to a value greater than zero can be displayed superimposed on the fundus image 500 . Here, the opacity value may be freely changed using the operation unit 242 . By displaying such a cloudy area image 520 superimposed on the fundus image 500, it is possible to observe the part of the fundus oculi Ef located under the cloudy area image 520. FIG. A similar effect can be obtained when an image representing the outer edge of the opaque area is displayed as the image of the opaque area.

被検眼Eの前眼部の画像(又は、前眼部のシェーマ図など)とともに混濁領域画像を表示させる場合においても、眼底Efの画像の場合と同様の処理を適用することが可能である。 When displaying an opacity area image together with an image of the anterior segment of the subject's eye E (or a schematic diagram of the anterior segment, etc.), the same processing as in the case of the image of the fundus oculi Ef can be applied.

被検眼EのOCT画像とともに混濁領域画像を表示させる場合の典型的な例として、前眼部のOCT画像とともに混濁領域画像を表示させることができる。このOCT画像は、例えば、眼科装置1により前眼部の3次元領域に対してOCTスキャンを適用することで得られる。 As a typical example of displaying the opacity area image together with the OCT image of the subject's eye E, the opacity area image can be displayed together with the OCT image of the anterior segment. This OCT image is obtained, for example, by applying an OCT scan to the three-dimensional region of the anterior segment using the ophthalmologic apparatus 1 .

前眼部のOCT画像とともに混濁領域画像を表示する場合の例示的な表示態様を図10Aに示す。本例において、表示制御部2102は、被検眼Eの前眼部のBスキャン画像(縦断面像)600と、混濁領域画像610とを、表示部241に表示させる。これにより、前眼部(特に水晶体)における混濁箇所(分布)を容易に把握することが可能になる。 FIG. 10A shows an exemplary display mode when an opacity region image is displayed together with an OCT image of the anterior segment. In this example, the display control unit 2102 causes the display unit 241 to display a B-scan image (longitudinal cross-sectional image) 600 of the anterior segment of the subject's eye E and an opacity region image 610 . As a result, it becomes possible to easily grasp the location (distribution) of turbidity in the anterior segment (in particular, the crystalline lens).

3次元OCTデータをレンダリング(MPRなど)することで、所望の断面のBスキャン画像を構築し、このBスキャン画像とともに混濁領域画像を表示させることができる。また、横断面や斜め断面など任意の断面を表すMPR画像を構築し、このMPR画像とともに混濁領域画像を表示させることも可能である。また、ボリュームレンダリング等の任意のレンダリング法を適用して得られた画像とともに、混濁領域画像を表示させることも可能である。 By rendering (MPR or the like) the three-dimensional OCT data, a B-scan image of a desired cross section can be constructed, and an opacity region image can be displayed together with this B-scan image. It is also possible to construct an MPR image representing an arbitrary cross section such as a cross section or an oblique section, and display the turbidity region image together with this MPR image. It is also possible to display a cloudy area image together with an image obtained by applying an arbitrary rendering method such as volume rendering.

図10Bは、前眼部のOCT画像とともに混濁領域画像を表示する場合の表示態様の他の例を示す。本例において、表示制御部2102は、被検眼Eの前眼部のOCT正面画像(プロジェクション画像等)700と、混濁領域画像710とを、表示部241に表示させる。これにより、前眼部における混濁箇所(分布)を容易に把握することが可能になる。なお、前眼部カメラ300等により取得された前眼部像とともに混濁領域画像を表示する場合においても、同様の表示態様を適用することが可能である。 FIG. 10B shows another example of a display mode when an opacity region image is displayed together with an OCT image of the anterior segment. In this example, the display control unit 2102 causes the display unit 241 to display an OCT front image (projection image or the like) 700 of the anterior segment of the subject's eye E and a cloudy area image 710 . As a result, it becomes possible to easily grasp the opacity site (distribution) in the anterior segment. It should be noted that the same display mode can be applied when displaying the opacity region image together with the anterior segment image acquired by the anterior segment camera 300 or the like.

このように前眼部の正面画像とともに混濁領域画像を表示する場合においても、眼底Efの画像を表示する場合と同様のレジストレーションを行うことが可能である。 Even when displaying the opacity area image together with the front image of the anterior segment in this way, it is possible to perform the same registration as when displaying the image of the fundus oculi Ef.

上記変形例にて説明したように、データ取得部250により眼底Efに光を投射して行う撮影又は測定に好適な領域(対象領域)を特定する場合、混濁領域画像を表示させる場合と同じ要領で、この対象領域を表す画像(対象領域画像)を表示部241に表示させることができる。更に、表示制御部2102は、予め取得された被検眼Eの画像とともに対象領域画像を表示させることが可能である。混濁領域画像とともに表示される場合と同様に、対象領域画像とともに表示される被検眼Eの画像は任意の画像であってよい。 As described in the modification above, when specifying a region (target region) suitable for imaging or measurement performed by projecting light onto the fundus oculi Ef by the data acquisition unit 250, the procedure is the same as for displaying the opacity region image. Then, an image representing the target region (target region image) can be displayed on the display unit 241 . Furthermore, the display control unit 2102 can display the target area image together with the image of the subject's eye E acquired in advance. As in the case of displaying together with the opacity region image, the image of the subject's eye E displayed together with the target region image may be any image.

〈効果〉
いくつかの例示的な実施形態が奏する効果について説明する。
<effect>
Effects of some exemplary embodiments will be described.

第1の例示的な実施形態に係る眼科装置(1)は、OCT部(データ取得部250など)と、データ処理部(230)とを含む。OCT部は、被検眼の前眼部の3次元領域に光コヒーレンストモグラフィ(OCT)スキャンを適用してOCTデータを収集する。データ処理部は、このOCTデータを解析して前眼部の混濁領域を特定する。 The ophthalmic device (1) according to the first exemplary embodiment includes an OCT section (such as a data acquisition section 250) and a data processing section (230). The OCT unit applies an optical coherence tomography (OCT) scan to a three-dimensional region of the anterior segment of the subject's eye to collect OCT data. The data processing unit analyzes the OCT data to identify the opacified region of the anterior segment.

このような眼科装置(1)によれば、前眼部の3次元OCTスキャンにより得られたデータから、被検眼内の混濁状態を示す情報を求めることが可能である。したがって、従来の徹照法とは異なる新規な手法によって、被検眼内の混濁状態を把握することが可能になる。 According to such an ophthalmologic apparatus (1), it is possible to obtain information indicating the opacity state in the subject's eye from data obtained by three-dimensional OCT scanning of the anterior segment. Therefore, it is possible to grasp the opacity state in the subject's eye by a new method different from the conventional transillumination method.

第1の例示的な実施形態に係る眼科装置(1)は、データ処理部(230)により特定された混濁領域を表す画像を表示手段(表示部241)に表示させる表示制御部(2102)を更に含んでいてよい。また、表示制御部(2102)は、予め取得された被検眼の画像とともに混濁領域を表す画像を表示させることができる。この被検眼の画像は、眼底の画像であってよい。また、この被検眼の画像は、OCT画像であってもよい。このOCT画像は、OCT部により取得された前眼部の縦断面像を含んでいてもよいし、OCT部により取得された前眼部の正面画像を含んでいてもよい。 The ophthalmologic apparatus (1) according to the first exemplary embodiment includes a display control unit (2102) that causes display means (display unit 241) to display an image representing an opacity region specified by a data processing unit (230). It may further contain In addition, the display control unit (2102) can display an image representing the opacity region together with the image of the subject's eye obtained in advance. This image of the subject's eye may be an image of the fundus. Also, the image of the subject's eye may be an OCT image. This OCT image may include a longitudinal cross-sectional image of the anterior segment acquired by the OCT section, or may include a frontal image of the anterior segment acquired by the OCT section.

このような眼科装置(1)によれば、被検眼の前眼部における混濁箇所を容易に把握することが可能になる。 According to such an ophthalmologic apparatus (1), it is possible to easily grasp the opacity site in the anterior segment of the subject's eye.

第1の例示的な実施形態に係る眼科装置(1)は、被検眼の眼底に光(測定光LS)を投射し、その戻り光に基づき被検眼のデータを取得するデータ取得部(250)を更に含んでいてよい。 The ophthalmologic apparatus (1) according to the first exemplary embodiment includes a data acquisition unit (250) that projects light (measurement light LS) onto the fundus of an eye to be inspected and acquires data of the eye to be inspected based on the returned light. may further include

このような眼科装置(1)によれば、眼底に光を投射して測定や撮影を行うことができるとともに、この測定や撮影の邪魔になる混濁箇所を特定することが可能である。 According to such an ophthalmologic apparatus (1), measurement and photography can be performed by projecting light onto the fundus of the eye, and turbidity that interferes with the measurement and photography can be specified.

第1の例示的な実施形態において、データ取得部(250)は、眼底に光を投射してその戻り光を検出するデータ取得光学系を含んでいてよい。上記実施形態におけるデータ取得光学系は、眼底カメラユニット2に設けられた測定アームを構成する要素群と、OCTユニット100に設けられた要素群とを含む。更に、第1の例示的な実施形態に係る眼科装置(1)は、移動機構(150)と、表示制御部(2102)と、操作部(242)と、駆動制御部(2101)とを含んでいてよい。移動機構は、データ取得光学系を移動する。表示制御部は、データ処理部により特定された混濁領域を表す画像を表示手段(表示部241)に表示させる。操作部は、データ取得光学系のアライメント操作を行うために用いられる。駆動制御部は、操作部からの信号に基づいて移動機構を制御する。 In a first exemplary embodiment, the data acquisition unit (250) may include data acquisition optics that project light onto the fundus and detect the returned light. The data acquisition optical system in the above embodiment includes a group of elements forming a measurement arm provided in the retinal camera unit 2 and a group of elements provided in the OCT unit 100 . Furthermore, the ophthalmologic apparatus (1) according to the first exemplary embodiment includes a movement mechanism (150), a display control section (2102), an operation section (242), and a drive control section (2101). can be A moving mechanism moves the data acquisition optical system. The display control unit causes the display means (display unit 241) to display an image representing the opacity region specified by the data processing unit. The operation unit is used to perform alignment operations for the data acquisition optical system. The drive control section controls the moving mechanism based on a signal from the operation section.

このような眼科装置(1)によれば、新規な手法で取得された被検眼内の混濁状態を参照しつつマニュアルアライメントを行うことが可能である。 According to such an ophthalmologic apparatus (1), it is possible to perform manual alignment while referring to the opacity state in the subject's eye obtained by a novel method.

第1の例示的な実施形態において、データ取得部(250)は、眼底に光を投射してその戻り光を検出するデータ取得光学系を含んでいてよい。更に、第1の例示的な実施形態に係る眼科装置(1)は、移動機構(150)と、駆動制御部(2101)とを含んでいてよい。移動機構は、データ取得光学系を移動する。駆動制御部は、移動機構を制御する。加えて、データ処理部(230)は、混濁領域に基づいてデータ取得光学系の移動目標を決定する移動目標決定部(234)を含んでいてよい。駆動制御部は、この移動目標に基づいて移動機構を制御する。 In a first exemplary embodiment, the data acquisition unit (250) may include data acquisition optics that project light onto the fundus and detect the returned light. Furthermore, the ophthalmic device (1) according to the first exemplary embodiment may include a movement mechanism (150) and a drive controller (2101). A moving mechanism moves the data acquisition optical system. The drive control unit controls the moving mechanism. Additionally, the data processor (230) may include a movement target determiner (234) that determines a movement target for the data acquisition optics based on the opacity region. The drive control section controls the movement mechanism based on this movement target.

このような眼科装置(1)によれば、新規な手法で取得された被検眼内の混濁状態に基づきオートアライメントを行うことが可能である。 According to such an ophthalmologic apparatus (1), it is possible to perform auto-alignment based on the opacity state in the subject's eye obtained by a novel method.

第2の例示的な実施形態に係る眼科装置は、データ取得部(250)と、OCT部(データ取得部250など)と、データ処理部(230A)とを含む。データ取得部は、被検眼の眼底に光(測定光LS)を投射し、その戻り光に基づき被検眼のデータを取得する。OCT部は、被検眼の前眼部の3次元領域に光コヒーレンストモグラフィ(OCT)スキャンを適用してOCTデータを収集する。データ処理部は、このOCTデータを解析して、データ取得部により眼底に光を投射するための対象領域を特定する。 The ophthalmic apparatus according to the second exemplary embodiment includes a data acquisition unit (250), an OCT unit (such as data acquisition unit 250), and a data processing unit (230A). The data acquisition unit projects light (measurement light LS) onto the fundus of the eye to be inspected and acquires data of the eye to be inspected based on the returned light. The OCT unit applies an optical coherence tomography (OCT) scan to a three-dimensional region of the anterior segment of the subject's eye to collect OCT data. The data processing unit analyzes the OCT data and identifies a target region for projecting light onto the fundus by the data acquisition unit.

このような眼科装置によれば、前眼部の3次元OCTスキャンにより得られたデータから、データ取得部による撮影又は測定を適用するための対象領域を求めることが可能である。したがって、従来の徹照法とは異なる新規な手法によって、撮影又は測定に好適な領域を把握することが可能になる。 According to such an ophthalmologic apparatus, it is possible to obtain a target region for applying imaging or measurement by the data acquisition unit from data obtained by three-dimensional OCT scanning of the anterior segment. Therefore, it is possible to grasp a suitable area for photographing or measurement by a new method different from the conventional transillumination method.

第2の例示的な実施形態において、データ取得部(250)は、眼底に光を投射してその戻り光を検出するデータ取得光学系を含んでいてよい。更に、第2の例示的な実施形態に係る眼科装置は、移動機構(150)と、表示制御部(2102)と、操作部(242)と、駆動制御部(2101)とを含んでいてよい。移動機構は、データ取得光学系を移動する。表示制御部は、データ処理部により特定された対象領域を表す画像を表示手段(表示部241)に表示させる。操作部は、データ取得光学系のアライメント操作を行うために用いられる。駆動制御部は、操作部からの信号に基づいて移動機構を制御する。 In a second exemplary embodiment, the data acquisition unit (250) may include data acquisition optics that project light onto the fundus and detect the returned light. Furthermore, the ophthalmologic apparatus according to the second exemplary embodiment may include a movement mechanism (150), a display control section (2102), an operation section (242), and a drive control section (2101). . A moving mechanism moves the data acquisition optical system. The display control unit causes the display means (display unit 241) to display an image representing the target area specified by the data processing unit. The operation section is used to perform alignment operations of the data acquisition optical system. The drive control section controls the moving mechanism based on a signal from the operation section.

このような眼科装置によれば、新規な手法で取得された撮影又は測定に好適な領域を参照しつつマニュアルアライメントを行うことが可能である。 According to such an ophthalmologic apparatus, it is possible to perform manual alignment while referring to a region suitable for imaging or measurement acquired by a new technique.

第2の例示的な実施形態において、データ取得部(250)は、眼底に光を投射してその戻り光を検出するデータ取得光学系を含んでいてよい。更に、第2の例示的な実施形態に係る眼科装置は、移動機構(150)と、駆動制御部(2101)とを含んでいてよい。移動機構は、データ取得光学系を移動する。駆動制御部は、移動機構を制御する。加えて、データ処理部(230)は、対象領域に基づいてデータ取得光学系の移動目標を決定する移動目標決定部(234)を含んでいてよい。駆動制御部は、この移動目標に基づいて移動機構を制御する。 In a second exemplary embodiment, the data acquisition unit (250) may include data acquisition optics that project light onto the fundus and detect the returned light. Furthermore, the ophthalmic device according to the second exemplary embodiment may include a movement mechanism (150) and a drive controller (2101). A moving mechanism moves the data acquisition optical system. The drive control unit controls the moving mechanism. Additionally, the data processor (230) may include a movement target determiner (234) that determines a movement target for the data acquisition optics based on the region of interest. The drive control section controls the movement mechanism based on this movement target.

このような眼科装置によれば、新規な手法で取得された撮影又は測定に好適な領域に基づきオートアライメントを行うことが可能である。 According to such an ophthalmologic apparatus, it is possible to perform auto-alignment based on a region suitable for imaging or measurement acquired by a new technique.

第2の例示的な実施形態に係る眼科装置は、データ処理部(230)により特定された対象領域を表す画像を表示手段(表示部241)に表示させる表示制御部(2102)を更に含んでいてよい。また、表示制御部(2102)は、予め取得された被検眼の画像とともに対象領域を表す画像を表示させることができる。この被検眼の画像は、眼底の画像であってよい。また、この被検眼の画像は、OCT画像であってもよい。このOCT画像は、OCT部により取得された前眼部の縦断面像を含んでいてもよいし、OCT部により取得された前眼部の正面画像を含んでいてもよい。 The ophthalmologic apparatus according to the second exemplary embodiment further includes a display control unit (2102) that causes the display means (display unit 241) to display an image representing the target region specified by the data processing unit (230). you can stay In addition, the display control unit (2102) can display an image representing the target region together with the image of the subject's eye obtained in advance. This image of the subject's eye may be an image of the fundus. Also, the image of the subject's eye may be an OCT image. This OCT image may include a longitudinal cross-sectional image of the anterior segment acquired by the OCT section, or may include a frontal image of the anterior segment acquired by the OCT section.

このような眼科装置によれば、データ取得部により眼底に光を投射するために好適な領域を容易に把握することが可能になる。 According to such an ophthalmologic apparatus, it is possible to easily grasp a suitable area for projecting light onto the fundus by the data acquisition unit.

第1又は第2の例示的な実施形態において、データ取得部(250)は、眼底にOCTスキャンを適用して被検眼のデータを取得するように構成されていてよい。この場合、眼科装置は、例えば、OCTが適用される部位を切り替えるためのレンズユニット(前眼部OCT用アタッチメント400)を備える。なお、OCTが適用される部位を切り替えるために、例えば、光路に沿って移動可能なレンズを備えた構成、又は、光路に対して挿脱可能なレンズを備えた構成を採用することも可能である。 In the first or second exemplary embodiment, the data acquisition unit (250) may be configured to apply an OCT scan to the fundus to acquire data of the subject eye. In this case, the ophthalmologic apparatus includes, for example, a lens unit (anterior segment OCT attachment 400) for switching the site to which OCT is applied. In order to switch the site to which OCT is applied, for example, it is possible to adopt a configuration including a lens that can move along the optical path or a configuration including a lens that can be inserted into and removed from the optical path. be.

第1又は第2の例示的な実施形態において、データ取得部及びOCT部は、共通のスキャン光学系を含んでいてよい。上記実施形態において、共通のスキャン光学系は、眼底カメラユニット2に設けられた測定アームを構成する要素群と、OCTユニット100に設けられた要素群とを含む。 In the first or second exemplary embodiments, the data acquisition section and the OCT section may include common scanning optics. In the above embodiment, the common scanning optical system includes the group of elements that constitute the measurement arm provided in the retinal camera unit 2 and the group of elements provided in the OCT unit 100 .

このような構成によれば、データ取得部及びOCT部の双方が光学的スキャンを実行可能な場合において、光学構成の簡素化を図ることができる。 According to such a configuration, it is possible to simplify the optical configuration when both the data acquisition section and the OCT section can perform optical scanning.

第1又は第2の例示的な実施形態において、データ取得部は、眼底に光を投射してその戻り光を検出するデータ取得光学系を含んでいてよい。更に、第1又は第2の例示的な実施形態に係る眼科装置は、データ取得光学系のオートアライメントを行うためのアライメント系(260)を更に含む。オートアライメントの後、データ取得部は、眼底に向けて光を投射し、その戻り光に基づき被検眼のデータを取得する。データ処理部は、判定部(232)を含む。判定部は、オートアライメントの後にデータ取得部により取得された当該データに基づいて、OCT部によるOCTスキャンを実行するか否か判定する。 In the first or second exemplary embodiments, the data acquisition section may include a data acquisition optical system that projects light onto the fundus and detects the returned light. Furthermore, the ophthalmic apparatus according to the first or second exemplary embodiment further includes an alignment system (260) for auto-aligning the data acquisition optics. After auto-alignment, the data acquisition unit projects light toward the fundus and acquires data of the subject's eye based on the returned light. The data processing section includes a determination section (232). The determination unit determines whether or not to perform an OCT scan by the OCT unit based on the data acquired by the data acquisition unit after auto-alignment.

このような構成によれば、オートアライメントにより満足な結果が得られないときにのみ、前眼部に3次元OCTスキャンを適用して混濁領域又は対象領域を求めるように動作する。したがって、処理の効率化や検査の短時間化を図ることが可能である。 With such a configuration, a 3-dimensional OCT scan is applied to the anterior segment to determine opacified or target regions only when auto-alignment fails to produce satisfactory results. Therefore, it is possible to improve the efficiency of the processing and shorten the inspection time.

以上に説明した態様は、この発明の実施の例示に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を施すことが可能である。 The embodiments described above are merely examples of implementations of the invention. A person who intends to implement this invention can make arbitrary modifications (omission, substitution, addition, etc.) within the scope of the gist of this invention.

1 眼科装置
150 移動機構
210 制御部
2101 駆動制御部
2102 表示制御部
230、230A データ処理部
231 位置情報取得部
232 判定部
233 混濁領域特定部
234 移動目標決定部
235 対象領域特定部
241 表示部
242 操作部
250 データ取得部
260 アライメント系
300 前眼部カメラ
E 被検眼
Ef 眼底

1 ophthalmologic apparatus 150 moving mechanism 210 control unit 2101 drive control unit 2102 display control unit 230, 230A data processing unit 231 position information acquisition unit 232 determination unit 233 opacity area identification unit 234 movement target determination unit 235 target area identification unit 241 display unit 242 Operation unit 250 Data acquisition unit 260 Alignment system 300 Anterior segment camera E Eye to be examined Ef Fundus

Claims (1)

被検眼の眼底に光を投射し、その戻り光に基づき前記被検眼のデータを取得するデータ取得部と、
前記被検眼の前眼部の3次元領域に光コヒーレンストモグラフィ(OCT)スキャンを適用してOCTデータを収集するOCT部と、
前記OCTデータを解析して、前記データ取得部により前記眼底に前記光を投射するための対象領域を特定するデータ処理部と
を含み、
前記データ取得部は、前記眼底に前記光を投射して前記戻り光を検出するデータ取得光学系を含み、
前記データ取得光学系のオートアライメントを行うためのアライメント系を更に含み、
前記オートアライメントの後、前記データ取得部は、前記眼底に向けて光を投射し、その戻り光に基づき前記被検眼のデータを取得し、
前記データ処理部は、前記オートアライメントの後に前記データ取得部により取得された前記被検眼の前記データに基づいて、前記OCT部による前記光コヒーレンストモグラフィ(OCT)スキャンを実行するか否か判定する判定部を含む
ことを特徴とする眼科装置。
a data acquisition unit that projects light onto the fundus of an eye to be inspected and acquires data of the eye to be inspected based on the returned light;
an OCT unit that collects OCT data by applying an optical coherence tomography (OCT) scan to a three-dimensional region of the anterior segment of the eye to be examined;
a data processing unit that analyzes the OCT data and specifies a target area for projecting the light onto the fundus by the data acquisition unit ;
the data acquisition unit includes a data acquisition optical system that projects the light onto the fundus and detects the return light;
further comprising an alignment system for auto-aligning the data acquisition optical system;
After the auto-alignment, the data acquisition unit projects light toward the fundus and acquires data of the eye to be examined based on the returned light,
The data processing unit determines whether or not to perform the optical coherence tomography (OCT) scan by the OCT unit based on the data of the subject eye acquired by the data acquiring unit after the auto-alignment. including decision part
An ophthalmic device characterized by:
JP2022034918A 2018-03-28 2022-03-08 ophthalmic equipment Active JP7288110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022034918A JP7288110B2 (en) 2018-03-28 2022-03-08 ophthalmic equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018062714A JP7117873B2 (en) 2018-03-28 2018-03-28 ophthalmic equipment
JP2022034918A JP7288110B2 (en) 2018-03-28 2022-03-08 ophthalmic equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018062714A Division JP7117873B2 (en) 2018-03-28 2018-03-28 ophthalmic equipment

Publications (2)

Publication Number Publication Date
JP2022075771A JP2022075771A (en) 2022-05-18
JP7288110B2 true JP7288110B2 (en) 2023-06-06

Family

ID=87852305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022034918A Active JP7288110B2 (en) 2018-03-28 2022-03-08 ophthalmic equipment

Country Status (1)

Country Link
JP (1) JP7288110B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120892A (en) 2009-11-11 2011-06-23 Nidek Co Ltd Ophthalmic device
JP2014200679A (en) 2013-04-03 2014-10-27 株式会社トプコン Ophthalmologic apparatus
JP2014512239A5 (en) 2012-04-27 2015-06-18
JP2016067764A (en) 2014-09-30 2016-05-09 株式会社ニデック Fundus photographing apparatus with wavefront compensation
JP2017000469A (en) 2015-06-11 2017-01-05 株式会社トーメーコーポレーション Anterior-eye optical coherence tomography apparatus and anterior-eye optical coherence tomography method
JP2018164636A (en) 2017-03-28 2018-10-25 株式会社トーメーコーポレーション Ophthalmologic apparatus
JP2018186930A (en) 2017-04-28 2018-11-29 株式会社ニデック Ophthalmologic imaging apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9055892B2 (en) * 2011-04-27 2015-06-16 Carl Zeiss Meditec, Inc. Systems and methods for improved ophthalmic imaging

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120892A (en) 2009-11-11 2011-06-23 Nidek Co Ltd Ophthalmic device
JP2014512239A5 (en) 2012-04-27 2015-06-18
JP2014200679A (en) 2013-04-03 2014-10-27 株式会社トプコン Ophthalmologic apparatus
JP2016067764A (en) 2014-09-30 2016-05-09 株式会社ニデック Fundus photographing apparatus with wavefront compensation
JP2017000469A (en) 2015-06-11 2017-01-05 株式会社トーメーコーポレーション Anterior-eye optical coherence tomography apparatus and anterior-eye optical coherence tomography method
JP2018164636A (en) 2017-03-28 2018-10-25 株式会社トーメーコーポレーション Ophthalmologic apparatus
JP2018186930A (en) 2017-04-28 2018-11-29 株式会社ニデック Ophthalmologic imaging apparatus

Also Published As

Publication number Publication date
JP2022075771A (en) 2022-05-18

Similar Documents

Publication Publication Date Title
JP6112846B2 (en) Ophthalmic equipment
JP5989523B2 (en) Ophthalmic equipment
JP6009935B2 (en) Ophthalmic equipment
JP6412707B2 (en) Ophthalmic equipment
JP2023126361A (en) Ophthalmologic apparatus, control method of the same, program and recording medium
CN110269588B (en) Ophthalmologic apparatus and control method therefor
JP2022040372A (en) Ophthalmologic apparatus
JP2022075772A (en) Ophthalmologic apparatus
JP2018198967A (en) Ophthalmologic device
JP7134324B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7181135B2 (en) ophthalmic equipment
JP6736734B2 (en) Ophthalmic photographing device and ophthalmic information processing device
JP6901264B2 (en) Ophthalmic equipment
JP7288110B2 (en) ophthalmic equipment
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6959158B2 (en) Ophthalmic equipment
JP2018051340A (en) Ophthalmologic apparatus
JP7412170B2 (en) Ophthalmological equipment, its evaluation method, program, and recording medium
JP7231366B2 (en) Ophthalmic device and control method for the ophthalmic device
JP6954831B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6310589B2 (en) Ophthalmic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230525

R150 Certificate of patent or registration of utility model

Ref document number: 7288110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150