JP7391586B2 - ophthalmology system - Google Patents

ophthalmology system Download PDF

Info

Publication number
JP7391586B2
JP7391586B2 JP2019176438A JP2019176438A JP7391586B2 JP 7391586 B2 JP7391586 B2 JP 7391586B2 JP 2019176438 A JP2019176438 A JP 2019176438A JP 2019176438 A JP2019176438 A JP 2019176438A JP 7391586 B2 JP7391586 B2 JP 7391586B2
Authority
JP
Japan
Prior art keywords
area
eye
unit
image
iris
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019176438A
Other languages
Japanese (ja)
Other versions
JP2021052862A (en
Inventor
浩樹 櫻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2019176438A priority Critical patent/JP7391586B2/en
Publication of JP2021052862A publication Critical patent/JP2021052862A/en
Application granted granted Critical
Publication of JP7391586B2 publication Critical patent/JP7391586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被検眼の前眼部像を取得する眼科装置、眼科システム、及び眼科装置の制御方法に関する。 The present invention relates to an ophthalmologic apparatus, an ophthalmologic system, and a method for controlling an ophthalmologic apparatus that obtain an anterior segment image of an eye to be examined.

眼の各部の状態(形状、厚み、血流量、及び色素量など)は人種ごとに異なっており、眼の各部における疾患の発生確率についても人種ごとに異なることが知られている(特許文献1から特許文献4参照)。このため、眼科等で取得される被検眼の前眼部像及び被検眼の眼特性(例えば眼底撮影像及び眼底断層像など)と、被検者の人種に関する情報とを関連付けてデータベースに蓄積しておくことで、人種ごとの前眼部像及び眼特性の傾向分析を行ったり、人種ごとに眼の疾患を予測したりすることができる。 The condition of each part of the eye (shape, thickness, blood flow, amount of pigment, etc.) differs by race, and it is known that the probability of disease occurrence in each part of the eye also differs by race (patent (See Patent Documents 1 to 4). For this reason, the anterior segment image of the examinee's eye and ocular characteristics of the examinee's eye (e.g., fundus photographic image and fundus tomogram) obtained at an ophthalmology clinic, etc., are associated with information regarding the examinee's race and stored in a database. By doing so, it is possible to analyze trends in anterior segment images and eye characteristics for each race, and to predict eye diseases for each race.

被検者の人種に関する情報は、作業効率性の観点から自動的に推定することが好ましい。ここで、人種ごとに眼の虹彩に含まれるメラニン色素の量が異なるため、人種に応じて眼の虹彩の色(色分布)も様々であり、人種と虹彩の色との間にはある程度の関係が存在する(特許文献5参照)。このため、眼科において、被検眼の前眼部像を取得してこの前眼部像に映っている虹彩の色(色分布)から被検者の人種を推定することで、上述のデータベースの作成が容易になり、その結果、上述の傾向分析及び疾患の予測が可能になる。 It is preferable that information regarding the race of the subject be automatically estimated from the viewpoint of work efficiency. Here, since the amount of melanin contained in the iris of the eye differs depending on the race, the color of the iris (color distribution) of the eye also varies depending on the race, and there is a difference between race and iris color. There exists a certain degree of relationship (see Patent Document 5). For this reason, in ophthalmology, the patient's ethnicity can be estimated from the iris color (color distribution) reflected in the anterior segment image of the subject's eye by obtaining the anterior segment image of the subject's eye. It is easy to create, and as a result, the above-mentioned trend analysis and disease prediction become possible.

特許5559570号公報Patent No. 5559570 特許4426032号公報Patent No. 4426032 特許6062793号公報Patent No. 6062793 平6-125876号公報Publication No. 6-125876 特開2017-38162号公報JP 2017-38162 Publication

ところで、前眼部像を撮影する際に虹彩が睫毛によりケラレたり或いは虹彩に外乱光が照射されていたりすると、前眼部像の虹彩に対応する虹彩領域内に睫毛又は外乱光の像が映り込んだ領域、すなわち虹彩の色を識別不能な領域が発生してしまう。この場合には、前眼部像の虹彩領域から虹彩の色(色分布)を精度良く検出することができないので、被検者の人種の推定精度が低下してしまう。 By the way, if the iris is eclipsed by eyelashes or ambient light is illuminated on the iris when photographing the anterior segment image, the image of the eyelashes or ambient light will be reflected in the iris area corresponding to the iris in the anterior segment image. This results in a dark area, that is, an area where the color of the iris cannot be discerned. In this case, the color (color distribution) of the iris cannot be accurately detected from the iris region of the anterior segment image, resulting in a decrease in the accuracy of estimating the race of the subject.

本発明はこのような事情に鑑みてなされたものであり、被検者の人種の推定に適した前眼部像が得られる眼科装置、眼科システム、及び眼科装置の制御方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an ophthalmologic apparatus, an ophthalmologic system, and a control method for an ophthalmologic apparatus that can obtain an anterior segment image suitable for estimating the race of a subject. With the goal.

本発明の目的を達成するための眼科装置は、被検眼のカラーの前眼部像を取得する前眼部像取得部と、前眼部像内の被検眼の虹彩に対応する領域を虹彩領域とした場合に、虹彩領域内において虹彩の色を識別不能な識別不能領域を検出する領域検出部と、前眼部像及び領域検出部の検出結果を、虹彩領域の色に基づき被検者の人種を推定する推定部へ出力する出力部と、を備える。 An ophthalmological apparatus for achieving the object of the present invention includes an anterior eye image acquisition unit that acquires a color anterior eye image of the eye to be examined, and an iris area that defines a region corresponding to the iris of the eye to be examined in the anterior eye image. In the case of and an output section that outputs to an estimation section that estimates race.

この眼科装置によれば、推定部が虹彩領域内の識別不能領域以外の領域に基づき、被検者の人種を推定することができる。 According to this ophthalmological apparatus, the estimation unit can estimate the race of the subject based on the area other than the unidentifiable area within the iris area.

本発明の他の態様に係る眼科装置において、被検眼に対して可視光を照射して被検眼の瞳孔を縮小させる可視光照射部を備え、前眼部像取得部が、可視光照射部により可視光が照射されている被検眼の前眼部像を取得する。これにより、推定部による被検者の人種の推定に用いられる前眼部像の内の虹彩領域を拡大させることができるので、推定部による人種の推定処理の精度を高めることができる。 An ophthalmological apparatus according to another aspect of the present invention, including a visible light irradiation unit that irradiates visible light to the eye to be examined to shrink the pupil of the eye to be examined, wherein the anterior segment image acquisition unit is configured to use the visible light irradiation unit to reduce the pupil of the eye to be examined. Obtain an image of the anterior segment of the subject's eye irradiated with visible light. Thereby, it is possible to enlarge the iris region in the anterior segment image used for estimating the race of the subject by the estimating section, and thus it is possible to improve the accuracy of the process of estimating the race by the estimating section.

本発明の他の態様に係る眼科装置において、領域検出部が、虹彩領域の中で虹彩とは異なる像が映っている領域を識別不能領域として検出する。これにより、推定部が虹彩領域内の識別不能領域以外の領域に基づき、被検者の人種を推定することができる。 In the ophthalmological apparatus according to another aspect of the present invention, the area detection unit detects an area in the iris area where an image different from the iris is reflected as an unidentifiable area. This allows the estimation unit to estimate the race of the subject based on the area other than the unidentifiable area within the iris area.

本発明の他の態様に係る眼科装置において、領域検出部が、虹彩領域の中で睫毛又は外乱光が映っている領域を識別不能領域として検出する。これにより、推定部が虹彩領域内の識別不能領域以外の領域に基づき、被検者の人種を推定することができる。 In the ophthalmological apparatus according to another aspect of the present invention, the area detection unit detects an area where eyelashes or ambient light are reflected in the iris area as an unidentifiable area. This allows the estimation unit to estimate the race of the subject based on the area other than the unidentifiable area within the iris area.

本発明の他の態様に係る眼科装置において、被検眼の眼特性を取得する眼特性取得部と、眼特性取得部が取得した眼特性をサーバへ出力する眼特性出力部と、を備える。これにより、被検者の人種推定用の前眼部像の他に、被検眼の眼特性を取得することができる。 An ophthalmologic apparatus according to another aspect of the present invention includes an eye characteristic acquisition section that acquires eye characteristics of a subject's eye, and an eye characteristic output section that outputs the eye characteristics acquired by the eye characteristic acquisition section to a server. Thereby, in addition to the anterior segment image for estimating the race of the subject, it is possible to obtain the ocular characteristics of the subject's eye.

本発明の他の態様に係る眼科装置において、推定部を備え、推定部が、領域検出部の検出結果に基づき、虹彩領域内の識別不能領域とは異なる識別可能領域から、被検者の人種を推定する。これにより、眼科装置単体で被検者の人種を推定することができる。 The ophthalmological apparatus according to another aspect of the present invention includes an estimating section, and the estimating section estimates the human body of the subject from an identifiable area different from an unidentifiable area in the iris area based on the detection result of the area detecting unit. Estimate the species. Thereby, the race of the subject can be estimated using the ophthalmological apparatus alone.

本発明の目的を達成するための眼科システムは、上述の眼科装置と、眼科装置に設けられ、前眼部像をサーバへ出力する前眼部像出力部と、サーバと、を備える。この眼科システムによれば、推定部が虹彩領域内の識別不能領域以外の領域に基づき、被検者の人種を推定することができる。 An ophthalmologic system for achieving the object of the present invention includes the above-described ophthalmologic apparatus, an anterior segment image output unit that is provided in the ophthalmic apparatus and outputs an anterior segment image to a server, and a server. According to this ophthalmologic system, the estimation unit can estimate the race of the subject based on the area other than the unidentifiable area within the iris area.

本発明の他の態様に係る眼科システムにおいて、推定部が、サーバに設けられており、領域検出部の検出結果に基づき、虹彩領域内の識別不能領域とは異なる識別可能領域から、被検者の人種を推定する。これにより、サーバにおいて被検者の人種を推定することができる。 In the ophthalmological system according to another aspect of the present invention, the estimating unit is provided in the server, and based on the detection result of the area detecting unit, the estimating unit detects the subject from an identifiable area different from an unidentifiable area in the iris area. Estimate the race of. This allows the server to estimate the race of the subject.

本発明の他の態様に係る眼科システムにおいて、領域検出部の検出結果に基づき、虹彩領域の中で識別不能領域とは異なる識別可能領域を用いて識別不能領域を補間処理する補間部が、眼科装置又はサーバに設けられており、推定部が、眼科装置又はサーバに設けられており、補間部により補間処理された虹彩領域に基づき、被検者の人種を推定する。これにより、推定部が虹彩領域の全領域に基づき被検者の人種の推定を行うことができるので、推定部による人種の推定処理の精度を高めることができる。 In the ophthalmological system according to another aspect of the present invention, the interpolation unit performs interpolation processing on the unidentifiable area using an identifiable area different from the unidentifiable area in the iris area based on the detection result of the area detecting unit. The estimation unit is provided in the ophthalmological apparatus or server, and estimates the race of the subject based on the iris area interpolated by the interpolation unit. Thereby, the estimating section can estimate the race of the subject based on the entire iris region, so that the accuracy of the estimating process of the race by the estimating section can be improved.

本発明の他の態様に係る眼科システムにおいて、前眼部像取得部が、被検眼を互いに異なる方向から撮影する複数のカメラから前眼部像を取得し、補間部が、複数のカメラの中の第1カメラにより撮影された前眼部像内の識別可能領域に基づき、複数のカメラの中の第1カメラとは異なる第2カメラにより撮影された前眼部像の識別不能領域を補間処理する。これにより、推定部が虹彩領域の全領域に基づき被検者の人種の推定を行うことができる。 In the ophthalmological system according to another aspect of the present invention, the anterior eye segment image acquisition unit acquires anterior eye segment images from a plurality of cameras that photograph the subject's eye from different directions, and the interpolation unit acquires anterior eye segment images from a plurality of cameras that photograph the subject's eye from different directions. Interpolation processing is performed on the unidentifiable area of the anterior eye image taken by a second camera different from the first camera among the plurality of cameras, based on the identifiable area in the anterior eye image taken by the first camera of the plurality of cameras. do. This allows the estimation unit to estimate the race of the subject based on the entire iris region.

本発明の他の態様に係る眼科システムにおいて、サーバが、前眼部像と推定部の推定結果とを関連付けてデータベースに記憶させる。これにより、データベースを人種ごとの眼の各種研究に利用することができる。 In the ophthalmological system according to another aspect of the present invention, the server stores the anterior segment image and the estimation result of the estimation unit in a database in association with each other. This allows the database to be used for various types of eye research for each race.

本発明の他の態様に係る眼科システムにおいて、眼科装置に、被検眼の眼特性を取得する眼特性取得部と、眼特性取得部が取得した眼特性をサーバへ出力する眼特性出力部と、が設けられており、サーバが、前眼部像及び眼特性と、推定部の推定結果とを関連付けてデータベースに記憶させる。これにより、データベースを人種ごとの眼の各種研究に利用することができる。 In the ophthalmologic system according to another aspect of the present invention, the ophthalmologic apparatus includes an eye characteristic acquisition section that acquires the eye characteristics of the eye to be examined, and an eye characteristic output section that outputs the eye characteristics acquired by the eye characteristic acquisition section to the server. A server associates the anterior segment image and eye characteristics with the estimation results of the estimator and stores them in a database. This allows the database to be used for various types of eye research for each race.

本発明の他の態様に係る眼科システムにおいて、前眼部像取得部により取得された前眼部像の色を、予め定められた標準光源による被検眼の照明下で前眼部像取得部により取得される前眼部像の色に色補正する色補正部が、眼科装置又はサーバに設けられている。これにより、前眼部像を、あたかも同一光源(標準光源)による照明下で撮影されたかのように色補正することができる。 In the ophthalmological system according to another aspect of the present invention, the color of the anterior eye image acquired by the anterior eye image acquisition unit is determined by the anterior eye image acquisition unit under illumination of the eye to be examined using a predetermined standard light source. A color correction unit that performs color correction to the color of the acquired anterior segment image is provided in the ophthalmologic apparatus or server. Thereby, the color of the anterior segment image can be corrected as if it were photographed under illumination by the same light source (standard light source).

本発明の他の態様に係る眼科システムにおいて、前眼部像内の被検眼の瞳孔に対応する領域を瞳孔領域とした場合に、前眼部像取得部により取得された前眼部像内の虹彩領域及び瞳孔領域を画像処理して、瞳孔領域の瞳孔径を予め定められた大きさに補正する瞳孔径補正部が、眼科装置又はサーバに設けられている。これにより、前眼部像内の瞳孔領域の瞳孔径を予め定められた大きさに補正することができる。 In the ophthalmological system according to another aspect of the present invention, when the area corresponding to the pupil of the subject's eye in the anterior eye image is defined as the pupil area, the area in the anterior eye image acquired by the anterior eye image acquisition unit is An ophthalmological apparatus or a server is provided with a pupil diameter correction unit that performs image processing on the iris region and the pupil region to correct the pupil diameter of the pupil region to a predetermined size. Thereby, the pupil diameter of the pupil area in the anterior segment image can be corrected to a predetermined size.

本発明の目的を達成するための眼科装置の制御方法は、被検眼のカラーの前眼部像を取得する前眼部像取得ステップと、前眼部像内の被検眼の虹彩に対応する領域を虹彩領域とした場合に、虹彩領域内において虹彩の色を識別不能な識別不能領域を検出する領域検出ステップと、前眼部像及び領域検出ステップの検出結果を、虹彩領域の色に基づき被検者の人種を推定する推定部へ出力する出力ステップと、を有する。 A method for controlling an ophthalmological apparatus to achieve the object of the present invention includes an anterior eye image acquisition step of acquiring a color anterior eye image of the eye to be examined, and an area corresponding to the iris of the eye to be examined in the anterior eye image. is the iris region, the detection results of the region detection step for detecting an indiscernible region where the color of the iris cannot be discerned in the iris region and the anterior eye image and region detection step are calculated based on the color of the iris region. and an output step of outputting to an estimator that estimates the examiner's race.

本発明は、被検者の人種の推定に適した前眼部像が得られる。 According to the present invention, an anterior segment image suitable for estimating the race of a subject can be obtained.

第1実施形態の眼科システムの概略図であるIt is a schematic diagram of an ophthalmology system of a first embodiment. 眼科装置の構成の一例を示す概略図である。FIG. 1 is a schematic diagram showing an example of the configuration of an ophthalmologic apparatus. 第1実施形態の眼科装置の演算制御ユニット及びサーバの制御部の機能ブロック図である。It is a functional block diagram of the arithmetic control unit of the ophthalmological apparatus of 1st Embodiment, and the control part of a server. 視標表示部による被検眼への白色光の照射前及び照射中にそれぞれステレオカメラにより取得される前眼部像を示した説明図である。FIG. 6 is an explanatory diagram showing anterior segment images obtained by a stereo camera before and during irradiation of white light onto the subject's eye by the optotype display unit, respectively. 虹彩領域解析部による虹彩領域内のNG領域の検出を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining detection of an NG area within an iris area by an iris area analysis unit. 虹彩領域解析部による虹彩領域内のNG領域の検出を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining detection of an NG area within an iris area by an iris area analysis unit. 色補正部による色補正処理を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining color correction processing by a color correction section. 瞳孔径補正部による補正処理を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining correction processing by a pupil diameter correction section. 第1実施形態の眼科システムによる被検眼の眼特性取得処理の流れ、特に本発明の眼科装置の制御方法に係る人種推定用の前眼部像の取得及びデータベースへの蓄積の流れを示すフローチャートである。A flowchart illustrating the flow of the eye characteristics acquisition process of the eye to be examined by the ophthalmology system of the first embodiment, particularly the flow of acquiring the anterior segment image for race estimation and storing it in the database according to the method of controlling the ophthalmology apparatus of the present invention. It is. 第2実施形態の眼科システムを構成する眼科装置及びサーバのブロック図である。It is a block diagram of an ophthalmology apparatus and a server which constitute an ophthalmology system of a 2nd embodiment. 補間部によるNG領域の補間処理の第1例を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining a first example of interpolation processing for an NG area by an interpolation unit. 補間部によるNG領域の補間処理の第2例を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining a second example of interpolation processing for an NG area by an interpolation unit. 第2実施形態の眼科システムによる被検眼の眼特性取得処理の流れ、特に本発明の眼科装置の制御方法に係る人種推定用の前眼部像の取得及びデータベースへの蓄積の流れを示すフローチャートである。A flowchart showing the flow of the eye characteristics acquisition process of the eye to be examined by the ophthalmological system of the second embodiment, particularly the flow of acquiring the anterior segment image for race estimation and storing it in the database according to the control method of the ophthalmological apparatus of the present invention. It is. 第2実施形態の眼科システムの変形例のブロック図である。It is a block diagram of the modification of the ophthalmology system of 2nd Embodiment. 第3実施形態の眼科システムを構成する眼科装置及びサーバのブロック図である。It is a block diagram of an ophthalmology apparatus and a server which constitute an ophthalmology system of a 3rd embodiment.

[第1実施形態の眼科システム]
図1は、第1実施形態の眼科システム9の概略図である。図1に示すように、眼科システム9は、複数(単数でも可)の眼科装置10と、サーバ11と、データベース12と、を備える。
[Ophthalmology system of first embodiment]
FIG. 1 is a schematic diagram of an ophthalmologic system 9 according to a first embodiment. As shown in FIG. 1, the ophthalmologic system 9 includes a plurality (or a single device) of ophthalmologic devices 10, a server 11, and a database 12.

眼科装置10は、被検眼E(図2参照)の眼特性を取得(測定、撮影、及び観察等)する。本実施形態の眼科装置10は、眼底カメラと、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を用いて断層像であるOCT画像16を得る光干渉断層計と、を組み合わせた複合機である。 The ophthalmological apparatus 10 acquires (measures, photographs, observes, etc.) the eye characteristics of the eye E to be examined (see FIG. 2). The ophthalmologic apparatus 10 of this embodiment is a multifunction device that combines a fundus camera and an optical coherence tomography device that uses optical coherence tomography (OCT) to obtain an OCT image 16, which is a tomographic image.

眼科装置10は、被検眼Eの前眼部Ea(図2参照)をステレオ撮影して前眼部像14(前眼部観察像ともいう)を取得すると共に、被検眼Eの眼特性としてその眼底Ef(図2参照)の眼底撮影像15及びOCT画像16を取得する。そして、眼科装置10は、前眼部像14と、被検眼Eの眼特性の取得結果である眼底撮影像15及びOCT画像16と、をサーバ11へ出力する。また、眼科装置10は、被検者の固有識別情報である患者ID(identification)等のID情報17を各画像14~16と共にサーバ11へ出力する。 The ophthalmological apparatus 10 stereoscopically photographs the anterior eye segment Ea (see FIG. 2) of the eye E to be examined to obtain an anterior eye image 14 (also referred to as an observation image of the anterior eye segment), and also acquires the eye characteristic as the eye characteristic of the eye E to be examined. A fundus photographed image 15 and an OCT image 16 of the fundus Ef (see FIG. 2) are acquired. Then, the ophthalmologic apparatus 10 outputs the anterior segment image 14 and the fundus photographed image 15 and OCT image 16, which are the acquisition results of the eye characteristics of the eye E, to the server 11. Further, the ophthalmological apparatus 10 outputs ID information 17 such as a patient ID (identification), which is unique identification information of the subject, to the server 11 together with each of the images 14 to 16.

サーバ11は、眼科装置10から入力された各画像14~16及びID情報17をデータベース12に記憶させる。また、サーバ11は、眼科装置10から入力された前眼部像14に基づき被検者の人種を推定する推定処理を行い、その推定処理の結果を示す人種情報18を各画像14~16及びID情報17に関連付けてデータベース12に記憶させる。なお、ここでいう「人種」とは、現生人類を骨格、皮膚、及び毛髪などの形質的特徴により区分したものである。また、本明細書における「人種」には、人種的又は地域的起源が同一(略同一を含む)である人の集団を示す「民族」も含まれるものとする。 The server 11 stores each of the images 14 to 16 and the ID information 17 input from the ophthalmological apparatus 10 in the database 12. The server 11 also performs an estimation process to estimate the race of the subject based on the anterior segment image 14 inputted from the ophthalmological apparatus 10, and adds race information 18 indicating the result of the estimation process to each image 14 to 16 and ID information 17 and stored in the database 12. Note that "race" as used herein refers to the division of modern humans based on physical characteristics such as skeleton, skin, and hair. In addition, the term "race" in this specification also includes "ethnicity" which refers to a group of people who have the same (including substantially the same) racial or regional origin.

データベース12は、サーバ11から入力される各画像14~16及び人種情報18を蓄積する。なお、データベース12がサーバ11の内部に構築されていてもよい。 The database 12 stores images 14 to 16 and race information 18 input from the server 11. Note that the database 12 may be constructed inside the server 11.

[眼科装置の構成]
図2は、眼科装置10の構成の一例を示す概略図である。なお、図中のX方向は被検者を基準とした左右方向(被検眼Eの眼幅方向)であり、Y方向は上下方向であり、Z方向は被検者(被検眼E)に近づく前方向と被検者から遠ざかる後方向とに平行な前後方向(作動距離方向ともいう)である。
[Configuration of ophthalmological device]
FIG. 2 is a schematic diagram showing an example of the configuration of the ophthalmologic apparatus 10. Note that the X direction in the figure is the left-right direction with respect to the subject (the interpupillary direction of the subject's eye E), the Y direction is the vertical direction, and the Z direction approaches the subject (the subject's eye E). This is the front-rear direction (also referred to as the working distance direction) parallel to the front direction and the rear direction moving away from the subject.

図2に示すように、眼科装置10は、眼底カメラユニット10a、OCTユニット10b、ステレオカメラ20、及び演算制御ユニット22等を備える。なお、図中の符号OAは対物レンズ43の光軸である。 As shown in FIG. 2, the ophthalmologic apparatus 10 includes a fundus camera unit 10a, an OCT unit 10b, a stereo camera 20, an arithmetic control unit 22, and the like. Note that the symbol OA in the figure is the optical axis of the objective lens 43.

眼底カメラユニット10aは、従来の眼底カメラとほぼ同様の光学系を有しており、対物レンズ43を通して、被検眼Eの前眼部Ea及び眼底Efの各種観察像を取得(撮影)すると共に、被検眼Eの眼特性として眼底Efの眼底撮影像15を取得する。また、OCTユニット10bは、対物レンズ43及び眼底カメラユニット10aの一部の光学系を通して、被検眼Eの眼特性として眼底EfのOCT画像16を取得する。このため、眼底カメラユニット10a及びOCTユニット10bは、本発明の眼特性取得部として機能する。 The fundus camera unit 10a has almost the same optical system as a conventional fundus camera, and acquires (photographs) various observation images of the anterior segment Ea and the fundus Ef of the eye E through the objective lens 43. A photographed fundus image 15 of the fundus Ef is obtained as the eye characteristics of the eye E to be examined. Further, the OCT unit 10b acquires an OCT image 16 of the fundus Ef as an eye characteristic of the eye E through the objective lens 43 and a part of the optical system of the fundus camera unit 10a. Therefore, the fundus camera unit 10a and the OCT unit 10b function as an ocular characteristic acquisition section of the present invention.

演算制御ユニット22は、眼科装置10の筐体内に収容されており、各種の演算処理及び制御処理等を実行するパーソナルコンピュータ等の演算処理装置である。 The arithmetic control unit 22 is housed within the housing of the ophthalmological apparatus 10, and is an arithmetic processing device such as a personal computer that executes various arithmetic processing and control processing.

<眼底カメラユニット>
眼底カメラユニット10aは、照明光学系30及び撮像光学系50を備える。
<Funus camera unit>
The fundus camera unit 10a includes an illumination optical system 30 and an imaging optical system 50.

照明光学系30は、眼底Efに対して照明光を照射する。撮像光学系50は、眼底Efで反射された照明光の眼底反射光を、例えばCMOS(Complementary Metal Oxide Semiconductor)型又はCCD(Charge Coupled Device)型の撮像素子57,60に導く。また、撮像光学系50は、OCT光学系80(OCTユニット10b)から出力された信号光を眼底Efに導くと共に、眼底Efを経由した信号光をOCT光学系80に導く。 The illumination optical system 30 irradiates the fundus Ef with illumination light. The imaging optical system 50 guides the fundus reflected light of the illumination light reflected by the fundus Ef to imaging elements 57 and 60 of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type or a CCD (Charge Coupled Device) type. The imaging optical system 50 also guides the signal light output from the OCT optical system 80 (OCT unit 10b) to the fundus Ef, and guides the signal light that has passed through the fundus Ef to the OCT optical system 80.

照明光学系30は、観察光源31、反射ミラー32、集光レンズ33、可視カットフィルタ34、撮影光源35、ミラー36、リレーレンズ37,38、絞り39、リレーレンズ40、孔開きミラー41、ダイクロイックミラー42、及び対物レンズ43等を備える。 The illumination optical system 30 includes an observation light source 31, a reflection mirror 32, a condensing lens 33, a visible cut filter 34, a photographing light source 35, a mirror 36, relay lenses 37 and 38, an aperture 39, a relay lens 40, an aperture mirror 41, and a dichroic lens. It includes a mirror 42, an objective lens 43, and the like.

撮像光学系50は、既述の対物レンズ43、ダイクロイックミラー42、及び孔開きミラー41の他に、合焦レンズ51、ミラー52、ハーフミラー53、視標表示部54、ダイクロイックミラー55、集光レンズ56、撮像素子57、ミラー58、集光レンズ59、及び撮像素子60等を備える。 The imaging optical system 50 includes, in addition to the objective lens 43, dichroic mirror 42, and apertured mirror 41 described above, a focusing lens 51, a mirror 52, a half mirror 53, an optotype display section 54, a dichroic mirror 55, and a light condenser. It includes a lens 56, an image sensor 57, a mirror 58, a condenser lens 59, an image sensor 60, and the like.

観察光源31は、例えばハロゲンランプ又はLED(light emitting diode)等が用いられ、観察照明光を出射する。観察光源31から出射された観察照明光は、反射ミラー32により反射され、集光レンズ33を経由して可視カットフィルタ34を透過することにより近赤外光となる。可視カットフィルタ34を透過した観察照明光は、撮影光源35の近傍にて一旦集束し、ミラー36により反射され、リレーレンズ37,38、絞り39、及びリレーレンズ40を経由する。そして、観察照明光は、孔開きミラー41の周辺部(孔部の周囲の領域)にて反射された後、ダイクロイックミラー42を透過し、さらに対物レンズ43により屈折されて眼底Efを照明する。 The observation light source 31 is, for example, a halogen lamp or an LED (light emitting diode), and emits observation illumination light. The observation illumination light emitted from the observation light source 31 is reflected by the reflection mirror 32, passes through the visible cut filter 34 via the condenser lens 33, and becomes near-infrared light. The observation illumination light that has passed through the visible cut filter 34 is once focused in the vicinity of the photographing light source 35, reflected by a mirror 36, and passes through relay lenses 37, 38, an aperture 39, and a relay lens 40. The observation illumination light is reflected at the periphery of the apertured mirror 41 (area around the aperture), passes through the dichroic mirror 42, and is further refracted by the objective lens 43 to illuminate the fundus Ef.

観察照明光の眼底反射光は、対物レンズ43により屈折され、ダイクロイックミラー42、孔開きミラー41の中心領域に形成された孔部、及び合焦レンズ51を経由した後、ミラー52により反射される。さらに、この眼底反射光は、ハーフミラー53を透過した後、ダイクロイックミラー55により反射されることで、集光レンズ56により撮像素子57の受光面に結像される。撮像素子57は、眼底反射光を撮像(受光)して撮像信号を後述の演算制御ユニット22へ出力する。演算制御ユニット22は、撮像素子57から出力された撮像信号に基づく観察像をモニタ23に表示させる。なお、撮像光学系50のピントが被検眼Eの前眼部Eaに調整されている場合には前眼部Eaの観察画像がモニタ23に表示され、撮像光学系50のピントが眼底Efに調整されている場合には眼底Efの観察像がモニタ23に表示される。 The fundus reflected light of the observation illumination light is refracted by the objective lens 43, passes through the dichroic mirror 42, a hole formed in the center area of the perforated mirror 41, and the focusing lens 51, and is then reflected by the mirror 52. . Further, this fundus reflected light is transmitted through the half mirror 53 and then reflected by the dichroic mirror 55, so that an image is formed on the light receiving surface of the image sensor 57 by the condenser lens 56. The image sensor 57 images (receives) the fundus reflected light and outputs an image signal to the arithmetic and control unit 22, which will be described later. The arithmetic control unit 22 causes the monitor 23 to display an observation image based on the imaging signal output from the imaging device 57. Note that when the focus of the imaging optical system 50 is adjusted to the anterior segment Ea of the eye E to be examined, an observation image of the anterior segment Ea is displayed on the monitor 23, and the focus of the imaging optical system 50 is adjusted to the fundus Ef. If so, an observed image of the fundus Ef is displayed on the monitor 23.

撮影光源35は、例えばキセノンランプ又はLED光源等が用いられ、撮影照明光を出射する。撮影光源35から出射された撮影照明光は、既述の観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光の眼底反射光と同様の経路を通ってダイクロイックミラー55まで導かれ、このダイクロイックミラー55を透過した後、ミラー58により反射されることで、集光レンズ59により撮像素子60の受光面に結像される。 The photographing light source 35 is, for example, a xenon lamp or an LED light source, and emits photographic illumination light. The photographic illumination light emitted from the photographic light source 35 passes through the same path as the observation illumination light described above and is irradiated onto the fundus Ef. The fundus reflected light of the photography illumination light is guided to the dichroic mirror 55 through the same path as the fundus reflected light of the observation illumination light, and after passing through this dichroic mirror 55, it is reflected by the mirror 58, and is condensed. The lens 59 forms an image on the light receiving surface of the image sensor 60 .

撮像素子60は、眼底反射光を撮像(受光)して眼底撮影像15(画像データ)を後述の演算制御ユニット22へ出力する。演算制御ユニット22は、撮像素子60から出力された眼底撮影像15をモニタ23に表示させる。なお、撮像素子57により撮像された各種観察像を表示するモニタ23と、撮像素子60により撮像された眼底撮影像15を表示するモニタ23とは、同一のものであってもよいし、互いに異なるものであってもよい。 The image sensor 60 images (receives) the fundus reflected light and outputs a fundus photographed image 15 (image data) to the arithmetic and control unit 22, which will be described later. The arithmetic control unit 22 causes the monitor 23 to display the fundus photographed image 15 output from the image sensor 60. Note that the monitor 23 that displays various observation images captured by the image sensor 57 and the monitor 23 that displays the fundus photographed image 15 captured by the image sensor 60 may be the same or may be different from each other. It may be something.

視標表示部54は、対物レンズ43を通して被検眼Eに固視標(輝点像)の固視光を投射する内部固視に用いられるものであり、例えばドットマトリクス液晶ディスプレイ(LCD:Liquid Crystal Display)及びマトリクス発光ダイオード(LED)などが用いられる。この視標表示部54は固視標を表示する。また、視標表示部54は、固視標の表示態様(形状等)及び表示位置を任意に設定可能である。 The optotype display unit 54 is used for internal fixation to project fixation light of a fixation target (bright spot image) onto the eye E through the objective lens 43, and is, for example, a dot matrix liquid crystal display (LCD). Displays) and matrix light emitting diodes (LEDs) are used. This visual target display section 54 displays a fixation target. Furthermore, the visual target display section 54 can arbitrarily set the display mode (shape, etc.) and display position of the fixation target.

視標表示部54に表示された固視標の固視光は、その一部がハーフミラー53にて反射された後、ミラー52、合焦レンズ51、ダイクロイックミラー55、孔開きミラー41の孔部、ダイクロイックミラー42、及び対物レンズ43を経て被検眼Eに投射される。これにより、対物レンズ43を通して、被検眼Eに対して固視標及び視力測定用視標などが提示される。 A part of the fixation light from the fixation target displayed on the optotype display section 54 is reflected by the half mirror 53 and then reflected by the mirror 52, the focusing lens 51, the dichroic mirror 55, and the hole of the perforated mirror 41. The light is projected onto the eye E through the dichroic mirror 42 and the objective lens 43. As a result, a fixation target, an optotype for visual acuity measurement, and the like are presented to the eye E through the objective lens 43.

また、視標表示部54は、データベース12に蓄積される被検者の人種の推定用(以下、単に「人種推定用」と略す)の前眼部像14の撮影をステレオカメラ20で実行する場合に、可視光である白色光を被検眼Eに照射する光源として機能する。すなわち、視標表示部54は、本発明の可視光照射部として機能する。なお、詳しくは後述するが、被検眼Eの瞳孔を縮小可能であれば、視標表示部54から白色光以外の各種可視光を被検眼Eに照射してもよい。 The optotype display unit 54 also uses the stereo camera 20 to capture an anterior segment image 14 for estimating the race of the subject (hereinafter simply referred to as "for race estimation") stored in the database 12. When executed, it functions as a light source that irradiates the eye E with visible white light. That is, the optotype display section 54 functions as a visible light irradiation section of the present invention. Although details will be described later, as long as the pupil of the eye E can be reduced, the eye E may be irradiated with various types of visible light other than white light from the optotype display section 54.

眼底カメラユニット10aは、フォーカス光学系70を備える。フォーカス光学系70は、眼底Efに対してフォーカス(ピント)を合わせるためのスプリット指標を生成する。フォーカス光学系70は、既述の対物レンズ43、ダイクロイックミラー42、及び孔開きミラー41の他に、LED71、リレーレンズ72、スプリット指標板73、二孔絞り74、ミラー75、集光レンズ76、及び反射棒77を備える。 The fundus camera unit 10a includes a focus optical system 70. The focus optical system 70 generates a split index for focusing on the fundus Ef. In addition to the objective lens 43, dichroic mirror 42, and perforated mirror 41 described above, the focus optical system 70 includes an LED 71, a relay lens 72, a split index plate 73, a two-hole diaphragm 74, a mirror 75, a condensing lens 76, and a reflecting rod 77.

反射棒77の反射面は、フォーカス光学系70によるフォーカス調整が行われる場合に照明光学系30の光路上にセットされる。LED71から出射されたフォーカス光は、リレーレンズ72を通過し、スプリット指標板73により2つの光束に分離された後、二孔絞り74、ミラー75、及び集光レンズ76を経て反射棒77の反射面に一旦結像され、この反射面にてリレーレンズ40に向けて反射される。さらにフォーカス光は、リレーレンズ40、孔開きミラー41、ダイクロイックミラー42、及び対物レンズ43を経て眼底Efに投射される。 The reflective surface of the reflective rod 77 is set on the optical path of the illumination optical system 30 when the focus optical system 70 performs focus adjustment. The focused light emitted from the LED 71 passes through the relay lens 72 and is separated into two light beams by the split index plate 73, then passes through the two-hole diaphragm 74, the mirror 75, and the condensing lens 76, and is reflected by the reflection bar 77. An image is once formed on the surface, and is reflected toward the relay lens 40 on this reflective surface. Further, the focused light passes through a relay lens 40, an apertured mirror 41, a dichroic mirror 42, and an objective lens 43, and is projected onto the fundus Ef.

フォーカス光の眼底反射光は、対物レンズ43、ダイクロイックミラー42、及び孔開きミラー41の孔部を経由し、その一部がダイクロイックミラー55を透過した後、合焦レンズ51、ミラー52、ハーフミラー53、ダイクロイックミラー55、及び集光レンズ56を経て撮像素子57により撮像される。撮像素子57は、フォーカス光の眼底反射光を撮像して撮像信号を出力する。これにより、モニタ23に観察画像と共にスプリット指標が表示される。後述の演算制御ユニット22は、従来と同様に、スプリット指標の位置を解析して合焦レンズ51等を移動させてピント合わせを自動で行う。また、モニタ23に表示されるスプリット指標に基づき検者が手動でピント合わせを行ってもよい。 The fundus reflected light of the focusing light passes through the objective lens 43, the dichroic mirror 42, and the hole of the apertured mirror 41, and a part of it passes through the dichroic mirror 55, and then passes through the focusing lens 51, the mirror 52, and the half mirror. 53, a dichroic mirror 55, and a condensing lens 56, the image is captured by an image sensor 57. The image sensor 57 images the fundus reflected light of the focus light and outputs an image signal. As a result, the split index is displayed on the monitor 23 together with the observed image. The arithmetic and control unit 22, which will be described later, analyzes the position of the split index and moves the focusing lens 51 and the like to automatically adjust the focus, as in the conventional case. Alternatively, the examiner may manually adjust the focus based on the split index displayed on the monitor 23.

ダイクロイックミラー42は、眼底撮影用の光路からOCT光学系80の光路を分岐させている。ダイクロイックミラー42は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT光学系80の光路には、OCTユニット10b側から順に、コリメータレンズユニット81と、光路長変更部82と、ガルバノスキャナ83と、合焦レンズ84と、ミラー85と、リレーレンズ86と、が設けられている。 The dichroic mirror 42 branches the optical path of the OCT optical system 80 from the optical path for photographing the fundus. The dichroic mirror 42 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photography. The optical path of this OCT optical system 80 includes, in order from the OCT unit 10b side, a collimator lens unit 81, an optical path length changing section 82, a galvano scanner 83, a focusing lens 84, a mirror 85, and a relay lens 86. is provided.

光路長変更部82は、例えばコーナーキューブと、これを移動する機構と、を含む。光路長変更部82は、図中に示す矢印の方向に移動可能とされ、OCT光学系80の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正、及び干渉状態の調整などに利用される。 The optical path length changing unit 82 includes, for example, a corner cube and a mechanism for moving the corner cube. The optical path length changing unit 82 is movable in the direction of the arrow shown in the figure, and changes the optical path length of the OCT optical system 80. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E to be examined, adjusting the interference state, and the like.

ガルバノスキャナ83は、OCT光学系80の光路を通過する信号光の進行方向を変更する。これにより、眼底Efを信号光で走査することができる。ガルバノスキャナ83は、たとえば、信号光をX方向に走査するガルバノミラーと、Y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含む。これにより、信号光をXY平面上の任意の方向に走査することができる。 The galvano scanner 83 changes the traveling direction of the signal light passing through the optical path of the OCT optical system 80. Thereby, the fundus Ef can be scanned with the signal light. The galvano scanner 83 includes, for example, a galvano mirror that scans the signal light in the X direction, a galvano mirror that scans the signal light in the Y direction, and a mechanism that independently drives these. Thereby, the signal light can be scanned in any direction on the XY plane.

<OCTユニット>
OCTユニット10bは、OCT画像16の取得に用いられる干渉光学系を備える。このOCTユニット10bは、公知のOCT装置と同様に、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出する。OCTユニット10bによる検出結果(検出信号)は、演算制御ユニット22へ出力される。なお、OCTユニット10bの具体的な構成については公知技術(例えば特開2013-248376号公報参照)であるので、ここでは具体的な説明は省略する。
<OCT unit>
The OCT unit 10b includes an interference optical system used to obtain the OCT image 16. This OCT unit 10b, like a known OCT device, splits a low coherence light into a reference light and a signal light, and causes the signal light that has passed through the fundus Ef to interfere with the reference light that has passed through the reference optical path to generate interference light. and detect the spectral components of this interference light. The detection result (detection signal) by the OCT unit 10b is output to the arithmetic control unit 22. Note that the specific configuration of the OCT unit 10b is a known technology (for example, see Japanese Patent Application Laid-Open No. 2013-248376), so a specific description thereof will be omitted here.

<ステレオカメラ>
ステレオカメラ20は、一対のカメラ20a及びカメラ20bを備える。カメラ20a及びカメラ20bは、対物レンズ43をその左右から挟み込むように配置されており、前眼部Eaを互いに異なる方向、本実施形態では左右方向から同時(略同時を含む)に撮影する。なお、図中の符号OBは、カメラ20a及びカメラ20bの光軸である。
<Stereo camera>
The stereo camera 20 includes a pair of cameras 20a and 20b. The camera 20a and the camera 20b are arranged to sandwich the objective lens 43 from the left and right sides, and photograph the anterior eye segment Ea from different directions, in this embodiment, from the left and right directions simultaneously (including substantially simultaneously). Note that the symbol OB in the figure is the optical axis of the camera 20a and the camera 20b.

カメラ20a,20bは左右方向から前眼部Eaをそれぞれカラー撮影して、前眼部Eaの観察像であるカラーの前眼部像14を演算制御ユニット22に出力する。以下、カメラ20aにより撮影された前眼部像14を「前眼部像14a」といい、カメラ20bにより撮影された前眼部像14を「前眼部像14b」という。これら前眼部像14a,14bは、被検眼Eに対する眼科装置10のオートアライメントと、後述のサーバ11で実行される被検者の人種の推定処理と、に用いられる。 The cameras 20a and 20b take color photographs of the anterior eye segment Ea from the left and right directions, respectively, and output a color anterior eye segment image 14, which is an observed image of the anterior eye segment Ea, to the arithmetic and control unit 22. Hereinafter, the anterior eye segment image 14 photographed by the camera 20a will be referred to as the "anterior eye segment image 14a", and the anterior eye segment image 14 photographed by the camera 20b will be referred to as the "anterior eye segment image 14b". These anterior segment images 14a and 14b are used for automatic alignment of the ophthalmological apparatus 10 with respect to the eye E to be examined, and for estimation processing of the race of the examinee executed by the server 11, which will be described later.

[演算制御ユニット]
図3は、第1実施形態の眼科装置10の演算制御ユニット22及びサーバ11の制御部140の機能ブロック図である。図3に示すように、演算制御ユニット22は、眼科装置10の各部の動作を統括制御する。この演算制御ユニット22の機能は、各種のプロセッサ(Processor)を用いて実現される。各種のプロセッサには、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、及びプログラマブル論理デバイス[例えばSPLD(Simple Programmable Logic Devices)、CPLD(Complex Programmable Logic Device)、及びFPGA(Field Programmable Gate Arrays)]等が含まれる。なお、演算制御ユニット22の各種機能は、1つのプロセッサにより実現されてもよいし、同種または異種の複数のプロセッサで実現されてもよい。
[Calculation control unit]
FIG. 3 is a functional block diagram of the arithmetic control unit 22 of the ophthalmologic apparatus 10 and the control section 140 of the server 11 according to the first embodiment. As shown in FIG. 3, the arithmetic control unit 22 centrally controls the operation of each part of the ophthalmologic apparatus 10. The functions of this arithmetic control unit 22 are realized using various processors. Various processors include CPU (Central Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), and programmable logic devices [for example, SPLD (Simple Programmable Logic Devices), CPLD (Complex Programmable Logic Device), and FPGA (Field Programmable Gate Arrays)]. Note that the various functions of the arithmetic control unit 22 may be realized by one processor, or may be realized by a plurality of processors of the same type or different types.

また、演算制御ユニット22には、既述の眼底カメラユニット10a、OCTユニット10b、ステレオカメラ20、及びモニタ23の他に、操作部24と、後述のサーバ11と、が接続されている。操作部24は、検者による各種の入力操作、例えば測定開始操作、手動アライメント操作、及び各種設定操作等を受け付ける。 Furthermore, in addition to the fundus camera unit 10a, OCT unit 10b, stereo camera 20, and monitor 23 described above, an operation section 24 and a server 11, which will be described later, are connected to the arithmetic and control unit 22. The operation unit 24 receives various input operations by the examiner, such as a measurement start operation, a manual alignment operation, and various setting operations.

演算制御ユニット22は、不図示の記憶部内の制御プログラムを実行することで、光学系制御部100、前眼部像取得部102、虹彩領域解析部104、色補正部106、瞳孔径補正部108、OCT画像形成部110、眼特性取得制御部112、及び画像出力部114として機能する。なお、演算制御ユニット22の「~部」として説明するものは「~回路」、「~装置」、又は「~機器」であってもよい(後述の制御部140も同様)。すなわち、「~部」として説明するものは、ファームウェア、ソフトウェア、及びハードウェアまたはこれらの組み合わせのいずれで構成されていてもよい。 The arithmetic control unit 22 executes a control program in a storage section (not shown) to control the optical system control section 100, anterior eye segment image acquisition section 102, iris region analysis section 104, color correction section 106, and pupil diameter correction section 108. , an OCT image forming section 110, an eye characteristic acquisition control section 112, and an image output section 114. Note that what is described as the "~ section" of the arithmetic and control unit 22 may be "~ circuit," "~ device," or "~ equipment" (the same applies to the control section 140 described later). That is, what is described as "unit" may be composed of firmware, software, hardware, or a combination thereof.

光学系制御部100は、照明光学系30、撮像光学系50、フォーカス光学系70、及びOCT光学系80を制御する。光学系制御部100は、眼底撮影像15の撮影時には、後述の眼特性取得制御部112の制御の下、照明光学系30、撮像光学系50、及びフォーカス光学系70を作動させて、撮影光源35による眼底Efの照明、ピント合わせ、及び撮像素子60による眼底反射光の撮像(眼底撮影像15の取得)を実行させる。また、光学系制御部100は、OCT画像16の取得時には、後述の眼特性取得制御部112の制御の下、OCT光学系80を作動させて、光路長変更部82による光路長の変更、及びガルバノスキャナ83による信号光の走査などを実行させる。 The optical system control unit 100 controls the illumination optical system 30, the imaging optical system 50, the focus optical system 70, and the OCT optical system 80. When photographing the fundus photographed image 15, the optical system control section 100 operates the illumination optical system 30, the imaging optical system 50, and the focus optical system 70 under the control of the eye characteristic acquisition control section 112, which will be described later, to control the photographing light source. 35 to illuminate and focus the fundus Ef, and the imaging device 60 to image the fundus reflected light (obtain the fundus photographed image 15). Further, when acquiring the OCT image 16, the optical system control unit 100 operates the OCT optical system 80 under the control of the eye characteristic acquisition control unit 112, which will be described later, to change the optical path length by the optical path length changing unit 82, and Scanning of the signal light by the galvano scanner 83 is performed.

さらに、光学系制御部100は、ステレオカメラ20により人種推定用の前眼部像14a,14bを撮影する場合に、視標表示部54を作動させて、この視標表示部54による被検眼Eへの白色光の照射を実行させる。 Furthermore, when the stereo camera 20 photographs the anterior segment images 14a and 14b for racial estimation, the optical system control unit 100 operates the optotype display unit 54 to Execute irradiation of white light to E.

図4は、視標表示部54による被検眼Eへの白色光の照射前(符号4A参照)及び照射中(符号4B参照)にそれぞれステレオカメラ20により取得される前眼部像14a,14bを示した説明図である。なお、図4(後述の図5、図6、図8等も同様)では図面の煩雑化を防止するため、前眼部像14aのみを図示し、前眼部像14bについては図示を省略している。 FIG. 4 shows anterior segment images 14a and 14b obtained by the stereo camera 20 before (see reference numeral 4A) and during irradiation (see reference numeral 4B) of white light onto the eye E by the optotype display unit 54, respectively. FIG. In addition, in FIG. 4 (the same applies to FIGS. 5, 6, 8, etc., which will be described later), in order to prevent the drawing from becoming complicated, only the anterior eye segment image 14a is shown, and the illustration of the anterior eye segment image 14b is omitted. ing.

図4の符号4A及び符号4Bに示すように、視標表示部54から被検眼Eに対して白色光を照射することで、被検眼Eの瞳孔を縮小させることができる。これにより、前眼部像14a,14b内において、被検眼Eの虹彩に対応する虹彩領域A1の面積を拡大し且つ被検眼Eの瞳孔に対応する瞳孔領域A2の面積を縮小することができる。虹彩領域A1は、後述のサーバ11の推定部144による被検者の人種の推定処理に用いられる。 As shown by reference numerals 4A and 4B in FIG. 4, the pupil of the eye E to be examined can be reduced by irradiating white light from the optotype display unit 54 to the eye E to be examined. Thereby, in the anterior segment images 14a and 14b, the area of the iris region A1 corresponding to the iris of the eye E to be examined can be expanded, and the area of the pupil region A2 corresponding to the pupil of the eye E to be examined can be reduced. The iris area A1 is used in the process of estimating the race of the subject by the estimation unit 144 of the server 11, which will be described later.

図3に戻って、前眼部像取得部102は、カメラ20a,20bを制御して前眼部Eaの撮影(動画撮影等)をそれぞれ実行させると共に、カメラ20a,20bから前眼部像14a,14bを繰り返し取得する。これにより、前眼部像取得部102は、人種推定用のカラーの前眼部像14a,14bを取得する。また、前眼部像取得部102により取得された前眼部像14a,14bは、不図示のアライメント制御部による眼科装置10のアライメント検出及びオートアライメントにも用いられる。 Returning to FIG. 3, the anterior eye segment image acquisition unit 102 controls the cameras 20a and 20b to perform imaging (video shooting, etc.) of the anterior eye segment Ea, and also controls the cameras 20a and 20b to capture the anterior eye segment image 14a. , 14b are repeatedly obtained. Thereby, the anterior eye segment image acquisition unit 102 acquires color anterior eye segment images 14a and 14b for race estimation. The anterior eye images 14a and 14b acquired by the anterior eye image acquisition unit 102 are also used for alignment detection and auto-alignment of the ophthalmological apparatus 10 by an alignment control unit (not shown).

図5は、虹彩領域解析部104による虹彩領域A1内のNG領域120(睫毛に起因するNG領域120)の検出を説明するための説明図である。図6は、虹彩領域解析部104による虹彩領域A1内のNG領域120(外乱光に起因するNG領域120)の検出を説明するための説明図である。 FIG. 5 is an explanatory diagram for explaining detection of an NG area 120 (NG area 120 caused by eyelashes) in the iris area A1 by the iris area analysis unit 104. FIG. 6 is an explanatory diagram for explaining detection of an NG area 120 (NG area 120 caused by ambient light) in the iris area A1 by the iris area analysis unit 104.

図5、図6、及び既述の図3に示すように、虹彩領域解析部104は、本発明の領域検出部に相当する。この虹彩領域解析部104は、前眼部像取得部102により取得された人種推定用の前眼部像14a,14bに基づき、前眼部像14a,14bの虹彩領域A1内から虹彩の色(色分布)を識別不能な識別不能領域であるNG領域120を検出し、前眼部像14a,14bに対してNG領域120を設定する。なお、図中の符号122は、虹彩領域A1内で虹彩の色(色分布)を識別可能な識別可能領域であるOK領域である。 As shown in FIGS. 5, 6, and the previously described FIG. 3, the iris area analysis unit 104 corresponds to the area detection unit of the present invention. The iris area analysis unit 104 analyzes the iris color from within the iris area A1 of the anterior eye images 14a, 14b based on the anterior eye images 14a, 14b for race estimation acquired by the anterior eye image acquisition unit 102. An NG area 120, which is an unidentifiable area in which the (color distribution) cannot be identified, is detected, and the NG area 120 is set for the anterior segment images 14a and 14b. Note that the reference numeral 122 in the figure is an OK area that is an identifiable area in which the color (color distribution) of the iris can be identified within the iris area A1.

最初に虹彩領域解析部104は、虹彩領域A1の中で虹彩とは異なる像が映っている領域、例えば図5の符号5Aに示すような睫毛が映っている(睫毛によりケラレている)領域、及び図6の符号6Aに示すような外乱光が映っている領域などをNG領域120として検出する。 First, the iris area analysis unit 104 selects an area in the iris area A1 where an image different from the iris is shown, for example, an area where eyelashes are shown (vignetted by the eyelashes) as shown in reference numeral 5A in FIG. Also, an area where disturbance light is reflected as shown by reference numeral 6A in FIG. 6 is detected as an NG area 120.

例えば虹彩領域解析部104は、前眼部像14a,14bから公知の手法で虹彩領域A1を検出する(例えば特開2018-45437号参照)。そして、虹彩領域解析部104は、虹彩領域A1内の各画素の色及び輝度に基づき色及び輝度が類似している画素同士をクラスタリングして画素集合を形成することで、前眼部像14a,14bの虹彩領域A1内からNG領域120を検出する(例えば特開2018-206239号参照)。また、虹彩領域解析部104は、公知の独立成分分析処理を用いたり、或いは「“The Measurement of Highlights in Color Images”, GUDRUN J. KLINKER, STEVEN A. SHAFER, AND TAKEO KANADE」に開示されている映り込み除去手法を用いたりすることで、虹彩領域A1内からNG領域120を検出してもよい。さらに他の公知の画像解析法(映り込み除去手法)を用いてNG領域120を検出してもよい。 For example, the iris region analysis unit 104 detects the iris region A1 from the anterior segment images 14a and 14b using a known method (see, for example, Japanese Patent Application Publication No. 2018-45437). Then, the iris region analysis unit 104 forms a pixel set by clustering pixels having similar colors and luminances based on the color and luminance of each pixel in the iris region A1, thereby forming an anterior segment image 14a, The NG area 120 is detected from within the iris area A1 of 14b (see, for example, Japanese Patent Laid-Open No. 2018-206239). In addition, the iris region analysis unit 104 uses a known independent component analysis process, or uses the method disclosed in "The Measurement of Highlights in Color Images," GUDRUN J. KLINKER, STEVEN A. SHAFER, AND TAKEO KANADE. The NG area 120 may be detected from within the iris area A1 by using a reflection removal method. Furthermore, the NG area 120 may be detected using another known image analysis method (reflection removal method).

次いで、図5の符号5B及び図6の符号6Bに示すように、虹彩領域解析部104は、虹彩領域A1内からNG領域120が検出された場合にはその検出元の前眼部像14a,14bに対してNG領域120の設定を行う。このNG領域120の設定とは、例えば、NG領域120の位置及び形状に関する情報を前眼部像14a,14bの付帯情報に付加したり、前眼部像14a,14b内のNG領域120をマスク処理或いは除去処理したりすることである。これにより、後述のサーバ11の推定部144が前眼部像14a,14b内の虹彩領域A1に基づき被検者の人種の推定処理を行う場合に、NG領域120を除外してOK領域122のみに基づき推定処理を行うことができる。 Next, as shown by reference numeral 5B in FIG. 5 and reference numeral 6B in FIG. An NG area 120 is set for 14b. Setting the NG region 120 means, for example, adding information regarding the position and shape of the NG region 120 to the accompanying information of the anterior eye images 14a, 14b, or masking the NG region 120 in the anterior eye images 14a, 14b. It means to process or remove it. As a result, when the estimation unit 144 of the server 11 described later performs the process of estimating the race of the subject based on the iris area A1 in the anterior segment images 14a and 14b, the NG area 120 is excluded and the OK area 122 is Estimation processing can be performed based only on

図7は、色補正部106による色補正処理を説明するための説明図である。眼科装置10で用いられる観察光源31(ハロゲンランプ又はLED)としては様々な波長分布の光源がある。このため、各種の眼科装置10により取得(撮影)された前眼部像14a,14bをデータベース12に蓄積する場合には、各種の眼科装置10で取得される前眼部像14a,14bを、あたかも同一光源による照明下で撮影されたかのように色補正した上でデータベース12に蓄積することが好ましい。 FIG. 7 is an explanatory diagram for explaining color correction processing by the color correction unit 106. As the observation light source 31 (halogen lamp or LED) used in the ophthalmologic apparatus 10, there are light sources with various wavelength distributions. Therefore, when storing the anterior eye segment images 14a, 14b acquired (photographed) by various ophthalmological apparatuses 10 in the database 12, the anterior eye segment images 14a, 14b acquired by various ophthalmic apparatuses 10 are It is preferable that the images be stored in the database 12 after color correction as if they were taken under illumination by the same light source.

そこで、図7及び既述の図3に示すように、色補正部106は、前眼部像取得部102により取得された前眼部像14a,14bの色を、予め定められた標準光源による被検眼Eの照明下でステレオカメラ20により撮影される(前眼部像取得部102により取得される)前眼部像14a,14bの色に色補正(色変換)する。 Therefore, as shown in FIG. 7 and FIG. 3 described above, the color correction unit 106 adjusts the colors of the anterior eye images 14a and 14b acquired by the anterior eye image acquisition unit 102 using a predetermined standard light source. Color correction (color conversion) is performed to the colors of the anterior eye images 14a and 14b photographed by the stereo camera 20 (obtained by the anterior eye image acquisition unit 102) under illumination of the eye E to be examined.

例えば、色補正部106には、公知の標準光源(ハロゲン電球光源或いはD65光源)のスペクトルである標準光源スペクトル情報130と、公知の観察光源31(ハロゲンランプ又はLED)のスペクトルである光源スペクトル情報132と、が入力されている。また、光のスペクトルから画像(画素)のRGB値を演算する方法も公知である。このため、色補正部106は、光源スペクトル情報132が示す補正元の観察光源31のスペクトルと、標準光源スペクトル情報130が示す補正先の標準光源のスペクトルと、に基づき、前眼部像14a,14bの各画素のRGB値を変換することで、前眼部像14a,14bの色補正を実行する。この色補正を実行することで、後述のサーバ11の推定部144で被検者の人種の推定処理の精度をより高めることができる。 For example, the color correction unit 106 includes standard light source spectrum information 130 that is the spectrum of a known standard light source (halogen bulb light source or D65 light source), and light source spectrum information that is the spectrum of a known observation light source 31 (halogen lamp or LED). 132 is input. Furthermore, a method of calculating RGB values of an image (pixel) from the spectrum of light is also known. Therefore, the color correction unit 106 calculates the anterior segment image 14a, Color correction of the anterior segment images 14a and 14b is performed by converting the RGB values of each pixel of the image 14b. By performing this color correction, it is possible to further improve the accuracy of the process of estimating the race of the subject in the estimation unit 144 of the server 11, which will be described later.

図8は、瞳孔径補正部108による補正処理を説明するための説明図である。なお、図8の符号8Aは瞳孔径補正部108による補正処理前の前眼部像14a,14bであり、図8の符号8Bは瞳孔径補正部108による補正処理後の前眼部像14a,14bである。 FIG. 8 is an explanatory diagram for explaining correction processing by the pupil diameter correction unit 108. Note that 8A in FIG. 8 is the anterior segment images 14a, 14b before the correction process by the pupil diameter correction unit 108, and 8B in FIG. 8 is the anterior segment images 14a, 14b after the correction process by the pupil diameter correction unit 108. 14b.

眼科装置10による前眼部像14a,14bの取得タイミングに応じて、前眼部像14a,14b内の虹彩領域A1及び瞳孔領域A2の大きさ(すなわち被検眼Eの瞳孔径)が、標準としている大きさから変わる場合がある。また、例えば同一の被検者であっても、前眼部像14a,14bの取得タイミングに応じて虹彩領域A1及び瞳孔領域A2の大きさが変わる場合がある。ここで、人種推定用の前眼部像14a,14bは各種研究用にデータベース12に蓄積されるので、虹彩領域A1及び瞳孔領域A2の大きさが異なるものが混在していると、統計処理が難しくなる。また、後述のサーバ11の推定部144で被検者の人種の推定を行う場合にも、虹彩領域A1の大きさが標準から大きく異なっていると、人種の推定の精度が低下するおそれがある。 Depending on the timing of acquisition of the anterior segment images 14a, 14b by the ophthalmological apparatus 10, the sizes of the iris area A1 and the pupil area A2 in the anterior segment images 14a, 14b (i.e., the pupil diameter of the eye E to be examined) are set as standard. It may vary depending on the size. Further, for example, even in the same subject, the sizes of the iris area A1 and the pupil area A2 may change depending on the acquisition timing of the anterior segment images 14a and 14b. Here, since the anterior segment images 14a and 14b for race estimation are accumulated in the database 12 for various research purposes, if images with different sizes of iris area A1 and pupil area A2 are mixed, statistical processing becomes difficult. Furthermore, when the estimation unit 144 of the server 11 (described later) estimates the race of the subject, if the size of the iris area A1 is significantly different from the standard, the accuracy of the race estimation may decrease. There is.

そこで、図8及び既述の図3に示すように、瞳孔径補正部108は、前眼部像取得部102により取得された前眼部像14a,14b内の虹彩領域A1及び瞳孔領域A2を画像処理して、瞳孔領域A2の瞳孔径を予め定められた大きさに補正する。 Therefore, as shown in FIG. 8 and FIG. 3 described above, the pupil diameter correction unit 108 corrects the iris area A1 and pupil area A2 in the anterior eye images 14a and 14b acquired by the anterior eye image acquisition unit 102. Image processing is performed to correct the pupil diameter of the pupil area A2 to a predetermined size.

例えば瞳孔径補正部108は、前眼部像取得部102により取得された前眼部像14a,14bに対して公知のアフィン変換処理を施すことにより、前眼部像14a,14b内の瞳孔領域A2の瞳孔径を予め定められた大きさに補正する。また、眼の瞳孔散大筋及び瞳孔括約筋の一般的な動き解析した解析結果に基づき、瞳孔径補正部108が前眼部像14a,14b内の虹彩領域A1の各画素に対して座標変換処理を施すことにより、瞳孔領域A2の瞳孔径を予め定められた大きさに補正してもよい。 For example, the pupil diameter correction unit 108 performs known affine transformation processing on the anterior eye images 14a, 14b acquired by the anterior eye image acquisition unit 102, thereby determining the pupil area within the anterior eye image 14a, 14b. The pupil diameter of A2 is corrected to a predetermined size. Furthermore, based on the analysis results of general movement analysis of the pupillary dilator muscle and pupillary sphincter muscle of the eye, the pupil diameter correction unit 108 performs coordinate transformation processing on each pixel of the iris area A1 in the anterior eye images 14a and 14b. By applying this, the pupil diameter of the pupil area A2 may be corrected to a predetermined size.

さらに、被検眼Eの瞳孔が開きすぎている場合には、瞳孔径補正部108は、瞳孔領域A2の一部を欠落部分として、前眼部像取得部102により取得された前眼部像14a,14bに対し外挿処理を施して虹彩領域A1を内側に拡大させることで、瞳孔領域A2の瞳孔径を予め定められた大きさに補正する。さらにまた、被検者が高齢者である場合には瞳孔が開き難くなる縮瞳が発生する。この場合には、瞳孔径補正部108は、前眼部像取得部102により取得された前眼部像14a,14bに対して、瞳孔領域A2の瞳孔径を一般的なφ3~4mmに拡大する拡大処理を施す。 Furthermore, if the pupil of the eye E to be examined is too dilated, the pupil diameter correction unit 108 sets a part of the pupil area A2 as a missing part, and sets the anterior segment image 14a acquired by the anterior segment image acquisition unit 102. , 14b to expand the iris area A1 inward, thereby correcting the pupil diameter of the pupil area A2 to a predetermined size. Furthermore, when the subject is elderly, miosis occurs, which makes it difficult for the pupils to open. In this case, the pupil diameter correction unit 108 enlarges the pupil diameter of the pupil area A2 to a typical φ3 to 4 mm with respect to the anterior eye images 14a and 14b acquired by the anterior eye image acquisition unit 102. Perform enlargement processing.

図3に戻って、虹彩領域解析部104によるNG領域120の検出及び設定と、色補正部106による色補正処理と、瞳孔径補正部108による補正処理と、を実行する順番は特に限定されず、任意の順番で実行してもよい。ただし、既述の虹彩領域解析部104によるNG領域120の検出及び設定後に瞳孔径補正部108による補正処理を行う場合には、虹彩領域A1の拡大或いは縮小に応じてNG領域120の補正を実行、或いは虹彩領域解析部104によるNG領域120の検出及び設定を再度実行させる。 Returning to FIG. 3, the order in which the detection and setting of the NG area 120 by the iris area analysis unit 104, the color correction process by the color correction unit 106, and the correction process by the pupil diameter correction unit 108 are executed is not particularly limited. , may be executed in any order. However, when the correction process is performed by the pupil diameter correction unit 108 after the detection and setting of the NG area 120 by the iris area analysis unit 104 described above, the correction of the NG area 120 is executed according to the expansion or reduction of the iris area A1. , or causes the iris region analysis unit 104 to detect and set the NG region 120 again.

OCT画像形成部110は、OCTユニット10bと共に本発明の眼特性取得部を構成するものであり、OCTユニット10bから入力される検出信号を解析して眼底EfのOCT画像16を形成する。なお、OCT画像16の具体的な形成方法は、従来のOCT装置と同様であるのでここでは説明は省略する。 The OCT image forming section 110 constitutes the ocular characteristic acquisition section of the present invention together with the OCT unit 10b, and forms an OCT image 16 of the fundus Ef by analyzing the detection signal inputted from the OCT unit 10b. Note that the specific method of forming the OCT image 16 is the same as that of a conventional OCT apparatus, so a description thereof will be omitted here.

眼特性取得制御部112は、眼科装置10の各部を制御して、被検眼Eの眼特性(眼底撮影像15及びOCT画像16)の取得を実行する。具体的には眼特性取得制御部112は、光学系制御部100を介して眼底カメラユニット10aの照明光学系30、撮像光学系50、及びフォーカス光学系70を制御して、眼底撮影像15を取得する。 The eye characteristics acquisition control unit 112 controls each part of the ophthalmological apparatus 10 to acquire the eye characteristics (fundus photographed image 15 and OCT image 16) of the eye E to be examined. Specifically, the ocular characteristic acquisition control unit 112 controls the illumination optical system 30, the imaging optical system 50, and the focus optical system 70 of the fundus camera unit 10a via the optical system control unit 100 to obtain the fundus photographed image 15. get.

また、眼特性取得制御部112は、光学系制御部100を介して眼底カメラユニット10aのOCT光学系80を制御すると共に、OCTユニット10b及びOCT画像形成部110を制御して、OCT画像16を取得する。なお、図示は省略するが、眼特性取得制御部112は、眼底EfのOCT画像16を解析して眼底Efの層厚分布データを作成し、この層厚分布データと、予め作成された正常眼の層厚分布データであるノーマティブデータとを比較して比較マップ(特開2019-58491号参照)を作成する解析部としても機能する。 Further, the ocular characteristic acquisition control unit 112 controls the OCT optical system 80 of the fundus camera unit 10a via the optical system control unit 100, and also controls the OCT unit 10b and the OCT image forming unit 110 to generate the OCT image 16. get. Although not shown, the eye characteristic acquisition control unit 112 analyzes the OCT image 16 of the fundus Ef to create layer thickness distribution data of the fundus Ef, and combines this layer thickness distribution data with the normal eye created in advance. It also functions as an analysis unit that creates a comparison map (see Japanese Patent Application Laid-Open No. 2019-58491) by comparing the normal data that is layer thickness distribution data.

さらに、眼特性取得制御部112は、後述のサーバ11の条件決定部148の決定に従って、眼科装置10の各部による被検眼Eの眼特性の取得条件(動作条件)を変更する。この取得条件とは、例えば撮影光源35の撮影光量と、既述のノーマティブデータの種類とが例として挙げられる。眼特性取得制御部112は、条件決定部148が決定した撮影光量の光を撮影光源35から出射させる。また、眼特性取得制御部112は、上述の比較マップを作成する際に、条件決定部148が決定したノーマティブデータを用いる。 Furthermore, the eye characteristics acquisition control unit 112 changes the conditions (operating conditions) for acquiring the eye characteristics of the eye E to be examined by each part of the ophthalmological apparatus 10, according to a determination by a condition determination unit 148 of the server 11, which will be described later. Examples of the acquisition conditions include the amount of photographing light from the photographing light source 35 and the type of normal data described above. The eye characteristic acquisition control unit 112 causes the photography light source 35 to emit light of the photography light amount determined by the condition determining unit 148. Furthermore, the eye characteristic acquisition control unit 112 uses the normative data determined by the condition determination unit 148 when creating the above-mentioned comparison map.

画像出力部114は、本発明の出力部、前眼部像出力部、及び眼特性出力部として機能する。画像出力部114は、前眼部像取得部102により取得された人種推定用の前眼部像14a,14bであって且つ既述の虹彩領域解析部104によりNG領域120(本発明の領域検出部の検出結果に相当)が設定された前眼部像14a,14bをサーバ11(推定部144)へ出力する。また、画像出力部114は、眼特性取得制御部112の制御の下で取得された被検眼Eの眼特性取得結果(眼底撮影像15及びOCT画像16)をサーバ11(記憶制御部146)へ出力する。 The image output section 114 functions as an output section, an anterior segment image output section, and an eye characteristic output section of the present invention. The image output unit 114 outputs the anterior segment images 14a and 14b for race estimation acquired by the anterior segment image acquisition unit 102, and the NG area 120 (area of the present invention) by the iris area analysis unit 104 described above. The anterior segment images 14a and 14b in which the images (corresponding to the detection results of the detection unit) have been set are output to the server 11 (estimation unit 144). The image output unit 114 also sends the eye characteristic acquisition results (fundus photographed image 15 and OCT image 16) of the eye E acquired under the control of the eye characteristic acquisition control unit 112 to the server 11 (storage control unit 146). Output.

さらに、画像出力部114は、操作部24等で入力された被検者のID情報17を、前眼部像14a,14b及び眼特性取得結果に関連付けてサーバ11へ出力する。 Further, the image output unit 114 outputs the ID information 17 of the subject inputted through the operation unit 24 or the like to the server 11 in association with the anterior eye images 14a, 14b and the eye characteristic acquisition results.

[サーバ]
サーバ11は制御部140を備える。制御部140は、被検眼Eの前眼部像14a,14b及び眼特性取得結果のデータベース12への記憶、被検者の人種の推定処理、及び眼科装置10による眼特性の取得条件の変更等の各種制御を実行する。この制御部140の機能は、既述の演算制御ユニット22と同様に1又は複数の各種プロセッサを用いて実現される。
[server]
The server 11 includes a control unit 140. The control unit 140 stores the anterior segment images 14 a and 14 b of the eye E to be examined and the eye characteristic acquisition results in the database 12 , processes the race estimation process of the examinee, and changes the acquisition conditions of the eye characteristics by the ophthalmological apparatus 10 . Executes various controls such as The functions of the control unit 140 are realized using one or more various processors, similar to the arithmetic control unit 22 described above.

制御部140は、不図示の記憶部内の制御プログラムを実行することで、画像取得部142、推定部144、記憶制御部146、及び条件決定部148として機能する。 The control unit 140 functions as an image acquisition unit 142, an estimation unit 144, a storage control unit 146, and a condition determination unit 148 by executing a control program in a storage unit (not shown).

画像取得部142は、眼科装置10の画像出力部114から出力される被検眼Eの前眼部像14a,14b及び眼特性取得結果(眼底撮影像15及びOCT画像16)と、被検者のID情報17と、を取得するインターフェースとして機能する。画像取得部142は、取得した前眼部像14a,14bを推定部144へ出力する。また、画像取得部142は、取得した前眼部像14a,14b、眼底撮影像15、OCT画像16、及びID情報17を記憶制御部146へ出力する。 The image acquisition unit 142 receives the anterior segment images 14a and 14b of the eye E to be examined and the eye characteristic acquisition results (fundus photographed image 15 and OCT image 16) outputted from the image output unit 114 of the ophthalmological apparatus 10, and the image of the examinee. It functions as an interface for acquiring ID information 17. The image acquisition unit 142 outputs the acquired anterior segment images 14a and 14b to the estimation unit 144. The image acquisition unit 142 also outputs the acquired anterior segment images 14 a and 14 b, fundus photographed image 15 , OCT image 16 , and ID information 17 to the storage control unit 146 .

推定部144は、画像取得部142から入力された前眼部像14a,14bに基づき、被検者の人種の推定処理を行う。この推定部144は、既述の虹彩領域解析部104と同様に前眼部像14a,14bから虹彩領域A1を検出し、さらに虹彩領域解析部104により設定されたNG領域120に基づき虹彩領域A1内のOK領域122を検出する。そして、推定部144は、前眼部像14a,14b内のOK領域122に基づき、被検眼Eの虹彩の色(色分布)を検出し、この検出結果に基づき被検者の人種の推定処理を行う。 The estimation unit 144 performs a process of estimating the race of the subject based on the anterior segment images 14a and 14b input from the image acquisition unit 142. The estimation unit 144 detects the iris area A1 from the anterior segment images 14a and 14b in the same way as the iris area analysis unit 104 described above, and further detects the iris area A1 based on the NG area 120 set by the iris area analysis unit 104. The OK area 122 within is detected. Then, the estimation unit 144 detects the iris color (color distribution) of the eye E to be examined based on the OK area 122 in the anterior segment images 14a and 14b, and estimates the race of the examinee based on this detection result. Perform processing.

例えば推定部144は、OK領域122における虹彩の色(色分布)の検出結果に基づき、虹彩の色と人種とを関連付けたデータテーブルまたはメタデータを参照して、被検者の人種を推定する。或いは推定部144は、OK領域122に対して人工知能(artificial intelligence:AI)を用いた画像解析処理、例えば公知の機械学習アルゴリズム又は深層学習アルゴリズムに基づき機械学習又は深層学習(ディープラーニング)を用いた画像解析処理を行うことで、被検者の人種を推定する。なお、推定部144による人種の推定処理に用いる方法は、虹彩の色(色分布)から人種を推定する方法であれば特に限定はされない。 For example, the estimation unit 144 determines the race of the test subject based on the detection result of the iris color (color distribution) in the OK area 122, with reference to a data table or metadata that associates the iris color with the race. presume. Alternatively, the estimation unit 144 performs image analysis processing using artificial intelligence (AI) on the OK region 122, for example, using machine learning or deep learning based on a known machine learning algorithm or deep learning algorithm. The test subject's race is estimated by performing image analysis processing. Note that the method used for the race estimation process by the estimation unit 144 is not particularly limited as long as it is a method of estimating the race from the color of the iris (color distribution).

そして、推定部144は、被検者の人種の推定結果である人種情報18を、記憶制御部146と条件決定部148とに出力する。なお、推定部144は、前眼部像14a,14bに関連付けられているID情報17に基づき、データベース12を参照して、既に被検者の人種情報18が既知である場合には、上述の人種の推定処理を省略する。 Then, the estimation unit 144 outputs race information 18, which is the result of estimating the race of the subject, to the storage control unit 146 and the condition determination unit 148. Note that the estimating unit 144 refers to the database 12 based on the ID information 17 associated with the anterior segment images 14a and 14b, and if the race information 18 of the subject is already known, the above-mentioned omit the race estimation process.

記憶制御部146は、画像取得部142から入力された前眼部像14a,14b、眼底撮影像15、OCT画像16、及びID情報17と、推定部144から入力された人種情報18と、を関連付けてデータベース12に記憶させる。これにより、被検者の人種情報18を、被検者の前眼部像14a,14b、眼底撮影像15、及びOCT画像16に関連付けてデータベース12に記憶させることができる。 The storage control unit 146 stores the anterior segment images 14a and 14b, the fundus photographed image 15, the OCT image 16, and the ID information 17 input from the image acquisition unit 142, and the race information 18 input from the estimation unit 144. are stored in the database 12 in association with each other. Thereby, the racial information 18 of the subject can be stored in the database 12 in association with the anterior segment images 14a and 14b, the photographed fundus image 15, and the OCT image 16 of the subject.

データベース12は、既述の図1に示したように、被検者ごとに(すなわちID情報17ごとに)、サーバ11から入力される前眼部像14a,14b、眼底撮影像15、OCT画像16、及び人種情報18を蓄積する。 As shown in FIG. 1, the database 12 stores anterior segment images 14a and 14b, fundus photographed images 15, and OCT images input from the server 11 for each subject (that is, for each ID information 17). 16, and racial information 18 are accumulated.

このように前眼部像14a,14b、眼底撮影像15、及びOCT画像16と、被検者の人種情報18とを関連付けてデータベース12に蓄積することで、データベース12を用いて人種ごとの前眼部像14a,14b及び眼特性(眼底撮影像15とOCT画像16)の傾向分析及び経過観察を行うことができる。また、人種ごとの前眼部像14a,14bと眼特性との関連性を分析することができる。 In this way, by associating the anterior segment images 14a, 14b, the fundus photographed image 15, and the OCT image 16 with the subject's racial information 18 and storing them in the database 12, the database 12 can be used to Trend analysis and progress observation of the anterior segment images 14a, 14b and eye characteristics (fundus photographed image 15 and OCT image 16) can be performed. Furthermore, it is possible to analyze the relationship between the anterior segment images 14a and 14b and eye characteristics for each race.

さらに、人種ごとの眼の疾患の予測の研究にデータベース12を用いることができる。例えば欧州及び米国では、虹彩学(Iridology、イリドロジー)の研究が昔から行われている(例えば特開2019-103079号参照)。この虹彩学は、被検眼の前眼部像を取得し、この前眼部像内の虹彩の像に表れる様々な情報に基づき、人の健康情報または病歴を診断する分析方法である。データベース12には、人種ごとの前眼部像14a,14b及び眼特性(眼底撮影像15とOCT画像16)が蓄積されているため、データベース12内の情報を虹彩から人種ごとの眼の疾患を診断又は予測する研究に利用することができる。 Furthermore, the database 12 can be used for research into predicting eye diseases by race. For example, in Europe and the United States, research on iridology has been conducted for a long time (see, for example, Japanese Patent Application Publication No. 2019-103079). Iridology is an analysis method that obtains an anterior segment image of the subject's eye and diagnoses a person's health information or medical history based on various information appearing in the iris image within the anterior segment image. Since the database 12 stores anterior segment images 14a and 14b and eye characteristics (fundus photographed image 15 and OCT image 16) for each race, the information in the database 12 can be used from the iris to the eye for each race. It can be used in research to diagnose or predict diseases.

条件決定部148は、推定部144から入力された人種情報18に基づき、眼科装置10による被検眼Eの眼特性の取得条件、すなわち既述の撮影光源35の撮影光量及び既述のノーマティブデータを決定する。例えば、条件決定部148は、人種と、人種に適した撮影光源35の撮影光量及びノーマティブデータとの対応関係を示す取得条件情報(データテーブル等)を有しており、人種情報18に基づき取得条件情報を参照することで、人種に適した撮影光源35の撮影光量及びノーマティブデータを決定する。 Based on the race information 18 input from the estimating unit 144, the condition determining unit 148 determines the conditions for acquiring the eye characteristics of the eye E to be examined by the ophthalmological apparatus 10, that is, the imaging light amount of the imaging light source 35 described above and the normative imaging light source 35 described above. Determine the data. For example, the condition determining unit 148 has acquisition condition information (data table, etc.) indicating the correspondence between a race, the photographing light amount of the photographing light source 35 suitable for the race, and normative data, and By referring to the acquisition condition information based on 18, the photographing light amount of the photographing light source 35 and the normative data suitable for the race are determined.

そして、条件決定部148は、被検者の人種に適した眼底特性の取得条件(撮影光源35の撮影光量及びノーマティブデータ)を眼科装置10の眼特性取得制御部112へ出力する。これにより、眼特性取得制御部112が、条件決定部148が決定した撮影光量の光を撮影光源35から出射させると共に、条件決定部148が決定したノーマティブデータを用いて比較マップの生成を行う。 The condition determination unit 148 then outputs the acquisition conditions for fundus characteristics (the imaging light amount of the imaging light source 35 and the normal data) suitable for the race of the subject to the eye characteristics acquisition control unit 112 of the ophthalmological apparatus 10 . As a result, the eye characteristic acquisition control unit 112 causes the photography light source 35 to emit light of the photography light amount determined by the condition determination unit 148, and generates a comparison map using the normative data determined by the condition determination unit 148. .

[第1実施形態の眼科システムの作用]
図9は、上記構成の第1実施形態の眼科システム9による被検眼Eの眼特性取得処理の流れ、特に本発明の眼科装置の制御方法に係る人種推定用の前眼部像14a,14bの取得及びデータベース12への蓄積の流れを示すフローチャートである。
[Operation of the ophthalmological system of the first embodiment]
FIG. 9 shows the flow of the eye characteristic acquisition process of the eye E to be examined by the ophthalmological system 9 of the first embodiment having the above configuration, particularly the anterior segment images 14a and 14b for race estimation according to the method of controlling the ophthalmological apparatus of the present invention. 12 is a flowchart showing the flow of acquisition and accumulation in the database 12.

操作部24に対して被検眼Eの眼特性の取得開始操作が入力されると、或いは被検眼Eの眼特性の取得準備が完了すると、眼科装置10が作動する。最初に、光学系制御部100は、視標表示部54を作動させて、視標表示部54による被検眼Eへの白色光の照射を開始させる(ステップSA1)。これにより、被検眼Eの瞳孔が縮小され且つ虹彩が拡大されるので、既述の図4に示したように推定部144による被検者の人種の推定に用いられる前眼部像14a,14b内の虹彩領域A1が拡大する。その結果、推定部144による人種の推定処理の精度を高めることができる、すなわち推定部144による人種の推定処理に適した前眼部像14a,14bが得られる。 When an operation to start acquiring the eye characteristics of the eye E to be examined is input to the operation unit 24, or when preparations for acquiring the eye characteristics of the eye E to be examined are completed, the ophthalmologic apparatus 10 is activated. First, the optical system control unit 100 operates the optotype display unit 54 to start irradiating the eye E with white light by the optotype display unit 54 (step SA1). As a result, the pupil of the subject's eye E is reduced and the iris is enlarged, so that the anterior segment image 14a, which is used by the estimation unit 144 to estimate the race of the subject, as shown in FIG. The iris area A1 within 14b is enlarged. As a result, the accuracy of the race estimation process by the estimation unit 144 can be improved, that is, anterior segment images 14a and 14b suitable for the race estimation process by the estimation unit 144 are obtained.

被検眼Eへの白色光の照射が開始されると、前眼部像取得部102が、ステレオカメラ20のカメラ20a,20bを制御して前眼部Eaのカラー撮影を実行させると共に、カメラ20a,20bから人種推定用のカラーの前眼部像14a,14bを取得する(ステップSA2、本発明の前眼部像取得ステップに相当)。 When irradiation of the white light onto the eye E to be examined is started, the anterior eye segment image acquisition unit 102 controls the cameras 20a and 20b of the stereo camera 20 to perform color photography of the anterior eye segment Ea, and the camera 20a , 20b (step SA2, corresponding to the anterior eye image acquisition step of the present invention).

前眼部像取得部102により人種推定用のカラーの前眼部像14a,14bが取得されると、既述の図5及び図6に示したように、虹彩領域解析部104が前眼部像14a,14bの虹彩領域A1内からのNG領域120の検出と、虹彩領域A1に対するNG領域120の設定と、を実行する(ステップSA3、本発明の領域検出ステップに相当)。これにより、推定部144が虹彩領域A1内のOK領域122のみに基づき被検者の人種を推定することができるので、推定部144による人種の推定の精度を高めることができる。従って、推定部144による人種の推定に適した前眼部像14a,14bが得られる。 When the anterior eye image acquisition unit 102 acquires the color anterior eye images 14a and 14b for race estimation, the iris area analysis unit 104 analyzes the anterior eye images 14a and 14b as shown in FIGS. Detection of the NG area 120 from within the iris area A1 of the partial images 14a and 14b and setting of the NG area 120 for the iris area A1 are executed (step SA3, corresponding to the area detection step of the present invention). This allows the estimating unit 144 to estimate the race of the subject based only on the OK area 122 within the iris area A1, thereby increasing the accuracy of race estimation by the estimating unit 144. Therefore, anterior segment images 14a and 14b suitable for race estimation by the estimation unit 144 are obtained.

また、既述の図7に示したように色補正部106が前眼部像14a,14bに対して色補正を施すと共に、既述の図8に示したように瞳孔径補正部108が前眼部像14a,14bに対して瞳孔領域A2の瞳孔径の補正処理を施す(ステップSA4)。この色補正によって、観察光源31の種類に関係なく、前眼部像14a,14bの色があたかも同一光源(標準光源)による照明下で撮影されたかのように補正される。また、瞳孔領域A2の瞳孔径の補正処理により、前眼部像14a,14b内の瞳孔領域A2の瞳孔径を予め定められた大きさにすることができる。その結果、推定部144による人種の推定の精度を高めることができると共に、既述の分析又は研究等(傾向分析、経過観察、疾患の診断又は予測等)が行い易くなる。 Further, as shown in FIG. 7 described above, the color correction section 106 performs color correction on the anterior segment images 14a and 14b, and as shown in FIG. 8 described above, the pupil diameter correction section 108 A correction process for the pupil diameter of the pupil area A2 is performed on the eye images 14a and 14b (step SA4). Through this color correction, regardless of the type of observation light source 31, the colors of the anterior segment images 14a and 14b are corrected as if they were photographed under illumination by the same light source (standard light source). Further, by the correction process of the pupil diameter of the pupil region A2, the pupil diameter of the pupil region A2 in the anterior eye images 14a and 14b can be set to a predetermined size. As a result, the accuracy of race estimation by the estimation unit 144 can be improved, and the analysis or research described above (trend analysis, follow-up observation, disease diagnosis or prediction, etc.) becomes easier to perform.

なお、ステップSA3とステップSA4の順番は特に限定はされないが、ステップSA3の後に瞳孔径補正部108による瞳孔径の補正処理を実行した場合には、ステップSA3の処理を再度実行することが好ましい。 Although the order of steps SA3 and SA4 is not particularly limited, if the pupil diameter correction process is performed by the pupil diameter correction unit 108 after step SA3, it is preferable to perform the process of step SA3 again.

次いで、画像出力部114が、NG領域120が設定され且つ色補正処理及び瞳孔径の補正処理が施された前眼部像14a,14bに対して、予め操作部24等で入力された被検者のID情報17を関連付けた後、この前眼部像14a,14bをサーバ11へ出力する(ステップSA5、本発明の出力ステップに相当)。 Next, the image output unit 114 outputs the image of the patient input in advance using the operation unit 24 or the like to the anterior segment images 14a and 14b in which the NG area 120 has been set and which has undergone color correction processing and pupil diameter correction processing. After associating the person's ID information 17, the anterior segment images 14a and 14b are output to the server 11 (step SA5, corresponding to the output step of the present invention).

サーバ11の画像取得部142は、画像出力部114から前眼部像14a,14b(ID情報17)を取得して、この前眼部像14a,14bを推定部144と記憶制御部146とに出力する(ステップSB1)。 The image acquisition unit 142 of the server 11 acquires the anterior segment images 14a and 14b (ID information 17) from the image output unit 114, and sends the anterior segment images 14a and 14b to the estimation unit 144 and the storage control unit 146. Output (step SB1).

画像取得部142から前眼部像14a,14bが入力された推定部144は、前眼部像14a,14bと、先に虹彩領域解析部104により設定されたNG領域120とに基づき、前眼部像14a,14bの虹彩領域A1内のOK領域122を検出する。そして、推定部144は、OK領域122に基づき被検眼Eの虹彩の色(色分布)を検出し、この検出結果に基づき被検者の人種を推定処理して、人種情報18を記憶制御部146と条件決定部148とに出力する(ステップSB2)。 The estimation unit 144, which receives the anterior eye images 14a and 14b from the image acquisition unit 142, estimates the anterior eye area based on the anterior eye images 14a and 14b and the NG area 120 previously set by the iris area analysis unit 104. An OK area 122 within the iris area A1 of the partial images 14a and 14b is detected. Then, the estimation unit 144 detects the color (color distribution) of the iris of the eye E to be examined based on the OK area 122, estimates the race of the examinee based on this detection result, and stores the racial information 18. It is output to the control section 146 and the condition determining section 148 (step SB2).

なお、推定部144は、前眼部像14a,14bに関連付けられているID情報17に基づき、被検者(ID情報17)に対応する人種情報18がデータベース12に記憶されている場合には人種の推定処理(ステップSB2)を省略する。 Note that, based on the ID information 17 associated with the anterior segment images 14a and 14b, the estimating unit 144 determines whether racial information 18 corresponding to the subject (ID information 17) is stored in the database 12. omits the race estimation process (step SB2).

人種の推定処理が完了すると、記憶制御部146が、画像取得部142から入力された前眼部像14a,14b及びID情報17と、推定部144から入力された人種情報18と、を関連付けてデータベース12に記憶させる(ステップSB3)。 When the race estimation process is completed, the storage control unit 146 stores the anterior segment images 14a, 14b and ID information 17 input from the image acquisition unit 142, and the race information 18 input from the estimation unit 144. It is stored in the database 12 in association (step SB3).

また、条件決定部148が、推定部144から入力された人種情報18に基づき、眼科装置10による被検眼Eの眼特性の取得条件(撮影光源35の撮影光量及びノーマティブデータ)を決定する(ステップSB4)。そして、条件決定部148は、決定した取得条件を眼科装置10の眼特性取得制御部112へ出力する(ステップSB5)。 Furthermore, the condition determining unit 148 determines conditions for acquiring the eye characteristics of the eye E to be examined by the ophthalmological apparatus 10 (the amount of photographing light of the photographing light source 35 and the normative data) based on the race information 18 input from the estimating unit 144. (Step SB4). Then, the condition determination unit 148 outputs the determined acquisition conditions to the eye characteristic acquisition control unit 112 of the ophthalmologic apparatus 10 (step SB5).

眼特性取得制御部112は、条件決定部148から眼特性の取得条件の入力を受けると、現在の取得条件と条件決定部148から入力された取得条件とを比較する(ステップSA6)。そして、眼特性取得制御部112は、現在の取得条件が条件決定部148から入力された取得条件と相違している場合には、現在の取得条件を新たな取得条件に合わせて変更する(ステップSA7,SA8)。これにより、被検者の人種に適した被検眼Eの眼特性の取得(測定等)を実行することができる。 When the eye characteristic acquisition control unit 112 receives the input of the eye characteristic acquisition conditions from the condition determination unit 148, it compares the current acquisition conditions with the acquisition conditions input from the condition determination unit 148 (step SA6). Then, if the current acquisition conditions are different from the acquisition conditions input from the condition determination unit 148, the eye characteristic acquisition control unit 112 changes the current acquisition conditions to match the new acquisition conditions (step SA7, SA8). Thereby, it is possible to acquire (measure, etc.) the eye characteristics of the subject's eye E suitable for the race of the subject.

次いで、眼特性取得制御部112は、眼底カメラユニット10a、OCTユニット10b、及びOCT画像形成部110を制御して、被検眼Eの眼特性(眼底撮影像15及びOCT画像16)の取得を実行する(ステップSA9)。既述のステップSA8で眼特性の取得条件を被検者の人種に合せて調整しているので、より正確な被検眼Eの眼特性が得られる。 Next, the eye characteristic acquisition control unit 112 controls the fundus camera unit 10a, the OCT unit 10b, and the OCT image forming unit 110 to acquire the eye characteristics (fundus photographed image 15 and OCT image 16) of the eye E to be examined. (Step SA9). Since the acquisition conditions for the eye characteristics are adjusted in accordance with the race of the subject in step SA8 described above, more accurate eye characteristics of the eye E to be examined can be obtained.

被検眼Eの眼特性の取得が完了すると、画像出力部114が、被検眼Eの眼特性取得結果である眼底撮影像15及びOCT画像16に既述のID情報17を関連付けた後、これら眼底撮影像15及びOCT画像16をサーバ11へ出力する(ステップSA10)。 When the acquisition of the eye characteristics of the eye E is completed, the image output unit 114 associates the previously described ID information 17 with the fundus photographed image 15 and the OCT image 16, which are the results of acquiring the eye characteristics of the eye E, and then displays these fundus images. The photographed image 15 and the OCT image 16 are output to the server 11 (step SA10).

サーバ11の画像取得部142は、画像出力部114から眼底撮影像15及びOCT画像16(ID情報17)を取得して、これら眼底撮影像15及びOCT画像16を記憶制御部146へ出力する(ステップSB6)。 The image acquisition unit 142 of the server 11 acquires the fundus photographed image 15 and the OCT image 16 (ID information 17) from the image output unit 114, and outputs the fundus photographed image 15 and the OCT image 16 to the storage control unit 146 ( Step SB6).

記憶制御部146は、眼底撮影像15及びOCT画像16に関連付けられているID情報17に基づき、眼底撮影像15及びOCT画像16をデータベース12内のID情報17に関連付けて記憶させる(ステップSB7)。これにより、被検者(ID情報17)の前眼部像14a,14b、眼底撮影像15、OCT画像16、及び人種情報18のデータベース12への記憶が完了する。 The storage control unit 146 stores the fundus photographed image 15 and the OCT image 16 in association with the ID information 17 in the database 12 based on the ID information 17 associated with the fundus photographed image 15 and the OCT image 16 (step SB7). . This completes the storage of the anterior segment images 14a, 14b, fundus photographed image 15, OCT image 16, and racial information 18 of the subject (ID information 17) in the database 12.

以下、眼科装置10にて被検者の眼特性の取得が行われるごとに、被検者ごとの(ID情報17ごとの)前眼部像14a,14b、眼底撮影像15、OCT画像16、及び人種情報18がデータベース12に蓄積される。これにより、データベース12を人種ごとの眼の各種研究に利用することができる。 Hereinafter, each time the eye characteristics of a subject are acquired by the ophthalmological apparatus 10, the anterior segment images 14a, 14b (for each ID information 17), the fundus photographed image 15, the OCT image 16, and racial information 18 are stored in the database 12. Thereby, the database 12 can be used for various types of eye research for each race.

[第1実施形態の効果]
以上のように第1実施形態の眼科システム9では、人種推定用のカラーの前眼部像14a,14bを取得し、この前眼部像14a,14bの虹彩領域A1内からNG領域120を検出することで、推定部144が虹彩領域A1内のOK領域122に基づき被検者の人種を推定することができる。これにより、推定部144による人種の推定精度を向上させることができる。その結果、眼科システム9(眼科装置10)では、被検者の人種の推定に適した前眼部像14が得られる。
[Effects of the first embodiment]
As described above, in the ophthalmological system 9 of the first embodiment, the color anterior segment images 14a and 14b for race estimation are acquired, and the NG area 120 is extracted from within the iris area A1 of the anterior segment images 14a and 14b. By detecting this, the estimation unit 144 can estimate the race of the subject based on the OK area 122 within the iris area A1. Thereby, the accuracy of race estimation by the estimation unit 144 can be improved. As a result, the ophthalmologic system 9 (ophthalmologic apparatus 10) obtains an anterior segment image 14 suitable for estimating the race of the subject.

[第2実施形態の眼科システム]
図10は、第2実施形態の眼科システム9を構成する眼科装置10及びサーバ11のブロック図(演算制御ユニット22及び制御部140の機能ブロック図)である。上記第1実施形態では、推定部144が前眼部像14a,14bの虹彩領域A1内のOK領域122に基づき被検者の人種を推定処理しているが、第2実施形態では推定部144が前眼部像14a,14bの虹彩領域A1の全領域(ほぼ全領域を含む)に基づき被検者の人種の推定処理を行う。
[Ophthalmology system of second embodiment]
FIG. 10 is a block diagram of the ophthalmologic apparatus 10 and the server 11 (a functional block diagram of the arithmetic control unit 22 and the control section 140) that constitute the ophthalmologic system 9 of the second embodiment. In the first embodiment, the estimating unit 144 estimates the race of the subject based on the OK area 122 in the iris area A1 of the anterior segment images 14a and 14b, but in the second embodiment, the estimating unit 144 performs a process of estimating the race of the subject based on the entire area (including almost the entire area) of the iris area A1 of the anterior segment images 14a and 14b.

図10に示すように、第2実施形態の眼科システム9は、眼科装置10の演算制御ユニット22が補間部105として機能する点を除けば第1実施形態の眼科システム9と基本的に同じ構成である。このため、上記第1実施形態と機能又は構成上同一のものについては同一符号を付してその説明は省略する。 As shown in FIG. 10, the ophthalmologic system 9 of the second embodiment has basically the same configuration as the ophthalmologic system 9 of the first embodiment, except that the arithmetic control unit 22 of the ophthalmologic apparatus 10 functions as an interpolation unit 105. It is. For this reason, the same reference numerals are given to the same elements in function or configuration as those in the first embodiment, and the explanation thereof will be omitted.

補間部105は、虹彩領域解析部104によるNG領域120の検出結果に基づき、前眼部像14a,14bの少なくとも一方の虹彩領域A1内にNG領域120が含まれている場合に作動する。この補間部105は、虹彩領域解析部104によるNG領域120の検出結果に基づき、虹彩領域A1内のOK領域122(すなわちNG領域120とは異なる領域)を用いてNG領域120を補間処理する。 The interpolation unit 105 operates when the NG area 120 is included in the iris area A1 of at least one of the anterior segment images 14a and 14b based on the detection result of the NG area 120 by the iris area analysis unit 104. The interpolation unit 105 performs interpolation processing on the NG area 120 using the OK area 122 (that is, a different area from the NG area 120) within the iris area A1 based on the detection result of the NG area 120 by the iris area analysis unit 104.

図11は、補間部105によるNG領域120の補間処理の第1例を説明するための説明図である。図11の符号XIA,XIBに示すように、補間部105は、前眼部像14a,14bの虹彩領域A1内にNG領域120が含まれる場合には、同一の虹彩領域A1内のOK領域122に基づき例えば線形補間法等を用いてNG領域120の補間処理を行う。 FIG. 11 is an explanatory diagram for explaining a first example of interpolation processing for the NG area 120 by the interpolation unit 105. As shown by symbols XIA and XIB in FIG. Based on this, interpolation processing is performed on the NG region 120 using, for example, a linear interpolation method.

図12は、補間部105によるNG領域120の補間処理の第2例を説明するための説明図である。 FIG. 12 is an explanatory diagram for explaining a second example of interpolation processing for the NG area 120 by the interpolation unit 105.

図12の符号XIIAに示すように、補間部105は、カメラ20aにより撮影された前眼部像14aの虹彩領域A1内にNG領域120が含まれる場合には、別のカメラ20bにより撮影された前眼部像14bの虹彩領域A1内からNG領域120に対応する対応領域を検出する。そして、図12の符号XIIBに示すように、補間部105は、対応領域がOK領域122である場合には、この対応領域の各画素の色及び輝度に基づき前眼部像14a内のNG領域120の各画素の色及び輝度を類推することで、NG領域120の補間処理を行う。この場合には、カメラ20aが本発明の第1カメラに相当し且つカメラ20bが本発明の第2カメラに相当する。 As shown by reference numeral XIIA in FIG. 12, if the NG area 120 is included in the iris area A1 of the anterior eye image 14a taken by the camera 20a, the interpolation unit 105 determines whether the NG area 120 is included in the iris area A1 taken by another camera 20b. A corresponding area corresponding to the NG area 120 is detected from within the iris area A1 of the anterior eye segment image 14b. Then, as shown by reference numeral XIIB in FIG. 12, when the corresponding area is an OK area 122, the interpolation unit 105 determines the NG area in the anterior eye image 14a based on the color and brightness of each pixel in this corresponding area. Interpolation processing for the NG area 120 is performed by estimating the color and brightness of each pixel in the NG area 120. In this case, camera 20a corresponds to the first camera of the present invention, and camera 20b corresponds to the second camera of the present invention.

また逆に、補間部105は、カメラ20bにより撮影された前眼部像14bの虹彩領域A1内にNG領域120が含まれる場合には、カメラ20aにより撮影された前眼部像14aの虹彩領域A1内から対応領域を検出する。そして、補間部105は、対応領域がOK領域122である場合には、この対応領域の各画素の色及び輝度に基づき、前眼部像14b内のNG領域120の各画素の色及び輝度を類推することで、NG領域120の補間処理を行う。この場合には、カメラ20aが本発明の第2カメラに相当し且つカメラ20bが本発明の第1カメラに相当する。 Conversely, if the NG area 120 is included in the iris area A1 of the anterior eye image 14b taken by the camera 20b, the interpolation unit 105 calculates the iris area of the anterior eye image 14a taken by the camera 20a. A corresponding area is detected from within A1. Then, when the corresponding area is the OK area 122, the interpolation unit 105 calculates the color and brightness of each pixel in the NG area 120 in the anterior segment image 14b based on the color and brightness of each pixel in this corresponding area. By analogy, interpolation processing for the NG area 120 is performed. In this case, camera 20a corresponds to the second camera of the present invention, and camera 20b corresponds to the first camera of the present invention.

図10に戻って、第2実施形態の色補正部106による色補正処理と瞳孔径補正部108による補正処理とは、上述のNG領域120の検出処理及び補間処理の前又は後に実行される。そして、第2実施形態の画像出力部114は、補間処理等が施された前眼部像14a,14bをサーバ11の画像取得部142へ出力する。 Returning to FIG. 10, the color correction process by the color correction unit 106 and the correction process by the pupil diameter correction unit 108 of the second embodiment are performed before or after the above-described NG area 120 detection process and interpolation process. Then, the image output unit 114 of the second embodiment outputs the anterior segment images 14 a and 14 b that have been subjected to interpolation processing and the like to the image acquisition unit 142 of the server 11 .

第2実施形態のサーバ11の推定部144は、補間部105により補間処理された前眼部像14a,14b内の虹彩領域A1に基づき被検眼Eの虹彩の色(色分布)を検出し、この検出結果に基づき被検者の人種の推定処理を行う。 The estimation unit 144 of the server 11 of the second embodiment detects the iris color (color distribution) of the subject's eye E based on the iris area A1 in the anterior eye images 14a and 14b subjected to interpolation processing by the interpolation unit 105, Based on this detection result, the race of the subject is estimated.

図13は、上記構成の第2実施形態の眼科システム9による被検眼Eの眼特性取得処理の流れ、特に本発明の眼科装置の制御方法に係る人種推定用の前眼部像14a,14bの取得及びデータベース12への蓄積の流れを示すフローチャートである。 FIG. 13 shows the flow of the eye characteristic acquisition process of the eye E to be examined by the ophthalmological system 9 of the second embodiment having the above configuration, particularly the anterior segment images 14a and 14b for race estimation according to the method of controlling the ophthalmological apparatus of the present invention. 12 is a flowchart showing the flow of acquisition and accumulation in the database 12.

図13に示すように、第2実施形態ではステップSA3の処理が一部異なり且つステップSA3-1の処理を新たに実行する点を除けば、図9に示した第1実施形態の眼特性取得処理と基本的に同じである。 As shown in FIG. 13, in the second embodiment, the eye characteristic acquisition of the first embodiment shown in FIG. The processing is basically the same.

ステップSA3では、虹彩領域解析部104が前眼部像14a,14bの虹彩領域A1内からのNG領域120の検出のみを実行し、NG領域120の検出結果を補間部105へ出力する。そして、ステップSA3-1では、補間部105が、虹彩領域解析部104によるNG領域120の検出結果に基づき、既述の図11又は図12に示したようにNG領域120を補間処理する。 In step SA3, the iris area analysis unit 104 only detects the NG area 120 from within the iris area A1 of the anterior segment images 14a and 14b, and outputs the detection result of the NG area 120 to the interpolation unit 105. Then, in step SA3-1, the interpolation unit 105 performs interpolation processing on the NG area 120 as shown in FIG. 11 or 12 described above based on the detection result of the NG area 120 by the iris area analysis unit 104.

以上のように第2実施形態では、補間部105によるNG領域120の補間処理を行うことにより、虹彩領域A1の全領域で被検眼Eの虹彩の色を検出した結果に基づき被検者の人種の推定処理を行うことができる。その結果、虹彩領域A1の一部の領域(NG領域120以外の領域)に基づき被検者の人種の推定処理を行う上記第1実施形態よりも、被検者の人種の推定の精度を高めることができる。 As described above, in the second embodiment, by performing interpolation processing on the NG region 120 by the interpolation unit 105, the color of the iris of the subject's eye E is detected in the entire iris region A1. Species estimation processing can be performed. As a result, the accuracy of estimating the race of the test subject is higher than in the first embodiment, in which the race of the test subject is estimated based on a part of the iris area A1 (region other than the NG area 120). can be increased.

図14は、第2実施形態の眼科システム9の変形例のブロック図である。上記第2実施形態では眼科装置10の演算制御ユニット22が補間部105として機能しているが、図14に示すようにサーバ11の制御部140が補間部105として機能してもよい。この場合においても推定部144は、前眼部像14a,14b内の虹彩領域A1の全領域に基づき被検者の人種の推定処理を行うことができる。 FIG. 14 is a block diagram of a modification of the ophthalmologic system 9 of the second embodiment. In the second embodiment, the arithmetic control unit 22 of the ophthalmologic apparatus 10 functions as the interpolation section 105, but the control section 140 of the server 11 may function as the interpolation section 105 as shown in FIG. Even in this case, the estimating unit 144 can perform the process of estimating the race of the subject based on the entire area of the iris area A1 in the anterior segment images 14a and 14b.

[第3実施形態の眼科システム]
図15は、第3実施形態の眼科システム9を構成する眼科装置10及びサーバ11のブロック図(演算制御ユニット22及び制御部140の機能ブロック図)である。なお、第3実施形態の眼科システム9は、演算制御ユニット22及び制御部140の機能の一部が上記各実施形態とは異なる点を除いて、上記各実施形態と基本的に同じ構成である。このため、上記各実施形態と機能又は構成上同一のものについては同一符号を付してその説明は省略する。
[Ophthalmology system of third embodiment]
FIG. 15 is a block diagram of the ophthalmologic apparatus 10 and the server 11 (a functional block diagram of the arithmetic control unit 22 and the control section 140) that constitute the ophthalmologic system 9 of the third embodiment. Note that the ophthalmologic system 9 of the third embodiment has basically the same configuration as each of the above embodiments, except that some of the functions of the arithmetic control unit 22 and the control section 140 are different from those of the above embodiments. . For this reason, the same reference numerals are given to the same elements in terms of function or configuration as in each of the above embodiments, and the explanation thereof will be omitted.

上記各実施形態では眼科装置10の演算制御ユニット22が色補正部106及び瞳孔径補正部108として機能し、且つサーバ11の制御部140が推定部144及び条件決定部148として機能しているが、演算制御ユニット22及び制御部140の機能を一部入れ替えてもよい。 In each of the above embodiments, the arithmetic control unit 22 of the ophthalmologic apparatus 10 functions as the color correction section 106 and the pupil diameter correction section 108, and the control section 140 of the server 11 functions as the estimation section 144 and the condition determination section 148. , the functions of the arithmetic control unit 22 and the control section 140 may be partially replaced.

例えば図15に示すように、演算制御ユニット22を推定部144及び条件決定部148としても機能させてもよい。この場合には、前眼部像取得部102が前眼部像14a,14bを推定部144へ出力すると共に、虹彩領域解析部104がNG領域120の検出結果を推定部144へ出力する。従って、第3実施形態の前眼部像取得部102及び虹彩領域解析部104は本発明の出力部として機能する。そして、上記各実施形態と同様に、推定部144による被検者の人種の推定処理が行われ、さらにこの人種の推定処理の結果に基づき条件決定部148により被検眼Eの眼特性の取得条件が決定され、この取得条件に従って被検眼Eの眼特性の取得が実行される。 For example, as shown in FIG. 15, the arithmetic and control unit 22 may also function as the estimation section 144 and the condition determination section 148. In this case, the anterior eye segment image acquisition unit 102 outputs the anterior eye segment images 14a and 14b to the estimation unit 144, and the iris area analysis unit 104 outputs the detection result of the NG area 120 to the estimation unit 144. Therefore, the anterior eye segment image acquisition section 102 and the iris region analysis section 104 of the third embodiment function as an output section of the present invention. Then, as in each of the above embodiments, the estimation unit 144 performs a process of estimating the race of the subject, and the condition determining unit 148 determines the ocular characteristics of the eye E based on the result of this process of estimating the race. Acquisition conditions are determined, and the eye characteristics of the eye E to be examined are acquired according to the acquisition conditions.

また、制御部140を色補正部106及び瞳孔径補正部108として機能させてもよい。これにより、画像取得部142により取得された前眼部像14a,14bに対して色補正部106による色補正処理と瞳孔径補正部108による瞳孔径の補正処理とが施される。そして、色補正処理及び瞳孔径の補正処理が施された前眼部像14a,14bが、記憶制御部146によってデータベース12に記憶される。 Further, the control unit 140 may function as the color correction unit 106 and the pupil diameter correction unit 108. Thereby, the anterior eye images 14a and 14b acquired by the image acquisition unit 142 are subjected to color correction processing by the color correction unit 106 and pupil diameter correction processing by the pupil diameter correction unit 108. The anterior segment images 14a and 14b, which have been subjected to the color correction process and the pupil diameter correction process, are then stored in the database 12 by the storage control unit 146.

第3実施形態の眼科システム9は、第1実施形態の演算制御ユニット22及び制御部140の機能の一部が入れ替わっているだけであるので、上記第1実施形態と同様の効果が得られる。 In the ophthalmologic system 9 of the third embodiment, only a part of the functions of the arithmetic control unit 22 and the control section 140 of the first embodiment are replaced, so that the same effects as those of the first embodiment can be obtained.

[その他]
上記各実施形態では、ステレオカメラ20(カメラ20a,20b)により被検眼Eの前眼部Eaを撮影して前眼部像14a,14bを取得しているが、3以上の複数のカメラで前眼部Eaの撮影を行ってもよい。この場合に、例えば第2実施形態の補間部105は、1又は複数の第2カメラにより撮影された前眼部像14の虹彩領域A1内の対応領域(OK領域122)を用いて、第1カメラにより撮影された前眼部像14の虹彩領域A1内のNG領域120の補間処理を行う。
[others]
In each of the above embodiments, the stereo camera 20 (cameras 20a, 20b) photographs the anterior segment Ea of the eye E to obtain the anterior segment images 14a, 14b. The eye Ea may also be photographed. In this case, for example, the interpolation unit 105 of the second embodiment uses the corresponding area (OK area 122) in the iris area A1 of the anterior eye image 14 captured by one or more second cameras to Interpolation processing is performed on the NG area 120 within the iris area A1 of the anterior eye image 14 photographed by the camera.

上記各実施形態では、ステレオカメラ20のカメラ20a,20bにより前眼部Eaを撮影して前眼部像14a,14bを取得し、NG領域120が設定或いは補間処理された前眼部像14a,14bに基づき推定部144が被検者の人種の推定処理を行っているが、前眼部像14a,14bの一方に基づき上記推定処理を行ってもよい。すなわち、被検者の人種の推定処理に用いられるカメラは1つであってもよい。また、この場合には、撮像光学系50が対物レンズ43を通して取得した前眼部像14に対して、NG領域120の設定又は補間処理を行った後、この前眼部像14に基づき推定部144による被検者の人種の推定処理を行うと共にこの前眼部像14をデータベース12に記憶させてもよい。 In each of the embodiments described above, the anterior eye segment Ea is photographed by the cameras 20a and 20b of the stereo camera 20 to obtain the anterior eye segment images 14a and 14b. Although the estimation unit 144 performs the process of estimating the race of the subject based on the image 14b, the estimation process may be performed based on one of the anterior segment images 14a and 14b. That is, only one camera may be used for the process of estimating the race of the subject. In this case, after the imaging optical system 50 performs an NG area 120 setting or interpolation processing on the anterior eye image 14 acquired through the objective lens 43, the estimation unit The anterior segment image 14 may be stored in the database 12 while performing the process of estimating the race of the subject by 144.

上記各実施形態では、ステレオカメラ20による人種推定用の前眼部像14a,14bの取得時に視標表示部54を用いて被検眼Eに白色光を照射しているが、被検眼Eの瞳孔を縮小可能であれば、視標表示部54の代わりに被検眼Eに対して各種の可視光を照射する可視光照射部を用いてもよい。 In each of the embodiments described above, when the stereo camera 20 acquires the anterior segment images 14a and 14b for race estimation, the optotype display unit 54 is used to irradiate the eye E with white light. If the pupil can be reduced, a visible light irradiation unit that irradiates various types of visible light to the eye E may be used instead of the optotype display unit 54.

上記各実施形態では、眼科装置10として被検眼Eの眼底Efの眼底撮影像及びOCT画像を取得する複合機を例に挙げて説明を行ったが、被検眼Eの前眼部Eaのカラー撮影が撮影可能な各種の眼科装置、例えば、眼底カメラ、OCT装置、細隙灯顕微鏡、及び蛍光眼底造影検査装置等に本発明を適用可能である。 In each of the above embodiments, the ophthalmological apparatus 10 is described as an example of a multifunction device that acquires a photographed fundus image and an OCT image of the fundus Ef of the eye E to be examined. The present invention can be applied to various ophthalmological devices capable of photographing images, such as fundus cameras, OCT devices, slit lamp microscopes, and fluorescence fundus contrast examination devices.

9…眼科システム
10…眼科装置
10a…眼底カメラユニット
10b…OCTユニット
11…サーバ
12…データベース
14,14a,14b…前眼部像
15…眼底撮影像
16…OCT画像
17…ID情報
18…人種情報
20…ステレオカメラ
20a,20b…カメラ
22…演算制御ユニット
23…モニタ
30…照明光学系
50…撮像光学系
54…視標表示部
70…フォーカス光学系
80…OCT光学系
100…光学系制御部
102…前眼部像取得部
104…虹彩領域解析部
105…補間部
106…色補正部
108…瞳孔径補正部
110…OCT画像形成部
112…眼特性取得制御部
114…画像出力部
120…NG領域
122…OK領域
130…標準光源スペクトル情報
132…光源スペクトル情報
140…制御部
142…画像取得部
144…推定部
146…記憶制御部
148…条件決定部
A1…虹彩領域
A2…瞳孔領域
E…被検眼
Ea…前眼部
Ef…眼底
9... Ophthalmic system 10... Ophthalmic device 10a... Fundus camera unit 10b... OCT unit 11... Server 12... Database 14, 14a, 14b... Anterior segment image 15... Fundus photographed image 16... OCT image 17... ID information 18... Race Information 20...stereo cameras 20a, 20b...camera 22...arithmetic control unit 23...monitor 30...illumination optical system 50...imaging optical system 54...target display section 70...focus optical system 80...OCT optical system 100...optical system control section 102...Anterior segment image acquisition unit 104...Iris region analysis unit 105...Interpolation unit 106...Color correction unit 108...Pupillary diameter correction unit 110...OCT image formation unit 112...Eye characteristic acquisition control unit 114...Image output unit 120...NG Area 122...OK area 130...Standard light source spectrum information 132...Light source spectrum information 140...Control unit 142...Image acquisition unit 144...Estimation unit 146...Storage control unit 148...Condition determination unit A1...Iris area A2...Pupillary area E...Eye area Optometry Ea...anterior segment Ef...fundus

Claims (13)

眼科装置とサーバとを備える眼科システムにおいて、
前記眼科装置が、
被検眼のカラーの前眼部像を取得する前眼部像取得部と、
前記前眼部像内の前記被検眼の虹彩に対応する領域を虹彩領域とした場合に、前記虹彩領域内において前記虹彩の色を識別不能な識別不能領域を検出する領域検出部と、
前記前眼部像及び前記領域検出部の検出結果を、前記虹彩領域の色に基づき被検者の人種を推定する推定部へ出力する出力部と、
前記前眼部像を前記サーバへ出力する前眼部像出力部と、
を備え、
前記領域検出部の検出結果に基づき、前記虹彩領域の中で前記識別不能領域とは異なる識別可能領域を用いて前記識別不能領域を補間処理する補間部が、前記眼科装置又は前記サーバに設けられており、
前記推定部が、前記眼科装置又は前記サーバに設けられており、前記補間部により前記補間処理された前記虹彩領域に基づき、前記被検者の人種を推定し、
前記前眼部像取得部が、前記被検眼を互いに異なる方向から撮影する複数のカメラから前記前眼部像を取得し、
前記補間部が、前記複数のカメラの中の第1カメラにより撮影された前記前眼部像内の前記識別可能領域に基づき、前記複数のカメラの中の前記第1カメラとは異なる第2カメラにより撮影された前記前眼部像の前記識別不能領域を補間処理する眼科システム。
In an ophthalmology system including an ophthalmology device and a server,
The ophthalmological device includes:
an anterior eye segment image acquisition unit that acquires a color anterior eye segment image of the eye to be examined;
an area detection unit that detects an unidentifiable area in which the color of the iris cannot be identified in the iris area, when an area corresponding to the iris of the eye to be examined in the anterior eye image is an iris area;
an output unit that outputs the anterior eye segment image and the detection result of the area detection unit to an estimation unit that estimates the race of the subject based on the color of the iris area;
an anterior eye segment image output unit that outputs the anterior eye segment image to the server;
Equipped with
The ophthalmological apparatus or the server includes an interpolation unit that performs interpolation processing on the unidentifiable area using an identifiable area different from the unidentifiable area in the iris area based on a detection result of the area detecting unit. and
The estimation unit is provided in the ophthalmological apparatus or the server, and estimates the race of the subject based on the iris area subjected to the interpolation process by the interpolation unit,
the anterior eye segment image acquisition unit obtains the anterior eye segment images from a plurality of cameras that photograph the subject's eye from different directions;
The interpolation unit selects a second camera different from the first camera among the plurality of cameras based on the identifiable area in the anterior eye image taken by the first camera among the plurality of cameras. An ophthalmologic system that performs interpolation processing on the indiscernible region of the anterior eye image photographed by.
眼科装置とサーバとを備える眼科システムにおいて、
前記眼科装置が、
被検眼のカラーの前眼部像を取得する前眼部像取得部と、
前記前眼部像内の前記被検眼の虹彩に対応する領域を虹彩領域とした場合に、前記虹彩領域内において前記虹彩の色を識別不能な識別不能領域を検出する領域検出部と、
前記前眼部像及び前記領域検出部の検出結果を、前記虹彩領域の色に基づき被検者の人種を推定する推定部へ出力する出力部と、
前記前眼部像を前記サーバへ出力する前眼部像出力部と、
を備え、
前記前眼部像内の前記被検眼の瞳孔に対応する領域を瞳孔領域とした場合に、前眼部像取得部により取得された前記前眼部像内の前記虹彩領域及び前記瞳孔領域を画像処理して、前記瞳孔領域の瞳孔径を予め定められた大きさに補正する瞳孔径補正部が、前記眼科装置又は前記サーバに設けられている眼科システム。
In an ophthalmology system including an ophthalmology device and a server,
The ophthalmological device includes:
an anterior eye segment image acquisition unit that acquires a color anterior eye segment image of the eye to be examined;
an area detection unit that detects an unidentifiable area in which the color of the iris cannot be identified in the iris area, when an area corresponding to the iris of the eye to be examined in the anterior eye image is an iris area;
an output unit that outputs the anterior eye segment image and the detection result of the area detection unit to an estimation unit that estimates the race of the subject based on the color of the iris area;
an anterior eye segment image output unit that outputs the anterior eye segment image to the server;
Equipped with
When the area corresponding to the pupil of the subject's eye in the anterior eye image is defined as the pupil area, the iris area and the pupil area in the anterior eye image acquired by the anterior eye image acquisition unit are imaged. An ophthalmologic system, wherein the ophthalmologic apparatus or the server includes a pupil diameter correction unit that processes the pupil diameter of the pupil region to a predetermined size.
前記推定部が、前記サーバに設けられており、前記領域検出部の検出結果に基づき、前記虹彩領域内の前記識別不能領域とは異なる識別可能領域から、前記被検者の人種を推定する請求項に記載の眼科システム。 The estimation unit is provided in the server, and estimates the race of the subject from an identifiable area different from the unidentifiable area in the iris area based on the detection result of the area detection unit. The ophthalmological system according to claim 2 . 前記領域検出部の検出結果に基づき、前記虹彩領域の中で前記識別不能領域とは異なる識別可能領域を用いて前記識別不能領域を補間処理する補間部が、前記眼科装置又は前記サーバに設けられており、
前記推定部が、前記眼科装置又は前記サーバに設けられており、前記補間部により前記補間処理された前記虹彩領域に基づき、前記被検者の人種を推定する請求項に記載の眼科システム。
The ophthalmological apparatus or the server includes an interpolation unit that performs interpolation processing on the unidentifiable area using an identifiable area different from the unidentifiable area in the iris area based on a detection result of the area detecting unit. and
The ophthalmological system according to claim 2 , wherein the estimating unit is provided in the ophthalmological apparatus or the server, and estimates the race of the subject based on the iris area subjected to the interpolation process by the interpolating unit. .
前記前眼部像取得部が、前記被検眼を互いに異なる方向から撮影する複数のカメラから前記前眼部像を取得し、
前記補間部が、前記複数のカメラの中の第1カメラにより撮影された前記前眼部像内の前記識別可能領域に基づき、前記複数のカメラの中の前記第1カメラとは異なる第2カメラにより撮影された前記前眼部像の前記識別不能領域を補間処理する請求項に記載の眼科システム。
the anterior eye segment image acquisition unit obtains the anterior eye segment images from a plurality of cameras that photograph the subject's eye from different directions;
The interpolation unit selects a second camera different from the first camera among the plurality of cameras based on the identifiable area in the anterior eye image taken by the first camera among the plurality of cameras. The ophthalmologic system according to claim 4 , wherein the indiscernible region of the anterior eye segment image photographed is subjected to interpolation processing.
前記サーバが、前記前眼部像と前記推定部の推定結果とを関連付けてデータベースに記憶させる請求項1、からのいずれか1項に記載の眼科システム。 The ophthalmologic system according to any one of claims 1 and 3 to 5 , wherein the server associates the anterior eye segment image with the estimation result of the estimation unit and stores it in a database. 前記眼科装置に、前記被検眼の眼特性を取得する眼特性取得部と、前記眼特性取得部が取得した前記眼特性をサーバへ出力する眼特性出力部と、が設けられており、
前記サーバが、前記前眼部像及び前記眼特性と、前記推定部の推定結果とを関連付けてデータベースに記憶させる請求項に記載の眼科システム。
The ophthalmological apparatus is provided with an eye characteristic acquisition unit that acquires the eye characteristics of the eye to be examined, and an eye characteristic output unit that outputs the eye characteristics acquired by the eye characteristic acquisition unit to a server,
The ophthalmologic system according to claim 6 , wherein the server associates the anterior segment image, the eye characteristics, and the estimation result of the estimation unit and stores them in a database.
前眼部像取得部により取得された前記前眼部像の色を、予め定められた標準光源による前記被検眼の照明下で前眼部像取得部により取得される前記前眼部像の色に色補正する色補正部が、前記眼科装置又は前記サーバに設けられている請求項からのいずれか1項に記載の眼科システム。 The color of the anterior eye segment image acquired by the anterior eye segment image acquisition unit is the color of the anterior eye segment image acquired by the anterior eye segment image acquisition unit under illumination of the eye to be examined by a predetermined standard light source. The ophthalmologic system according to any one of claims 1 to 7 , wherein a color correction unit that performs color correction is provided in the ophthalmologic apparatus or the server. 物レンズと、
前記対物レンズの光軸に沿って前記被検眼の眼底に対して可視光を照射して前記被検眼の瞳孔を縮小させる可視光照射部を備え、
前記前眼部像取得部が、前記可視光照射部により前記可視光が照射されている前記被検眼の前記前眼部像を取得する請求項1から8のいずれか1項に記載の眼科システム。
objective lens;
comprising a visible light irradiation unit that irradiates the fundus of the eye to be examined with visible light along the optical axis of the objective lens to shrink the pupil of the eye to be examined;
The ophthalmological system according to any one of claims 1 to 8, wherein the anterior ocular segment image acquisition unit acquires the anterior ocular segment image of the eye to be examined, which is irradiated with the visible light by the visible light irradiation unit. .
前記領域検出部が、前記虹彩領域の中で前記虹彩とは異なる像が映っている領域を前記識別不能領域として検出する請求項1から7のいずれか1項に記載の眼科システム The ophthalmologic system according to any one of claims 1 to 7 , wherein the area detection unit detects an area in the iris area in which an image different from the iris is reflected as the unidentifiable area. 前記領域検出部が、前記虹彩領域の中で睫毛又は外乱光が映っている領域を前記識別不能領域として検出する請求項10に記載の眼科システム The ophthalmological system according to claim 10 , wherein the area detection unit detects an area where eyelashes or ambient light are reflected in the iris area as the unidentifiable area. 前記被検眼の眼特性を取得する眼特性取得部と、
前記眼特性取得部が取得した前記眼特性を前記サーバへ出力する眼特性出力部と、
を備える請求項1から11のいずれか1項に記載の眼科システム
an eye characteristics acquisition unit that acquires eye characteristics of the eye to be examined;
an eye characteristics output unit that outputs the eye characteristics acquired by the eye characteristics acquisition unit to the server;
The ophthalmologic system according to any one of claims 1 to 11 , comprising:
前記推定部を備え、
前記推定部が、前記領域検出部の検出結果に基づき、前記虹彩領域内の前記識別不能領域とは異なる識別可能領域から、前記被検者の人種を推定する請求項1から12のいずれか1項に記載の眼科システム
comprising the estimator,
13. Any one of claims 1 to 12 , wherein the estimation unit estimates the race of the subject from an identifiable area in the iris area that is different from the indiscernible area, based on the detection result of the area detection unit. The ophthalmological system according to item 1.
JP2019176438A 2019-09-27 2019-09-27 ophthalmology system Active JP7391586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019176438A JP7391586B2 (en) 2019-09-27 2019-09-27 ophthalmology system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019176438A JP7391586B2 (en) 2019-09-27 2019-09-27 ophthalmology system

Publications (2)

Publication Number Publication Date
JP2021052862A JP2021052862A (en) 2021-04-08
JP7391586B2 true JP7391586B2 (en) 2023-12-05

Family

ID=75271477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019176438A Active JP7391586B2 (en) 2019-09-27 2019-09-27 ophthalmology system

Country Status (1)

Country Link
JP (1) JP7391586B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004261515A (en) 2003-03-04 2004-09-24 Matsushita Electric Ind Co Ltd Iris image pickup device
JP2004534569A (en) 2001-04-27 2004-11-18 ボシュ・アンド・ロム・インコーポレイテッド Recognition and alignment of iris patterns
JP2014079495A (en) 2012-10-18 2014-05-08 Canon Inc Ophthalmologic apparatus and ophthalmologic control method, and program
JP2014083095A (en) 2012-10-19 2014-05-12 Canon Inc Ophthalmological photographing equipment, control method for ophthalmological photographing equipment, and program
JP2018206239A (en) 2017-06-08 2018-12-27 シャープ株式会社 Authentication device and authentication method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004534569A (en) 2001-04-27 2004-11-18 ボシュ・アンド・ロム・インコーポレイテッド Recognition and alignment of iris patterns
JP2004261515A (en) 2003-03-04 2004-09-24 Matsushita Electric Ind Co Ltd Iris image pickup device
JP2014079495A (en) 2012-10-18 2014-05-08 Canon Inc Ophthalmologic apparatus and ophthalmologic control method, and program
JP2014083095A (en) 2012-10-19 2014-05-12 Canon Inc Ophthalmological photographing equipment, control method for ophthalmological photographing equipment, and program
JP2018206239A (en) 2017-06-08 2018-12-27 シャープ株式会社 Authentication device and authentication method

Also Published As

Publication number Publication date
JP2021052862A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
US9980643B2 (en) Ophthalmologic apparatus
US9615734B2 (en) Ophthalmologic apparatus
JP6685151B2 (en) Ophthalmic equipment
US10165939B2 (en) Ophthalmologic apparatus and ophthalmologic apparatus control method
JP6652281B2 (en) Optical tomographic imaging apparatus, control method thereof, and program
JP7466607B2 (en) Slit Lamp Microscope
WO2021029231A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP2023138577A (en) slit lamp microscope
WO2014207904A1 (en) Image processing device and image processing method
JP5830264B2 (en) Ophthalmic imaging equipment
JP6637743B2 (en) Ophthalmic equipment
WO2020137531A1 (en) Ophthalmic information processing device, ophthalmic imaging device, ophthalmic information processing method, and program
JP7391586B2 (en) ophthalmology system
JP7430082B2 (en) Ophthalmological equipment and its operating method
WO2021261103A1 (en) Slit-lamp microscope
WO2021085020A1 (en) Ophthalmic device and method for controlling same
JP2022053081A (en) Fundus camera and control method of the same
CN111787843A (en) Blood flow measuring device
JP6397632B2 (en) Ophthalmic examination equipment
JP6839310B2 (en) Optical tomography imaging device, its control method, and program
WO2022030364A1 (en) Slit-lamp microscope
JP7121510B2 (en) ophthalmic equipment
Williams et al. Disc analysis
JP2009279026A (en) Ocular fundus imaging apparatus and ocular fundus image processor
WO2015098912A1 (en) Tomography device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231122

R150 Certificate of patent or registration of utility model

Ref document number: 7391586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150