JP2018027406A - Fundus imaging system - Google Patents

Fundus imaging system Download PDF

Info

Publication number
JP2018027406A
JP2018027406A JP2017227088A JP2017227088A JP2018027406A JP 2018027406 A JP2018027406 A JP 2018027406A JP 2017227088 A JP2017227088 A JP 2017227088A JP 2017227088 A JP2017227088 A JP 2017227088A JP 2018027406 A JP2018027406 A JP 2018027406A
Authority
JP
Japan
Prior art keywords
fundus
image
unit
light
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017227088A
Other languages
Japanese (ja)
Inventor
有馬 啓介
Keisuke Arima
啓介 有馬
良一 矢萩
Ryoichi Yahagi
良一 矢萩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Publication of JP2018027406A publication Critical patent/JP2018027406A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a fundus imaging system capable of acquiring personal authentication information used for personal authentication of a subject even when an examination is performed without the presence of an examiner.SOLUTION: A fundus imaging system includes an ophthalmologic imaging device and personal information acquisition means. The ophthalmologic imaging device includes an optical system and a processing part. The optical system scans the fundus of an eye to be examined with a measurement light and detects an interference light obtained by superimposing a return light of the measurement light from the fundus and a reference light. The processing part forms an image of the fundus by processing the result of the detection of the interference light by the optical system. The personal information acquisition means analyzes the image formed by the processing part, and acquires personal authentication information used for personal authentication.SELECTED DRAWING: Figure 15

Description

本発明は、眼底撮影システムに関する。   The present invention relates to a fundus imaging system.

眼底カメラ、光干渉断層計、光走査型検眼鏡等の眼底撮影システムとして、被検者の眼底像と被検者とを被検者IDにより関連付けるようにしたものが知られている(たとえば、特許文献1参照。)。また、患者の氏名、カルテに記載する医事データ(疾病名等)と眼底像とをリンクさせて電子データとして保存する医療データ検索システムも知られている(たとえば、特許文献2参照。)。   As a fundus imaging system such as a fundus camera, an optical coherence tomometer, or an optical scanning ophthalmoscope, a system in which a fundus image of a subject and a subject are associated by a subject ID is known (for example, (See Patent Document 1). There is also known a medical data search system that links medical data (such as a disease name) described in a patient's name and medical record and fundus images and stores them as electronic data (for example, see Patent Document 2).

特開2002−369801号公報JP 2002-369801 A 特開平06−110947号公報Japanese Patent Laid-Open No. 06-110947

ところで、集団検診、在宅医療、僻地医療、老人福祉施設などの現場において、検者が立ち会うことなく検査が実施される場合がある。   By the way, in some places such as group screening, home medical care, remote medical care, and welfare facilities for the elderly, the inspection may be performed without the examiner present.

本発明は、検者が立ち会うことなく検査が実施される場合においても、被検者の個人認証を行うために使用される個人認証情報を取得することが可能な眼底撮影システムを提供することを目的とする。   It is an object of the present invention to provide a fundus imaging system capable of acquiring personal authentication information used for performing personal authentication of a subject even when the test is performed without the attendance of the examiner. Objective.

実施形態に係る眼底撮影システムは、眼科撮影装置と、個人情報取得手段とを含む。眼科撮影装置は、光学系と、処理部とを含む。光学系は、被検眼の眼底を測定光で走査し、眼底からの測定光の戻り光と参照光とを重ね合わせて得られた干渉光を検出する。処理部は、光学系による干渉光の検出結果を処理することにより眼底の画像を形成する。個人情報取得手段は、処理部により形成された画像を解析して、個人認証を行うために使用される個人認証情報を取得する。   The fundus imaging system according to the embodiment includes an ophthalmologic imaging apparatus and personal information acquisition means. The ophthalmologic photographing apparatus includes an optical system and a processing unit. The optical system scans the fundus of the subject's eye with the measurement light, and detects interference light obtained by superimposing the return light of the measurement light from the fundus and the reference light. The processing unit forms a fundus image by processing the detection result of the interference light by the optical system. The personal information acquisition unit analyzes the image formed by the processing unit and acquires personal authentication information used for personal authentication.

実施形態に係る眼底撮影システムによれば、検者が立ち会うことなく検査が実施される場合においても個人認証情報を取得することが可能である。   According to the fundus imaging system according to the embodiment, it is possible to acquire personal authentication information even when an examination is performed without the examiner present.

実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの使用形態の一例を示す概略図である。It is the schematic which shows an example of the usage pattern of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの動作例を示す概略図である。It is the schematic which shows the operation example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの動作例を示す概略図である。It is the schematic which shows the operation example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの使用形態の一例を示す概略図である。It is the schematic which shows an example of the usage pattern of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment. 実施形態に係る眼底撮影システムの構成例を示す概略図である。It is the schematic which shows the structural example of the fundus imaging system which concerns on embodiment.

〈第1の実施形態〉
(光走査型検眼鏡の外観構成の概要)
図1ないし図4は、実施形態に係る眼底撮影装置としてのポータブルタイプ(持ち運び可能タイプ、可動タイプ)の光走査型検眼鏡の説明図である。図1において、符号1は、装置本体としての光走査型検眼鏡本体を示し、符号2は取っ手部材を示す。
<First Embodiment>
(Outline configuration of optical scanning ophthalmoscope)
1 to 4 are explanatory views of a portable type (portable type, movable type) optical scanning ophthalmoscope as a fundus imaging apparatus according to an embodiment. In FIG. 1, reference numeral 1 denotes an optical scanning ophthalmoscope main body as the apparatus main body, and reference numeral 2 denotes a handle member.

図1および図2に示すように、光走査型検眼鏡本体1の正面側(被検者に対面する側)には接眼鏡筒部3が設けられている。光走査型検眼鏡本体1の背面側(検者に対面する側)には、図3に示すように、透明板4が設けられている。検者は、透明板4を介して、後述するモニタ部の液晶表示画面5を視認できる。   As shown in FIGS. 1 and 2, an eyepiece tube portion 3 is provided on the front side (side facing the subject) of the optical scanning ophthalmoscope body 1. As shown in FIG. 3, a transparent plate 4 is provided on the back side of the optical scanning ophthalmoscope main body 1 (the side facing the examiner). The examiner can visually recognize the liquid crystal display screen 5 of the monitor unit described later via the transparent plate 4.

光走査型検眼鏡本体1の内部には、レーザ走査光学系と、このレーザ走査光学系を制御する制御回路部と、眼底像構築部(像構築部)と、点灯制御回路部と、モニタ部と、電源部と、眼底観察撮影に必要なその他の駆動機構とが設けられている。光走査型検眼鏡本体1の上面には、図2に示すように、電源オン/オフ用の電源ボタンBが設けられている。   The optical scanning ophthalmoscope main body 1 includes a laser scanning optical system, a control circuit unit that controls the laser scanning optical system, a fundus image construction unit (image construction unit), a lighting control circuit unit, and a monitor unit. And a power supply unit and other drive mechanisms necessary for fundus observation photography. On the upper surface of the optical scanning ophthalmoscope main body 1, a power button B for power on / off is provided as shown in FIG.

この実施形態の接眼鏡筒部3は、図2に示すように、検者に対面する側から見て、左側に設けられている。取っ手部材2には、把持部6と着脱突起部7とが設けられている。図2に点線で示す台形状の凹部8は、光走査型検眼鏡本体1の下側の面において接眼鏡筒部3の配設位置に対応する位置に設けられている。   The eyepiece tube portion 3 of this embodiment is provided on the left side as seen from the side facing the examiner, as shown in FIG. The handle member 2 is provided with a gripping portion 6 and a detachable protrusion portion 7. A trapezoidal concave portion 8 indicated by a dotted line in FIG. 2 is provided at a position corresponding to the arrangement position of the eyepiece tube portion 3 on the lower surface of the optical scanning ophthalmoscope main body 1.

着脱突起部7は、凹部8の形状に対応する形状を有し、凹部8に嵌合される。着脱突起部7および凹部8の一方には、マグネット部材(図示を略す)が設けられている。   The detachable protrusion 7 has a shape corresponding to the shape of the recess 8 and is fitted into the recess 8. One of the detachable protrusion 7 and the recess 8 is provided with a magnet member (not shown).

また、着脱突起部7および凹部8の他方には、マグネット部材による引力に作用する磁性部材が設けられている。この実施形態では、取っ手部材2は、マグネット部材による引力によって光走査型検眼鏡本体1に着脱されるが、この構成に限られるものではない。   In addition, a magnetic member that acts on the attractive force of the magnet member is provided on the other side of the detachable protrusion 7 and the recess 8. In this embodiment, the handle member 2 is attached to and detached from the optical scanning ophthalmoscope main body 1 by the attractive force of the magnet member, but is not limited to this configuration.

取っ手部材2の把持部6には、図4に示すように、撮影ボタン9と、アライメントボタン10と、合焦ボタン11とが設けられている(これらの機能については後述する)。   As shown in FIG. 4, the grip 6 of the handle member 2 is provided with a photographing button 9, an alignment button 10, and a focusing button 11 (these functions will be described later).

この実施形態の光走査型検眼鏡は、図5に示すように、支持台12に装着された状態でも使用可能である。支持台12の上部には、額当て部13が設けられている。支持台12の傾斜部14には、係合突起部(図示を略す)が形成されている。この係合突起部に凹部8を嵌合させることにより、光走査型検眼鏡本体1が支持台12に支持され、かつ固定される。   As shown in FIG. 5, the optical scanning ophthalmoscope of this embodiment can be used even when it is mounted on the support base 12. A forehead support 13 is provided at the top of the support 12. An engaging protrusion (not shown) is formed on the inclined portion 14 of the support base 12. The optical scanning ophthalmoscope main body 1 is supported and fixed to the support base 12 by fitting the concave portion 8 to the engaging projection.

光走査型検眼鏡本体1の上面には、撮影ボタン9’、アライメントボタン10’、合焦ボタン11’が設けられている。これらボタン9’〜11’に対する操作は、光走査型検眼鏡本体1が支持台12に装着されているときに有効となる。撮影ボタン9’、アライメントボタン10’および合焦ボタン11’の有効/無効の切り替えは、たとえば、支持台12に設けられた検知スイッチ(図示を略す)を介して行われる。   On the upper surface of the optical scanning ophthalmoscope main body 1, an imaging button 9 ', an alignment button 10', and a focusing button 11 'are provided. Operations on these buttons 9 ′ to 11 ′ are effective when the optical scanning ophthalmoscope main body 1 is mounted on the support base 12. For example, the photographing button 9 ′, the alignment button 10 ′, and the focusing button 11 ′ are switched between valid / invalid via a detection switch (not shown) provided on the support 12.

なお、取っ手部材2が外された状態の光走査型検眼鏡本体1を支持台12に装着せずに使用する場合であっても撮影ボタン9’、アライメントボタン10’および合焦ボタン11’を使用できるように構成することも可能である。   Even when the optical scanning ophthalmoscope main body 1 with the handle member 2 removed is used without being attached to the support base 12, the photographing button 9 ', the alignment button 10' and the focusing button 11 'are used. It can also be configured to be usable.

把持部6の下部には、スマートフォン、タブレット端末、携帯情報機器(PDA)等の携帯情報機器を接続するための差し込みプラグ(USB)14が設けられている。差し込みプラグ14は、図6に示す携帯情報機器16にコード15を介して接続される。携帯情報機器16には、複数の操作ボタン17が設けられている。ここでは、複数個の操作ボタン17は、撮影ボタン9、アライメントボタン10、合焦ボタン11に代わるものとして用いられるが、これに限るものではない。   A plug (USB) 14 for connecting a portable information device such as a smartphone, a tablet terminal, or a portable information device (PDA) is provided below the grip 6. The plug 14 is connected to the portable information device 16 shown in FIG. The portable information device 16 is provided with a plurality of operation buttons 17. Here, the plurality of operation buttons 17 are used as substitutes for the shooting button 9, the alignment button 10, and the focus button 11, but are not limited thereto.

また、この実施形態では、携帯情報機器16の表示画面18に眼底像EGrが表示されるが、これに限るものではない。たとえば、後述する内蔵メモリ部に眼底像EGrを記憶し、図2に示す出力ボタンOBが操作されたことを受けて、眼底像EGrを出力する構成としてよい。   Further, in this embodiment, the fundus image EGr is displayed on the display screen 18 of the portable information device 16, but the present invention is not limited to this. For example, the fundus image EGr may be stored in a built-in memory unit described later, and the fundus image EGr may be output in response to the operation of the output button OB shown in FIG.

以下の説明では、ポータブルタイプの光走査型検眼鏡における走査光学系および制御回路部について説明するが、ポータブルタイプと据え置き型の双方として使用可能な光走査型検眼鏡や、据え置き型専用の光走査型検眼鏡についても、この実施形態に係る構成を適用することができる。   In the following description, a scanning optical system and a control circuit unit in a portable type optical scanning ophthalmoscope will be described. However, an optical scanning ophthalmoscope that can be used as both a portable type and a stationary type, or an optical scanning dedicated to a stationary type. The configuration according to this embodiment can also be applied to the mold ophthalmoscope.

また、この実施形態では、眼底像EGrは、内蔵メモリ部に逐次保存される。しかし、有線電話回線や無線電話回線を介して眼底像EGrを医療機関に送信するように構成してもよい。   In this embodiment, the fundus image EGr is sequentially stored in the built-in memory unit. However, the fundus image EGr may be transmitted to a medical institution via a wired telephone line or a wireless telephone line.

(光走査型検眼鏡の走査光学系、制御回路部の概要)
図7は、この実施形態に係る光走査型検眼鏡の走査光学系および制御部を示すブロック図である。符号20は、照明光を照射する照明光源部を示す。また、符号21は受光部を示す。照明光源部20は、赤外光を照射する赤外光源20aと、B光(青色光)を発生する青色光源20bと、G光(緑色光)を発生する緑色光源20gと、R光(赤色光)を発生する赤色光源20rとを含む。これら光源のそれぞれとしては、空間的コヒーレンシの高い光源、たとえば、半導体レーザ(波長掃引レーザ、スーパールミネセントダイオードを含む)、固体レーザ、ガスレーザ、若しくはそれらから発せられた光を光ファイバに結合させたもの、またはファイバレーザが用いられる。
(Outline of scanning optical system and control circuit of optical scanning ophthalmoscope)
FIG. 7 is a block diagram showing a scanning optical system and a control unit of the optical scanning ophthalmoscope according to this embodiment. Reference numeral 20 denotes an illumination light source unit that emits illumination light. Reference numeral 21 denotes a light receiving portion. The illumination light source unit 20 includes an infrared light source 20a that emits infrared light, a blue light source 20b that generates B light (blue light), a green light source 20g that generates G light (green light), and R light (red). A red light source 20r that generates light). Each of these light sources includes a highly spatially coherent light source, such as a semiconductor laser (including wavelength swept lasers, superluminescent diodes), a solid state laser, a gas laser, or light emitted from them coupled to an optical fiber. A fiber laser is used.

赤外光源20aから発せされた赤外光Paは、集光レンズ20a’により集光されて、反射ミラー20a”に導かれる。青色光源20bから発せられた青色光Bは、集光レンズ20b’により集光されて、ダイクロイックミラー20b”に導かれる。緑色光源20gから発せられた緑色光Gは、集光レンズ20g’により集光されて、ダイクロイックミラー20g”に導かれる。赤色光源20rから発せられた赤色光Rは、集光レンズ20r’により集光されて、ダイクロイックミラー20r”に導かれる。   The infrared light Pa emitted from the infrared light source 20a is condensed by the condenser lens 20a ′ and guided to the reflection mirror 20a ″. The blue light B emitted from the blue light source 20b is collected by the condenser lens 20b ′. Is condensed and guided to the dichroic mirror 20b ″. The green light G emitted from the green light source 20g is condensed by the condenser lens 20g ′ and guided to the dichroic mirror 20g ″. The red light R emitted from the red light source 20r is collected by the condenser lens 20r ′. The light is guided to the dichroic mirror 20r ″.

ダイクロイックミラー20b”は赤外光Paを透過し、青色光Bを反射する機能を果たす。ダイクロイックミラー20g”は、赤外光Paおよび青色光Bを透過させ、かつ、緑色光Gを反射する。ダイクロイックミラー20r”は、赤色光Rを透過させ、かつ、緑色光G、青色光Bおよび赤外光Paを反射する。   The dichroic mirror 20b ″ transmits infrared light Pa and functions to reflect blue light B. The dichroic mirror 20g ″ transmits infrared light Pa and blue light B and reflects green light G. The dichroic mirror 20r ″ transmits red light R and reflects green light G, blue light B, and infrared light Pa.

赤外光Pa、青色光B、緑色光Gおよび赤色光Rの光路は、反射ミラー20a”、並びにダイクロイックミラー20b”、20g”および20r”によって合成される。さらに、これら光は、ビームスプリッタ22に導かれ、ビームスプリッタ22を透過し、MEMSミラー23に導かれる。MEMSミラー23は、2軸光走査器として機能する。本実施形態では、2軸光走査器をMEMSミラーとしたが、その限りではない。たとえば、ガルバノミラー光走査器、ポリゴンミラー光走査器などの1軸ミラー走査器2つを組み合わせることにより、2軸光走査器を構成してもよい。この場合、2軸光走査器に含まれる2つの1軸ミラー走査器の間にリレーレンズ光学系が設けられていてもよい。   The optical paths of the infrared light Pa, the blue light B, the green light G, and the red light R are synthesized by the reflection mirror 20a ″ and the dichroic mirrors 20b ″, 20g ″, and 20r ″. Further, these lights are guided to the beam splitter 22, pass through the beam splitter 22, and are guided to the MEMS mirror 23. The MEMS mirror 23 functions as a biaxial optical scanner. In this embodiment, the biaxial optical scanner is a MEMS mirror, but this is not a limitation. For example, a two-axis optical scanner may be configured by combining two uniaxial mirror scanners such as a galvanometer mirror optical scanner and a polygon mirror optical scanner. In this case, a relay lens optical system may be provided between two uniaxial mirror scanners included in the biaxial optical scanner.

赤外光Pa、青色光B、緑色光Gおよび赤色光Rは、MEMSミラー23により2次元的に偏向される。さらに、これら光は、リレーレンズ24に導かれ、被検眼Eの眼底Erと共役な面Er’においてスポット光として空中結像される。   The infrared light Pa, the blue light B, the green light G, and the red light R are two-dimensionally deflected by the MEMS mirror 23. Further, these lights are guided to the relay lens 24 and imaged in the air as spot lights on a surface Er ′ conjugate with the fundus Er of the eye E to be examined.

共役面Er’において空中結像された光は、合焦レンズとしての対物レンズ25を透過し、被検眼Eの瞳孔Epおよび水晶体Ecを通じて眼内に導かれ、共役面Er’と共役な眼底Erの共役面Er”にスポット光Spとして結像される。   The light imaged in the air on the conjugate plane Er ′ is transmitted through the objective lens 25 as a focusing lens, guided into the eye through the pupil Ep and the crystalline lens Ec of the eye E, and the fundus Er Er conjugate with the conjugate plane Er ′. Is imaged as spot light Sp on the conjugate plane Er ″.

なお、対物レンズ25は、接眼鏡筒部3に設けられており、マニュアル操作によって軸方向に移動される。被検眼Eの屈折力に応じて接眼鏡筒部3の環状リング部材(図示を略す)が回転されると、対物レンズ25が光軸方向に移動される。それにより、共役面Er”が眼底Erに合致され、その結果、鮮明なスポット光Spが眼底Erに形成される。   The objective lens 25 is provided in the eyepiece tube portion 3 and is moved in the axial direction by a manual operation. When the annular ring member (not shown) of the eyepiece tube portion 3 is rotated according to the refractive power of the eye E, the objective lens 25 is moved in the optical axis direction. Accordingly, the conjugate plane Er ″ is matched with the fundus oculi Er, and as a result, a clear spot light Sp is formed on the fundus oculi Er.

図8に示すように、眼底Erは、MEMSミラー23の作用により2次元的に走査される。図8において、符号SLは走査スポット光Spによる走査軌跡を示し、符号Brは血管を示し、符号Puは乳頭部を示し、符号Quは黄斑部を示す。   As shown in FIG. 8, the fundus Er is scanned two-dimensionally by the action of the MEMS mirror 23. In FIG. 8, symbol SL indicates a scanning locus by the scanning spot light Sp, symbol Br indicates a blood vessel, symbol Pu indicates a papilla, and symbol Qu indicates a macular portion.

眼底Erからのスポット反射光は、水晶体Ecおよび瞳孔Epを通じて対物レンズ25に導かれ、共役面Er’にいったん空中結像され、リレーレンズ24によってコリメートされ、MEMSミラー23を経由し、ビームスプリッタ22に導かれる。ビームスプリッタ22により反射されたスポット反射光は受光部21に導かれる。ここで、眼底Erからのスポット反射光とは、走査スポット光の位置またはその付近から戻ってくる光(戻り光)であり、たとえば、走査スポット光の正反射光、走査スポット光の散乱光、走査スポット光が励起する蛍光およびその散乱光、などのうち少なくとも1つを含む。   The spot reflected light from the fundus Er is guided to the objective lens 25 through the crystalline lens Ec and the pupil Ep, and once imaged in the air on the conjugate plane Er ′, collimated by the relay lens 24, passes through the MEMS mirror 23, and passes through the beam splitter 22. Led to. The spot reflected light reflected by the beam splitter 22 is guided to the light receiving unit 21. Here, the spot reflected light from the fundus Er is light returning from or near the position of the scanning spot light (returned light). For example, the regular reflected light of the scanning spot light, the scattered light of the scanning spot light, And at least one of fluorescence excited by the scanning spot light and scattered light thereof.

受光部21は、ダイクロイックミラー21r”と、ダイクロイックミラー21g”と、ダイクロイックミラー21b”とを有する。ダイクロイックミラー21r”は、赤色光Rを反射し、かつ、緑色光G、青色光Bおよび赤外光Paを透過させる。ダイクロイックミラー21g”は、緑色光Gを反射し、かつ、青色光Bおよび赤外光Paを透過させる。ダイクロイックミラー21b”は、青色光Bを反射し、かつ、赤外光Paを透過させる。   The light receiving unit 21 includes a dichroic mirror 21r ″, a dichroic mirror 21g ″, and a dichroic mirror 21b ″. The dichroic mirror 21r ″ reflects the red light R, and the green light G, the blue light B, and the infrared light. Transmits light Pa. The dichroic mirror 21g ″ reflects green light G and transmits blue light B and infrared light Pa. The dichroic mirror 21b ″ reflects blue light B and transmits infrared light Pa.

ダイクロイックミラー21r”による反射方向には、結像レンズ21r’が設けられている。赤色光Rは、結像レンズ21r’により、受像素子としてのPDセンサ21rに結像される。   An imaging lens 21r 'is provided in the direction of reflection by the dichroic mirror 21r ". The red light R is imaged on a PD sensor 21r as an image receiving element by the imaging lens 21r'.

ダイクロイックミラー21g”による反射方向には、結像レンズ21g’が設けられている。緑色光Gは、結像レンズ21g’により、受像素子としてのPDセンサ21gに結像される。   An imaging lens 21g 'is provided in the direction of reflection by the dichroic mirror 21g ". The green light G is imaged on the PD sensor 21g as an image receiving element by the imaging lens 21g'.

ダイクロイックミラー21b”による反射方向には、結像レンズ21b’が設けられている。青色光Bは、結像レンズ21b’により、受像素子としてのPDセンサ21bに結像される。   An imaging lens 21b 'is provided in the direction of reflection by the dichroic mirror 21b ". The blue light B is imaged on the PD sensor 21b as an image receiving element by the imaging lens 21b'.

ダイクロイックミラー21b”による透過方向には、結像レンズ21a’が設けられている。赤外光Paは、結像レンズ21a’により、受像素子としてのPDセンサ21aに結像される。   An imaging lens 21a 'is provided in the transmission direction by the dichroic mirror 21b ". The infrared light Pa is imaged on the PD sensor 21a as an image receiving element by the imaging lens 21a'.

各PDセンサ21a、21b、21gおよび21rからの受光信号は、後述する眼底像構築部に入力される。なお、PDセンサ21aは赤外領域に感度を有し、PDセンサ21bは青色波長領域に感度を有し、PDセンサ21gは緑色波長領域に感度を有し、PDセンサ21rは赤色波長領域に感度を有する。   Light reception signals from the PD sensors 21a, 21b, 21g, and 21r are input to a fundus image construction unit described later. The PD sensor 21a has sensitivity in the infrared region, the PD sensor 21b has sensitivity in the blue wavelength region, the PD sensor 21g has sensitivity in the green wavelength region, and the PD sensor 21r has sensitivity in the red wavelength region. Have

(光走査型検眼鏡本体1の内部構造の一例)
この実施形態に係る光走査型検眼鏡本体1の内部には、図1に破線で示す可動ケース1Aと、可動ケース1Aを前後上下左右方向に移動する駆動機構(図示を略す)とが設けられている。
(An example of the internal structure of the optical scanning ophthalmoscope body 1)
In the optical scanning ophthalmoscope main body 1 according to this embodiment, there are provided a movable case 1A indicated by a broken line in FIG. 1 and a drive mechanism (not shown) for moving the movable case 1A in the front, rear, up, down, left and right directions. ing.

可動ケース1Aの内部には、照明光源部20と、受光部21と、リレーレンズ24と、MEMSミラー23と、ビームスプリッタ22とが設けられている。これら光学系および接眼レンズ鏡筒部3は、可動ケース1Aと一体的に移動する。   An illumination light source unit 20, a light receiving unit 21, a relay lens 24, a MEMS mirror 23, and a beam splitter 22 are provided inside the movable case 1A. The optical system and the eyepiece lens barrel 3 move integrally with the movable case 1A.

光走査型検眼鏡本体1の内部には、図7に示すように、電源回路部26と、制御回路部27と、点灯制御回路部28と、眼底像構築部29と、モニタ部30とが設けられている。電源回路部26は、たとえば、バッテリの交換が可能なタイプ、またはバッテリの充電が可能なタイプである。   As shown in FIG. 7, the optical scanning ophthalmoscope main body 1 includes a power supply circuit unit 26, a control circuit unit 27, a lighting control circuit unit 28, a fundus image construction unit 29, and a monitor unit 30. Is provided. The power supply circuit unit 26 is, for example, a type that can replace a battery or a type that can charge a battery.

電源回路部26は、制御回路部27、眼底像構築部29、点灯制御回路部28などに電力を供給する。制御回路部27には、照明光源部20を制御するためのプログラムと、MEMSミラー23を制御するためのプログラムと、眼底像構築部29を制御するためのプログラムが設けられている。   The power supply circuit unit 26 supplies power to the control circuit unit 27, the fundus image construction unit 29, the lighting control circuit unit 28, and the like. The control circuit unit 27 is provided with a program for controlling the illumination light source unit 20, a program for controlling the MEMS mirror 23, and a program for controlling the fundus image construction unit 29.

照明用光源部20を制御するためのプログラムと、MEMSミラー23を制御するためのプログラムは、たとえば、次のような各種の動作モードに応じて設けられている:被検眼Eに対する装置本体のアライメントを行うためのアライメント調節モード;眼底Erに対するフォーカシングを行うための合焦調節モード;眼底観察モード;撮影モード。   A program for controlling the illumination light source unit 20 and a program for controlling the MEMS mirror 23 are provided in accordance with, for example, the following various operation modes: alignment of the apparatus main body with respect to the eye E to be examined Adjustment mode for performing focusing; focusing adjustment mode for performing focusing on the fundus Er; fundus observation mode; imaging mode.

電源ボタンBを操作することにより、各回路が起動状態になる。アライメント調節や合焦調節はこの実施形態と直接に関連しないので、これら調節動作は完了したと仮定する。以下、観察モードおよび撮影モードについて説明し、次いで、眼底像と個人情報との関連付けについて説明する。   By operating the power button B, each circuit is activated. Since alignment adjustment and focus adjustment are not directly related to this embodiment, it is assumed that these adjustment operations have been completed. Hereinafter, the observation mode and the imaging mode will be described, and then the association between the fundus image and the personal information will be described.

(観察モード)
検者が電源ボタンBを操作することにより、光走査型検眼鏡本体1は自動的に個人情報取得モードとなり、その後に観察モードに移行する。個人情報取得モードについては後述することにし、観察モードについて先に説明を行う。観察モードにおいて、点灯制御回路部28は、赤外光源20aを点灯させる。これにより、図8に示すように、赤外光であるスポット光Spが眼底Erに形成される。
(Observation mode)
When the examiner operates the power button B, the optical scanning ophthalmoscope main body 1 automatically enters the personal information acquisition mode, and then shifts to the observation mode. The personal information acquisition mode will be described later, and the observation mode will be described first. In the observation mode, the lighting control circuit unit 28 turns on the infrared light source 20a. Thereby, as shown in FIG. 8, spot light Sp which is infrared light is formed on the fundus Er.

MEMSミラー23は、これを制御するためのプログラムに従って、たとえば図8に示すように、左から右に向かう複数の走査軌跡SLを上から順に描くように駆動される。これにより、眼底Erの所定範囲がスポット光Spにより走査される。   The MEMS mirror 23 is driven to draw a plurality of scanning trajectories SL from left to right in order from the top, as shown in FIG. 8, for example, according to a program for controlling this. Thereby, the predetermined range of the fundus Er is scanned with the spot light Sp.

眼底Erからのスポット光Spの反射光は、赤外受光用のPDセンサ21aに受光される。PDセンサ21aからの受光信号は、眼底像構築部29に入力される。眼底像構築部29は、画像処理部29aと、内蔵メモリ部29bとを有する。   The reflected light of the spot light Sp from the fundus Er is received by the infrared sensor PD sensor 21a. The light reception signal from the PD sensor 21 a is input to the fundus image construction unit 29. The fundus image constructing unit 29 includes an image processing unit 29a and a built-in memory unit 29b.

画像処理部29aには、MEMSミラー23を制御するためのプログラムに従って、スポット光Spの走査位置に対応する画素位置信号が入力される。   In accordance with a program for controlling the MEMS mirror 23, a pixel position signal corresponding to the scanning position of the spot light Sp is input to the image processing unit 29a.

画像処理部29aは、入力される画素位置信号と、この画素位置信号に対応する受光信号とに基づいて、観察用の眼底画像を構築する。画像処理部29aは、構築された眼底画像の画像信号をモニタ部30に出力する。これにより、モニタ部30の液晶表示画面5に眼底像EGrが表示される(図9を参照)。   The image processing unit 29a constructs a fundus image for observation based on the input pixel position signal and the received light signal corresponding to the pixel position signal. The image processing unit 29 a outputs an image signal of the constructed fundus image to the monitor unit 30. As a result, the fundus image EGr is displayed on the liquid crystal display screen 5 of the monitor unit 30 (see FIG. 9).

検者は、表示されている眼底像EGrを観察しつつ、撮影ボタン9を操作する。この操作を受けて、光走査型検眼鏡の動作モードが撮影モードに切り替わる。   The examiner operates the photographing button 9 while observing the displayed fundus image EGr. In response to this operation, the operation mode of the optical scanning ophthalmoscope is switched to the imaging mode.

(撮影モード)
撮影モードにおいて、点灯制御回路部28は、青色光源20bと、緑色光源20gと、赤色光源20rとを同時に点灯させる。その点灯時間は、たとえば100ミリ秒に設定されている。青色光源20b、緑色光源20gおよび赤色光源20rが点灯されている間に、観察用の眼底画像を構築する際の走査軌跡SLと同じ走査軌跡SLを描くようにMEMSミラー23が駆動される。
(Shooting mode)
In the photographing mode, the lighting control circuit unit 28 turns on the blue light source 20b, the green light source 20g, and the red light source 20r at the same time. The lighting time is set to 100 milliseconds, for example. While the blue light source 20b, the green light source 20g, and the red light source 20r are turned on, the MEMS mirror 23 is driven so as to draw the same scanning locus SL as the scanning locus SL when the fundus image for observation is constructed.

その結果、可視光である白色のスポット光Spを用いて、観察モードと同じ要領で眼底Erが走査される。白色のスポット光Spの反射光はPDセンサ21b、21gおよび21rにより受光される。各PDセンサ21b、21gおよび21rからの受光信号は、眼底像構築部29に入力される。   As a result, the fundus Er is scanned using the white spot light Sp that is visible light in the same manner as in the observation mode. The reflected light of the white spot light Sp is received by the PD sensors 21b, 21g and 21r. Light reception signals from the PD sensors 21 b, 21 g, and 21 r are input to the fundus image construction unit 29.

眼底像構築部29は、PDセンサ21b、21gおよび21rからの受光信号に基づいて、カラー眼底像EGrを構築する。カラー眼底像EGrは、内蔵メモリ部29bに記憶される。   The fundus image constructing unit 29 constructs a color fundus image EGr based on the light reception signals from the PD sensors 21b, 21g, and 21r. The color fundus image EGr is stored in the built-in memory unit 29b.

光走査型検眼鏡本体1に、再生ボタン(図示を略す)を設けることができる。この再生ボタンが操作されたことを受けて、カラー眼底像EGrを液晶表示画面5に表示させることができる。また、再生ボタンに対する操作を受けて、取得されたカラー眼底像EGrを自動で診療機関に送信するように構成してもよい。なお、この実施形態では、撮影が終了したことに対応し、光走査型検眼鏡の動作モードが自動的に観察モードに切り替えられる。   The optical scanning ophthalmoscope body 1 can be provided with a reproduction button (not shown). In response to the operation of the playback button, the color fundus image EGr can be displayed on the liquid crystal display screen 5. Alternatively, the acquired color fundus image EGr may be automatically transmitted to a medical institution in response to an operation on the playback button. In this embodiment, in response to the end of imaging, the operation mode of the optical scanning ophthalmoscope is automatically switched to the observation mode.

以上、検者が付き添って眼底撮影を行う場合について説明したが、この実施形態の光走査型検眼鏡によれば、被検者自身で眼底撮影を行うこともできる。このような場合において、或いは検者が付き添って眼底撮影を行う場合においても、眼底像と個人情報との関連付けを以下のようにして行うことができる。   As described above, the case where the examiner accompanies the fundus photographing has been described. However, according to the optical scanning ophthalmoscope of this embodiment, the subject can also perform the fundus photographing. In such a case or even when the examiner is accompanied by photographing the fundus, the association between the fundus image and the personal information can be performed as follows.

(個人情報を取得する処理の例)
図10に模式的に示すように、光走査型検眼鏡本体1は、USBを介して携帯情報機器16に接続されている。医療機関(検者側)には、携帯情報機器16’と、パーソナルコンピュータ(PC)16Aと、モニタ部16Bとが設置されている。携帯情報機器16’は、パーソナルコンピュータ16AにUSBを介して接続されている。検者側の携帯情報機器16’は、被検者側の携帯情報機器16から送信された情報を受信する。
(Example of processing to acquire personal information)
As schematically shown in FIG. 10, the optical scanning ophthalmoscope main body 1 is connected to a portable information device 16 via a USB. A portable information device 16 ', a personal computer (PC) 16A, and a monitor unit 16B are installed in the medical institution (examiner side). The portable information device 16 ′ is connected to the personal computer 16A via USB. The examiner-side portable information device 16 ′ receives the information transmitted from the subject-side portable information device 16.

パーソナルコンピュータ16Aには、眼底像の情報と個人情報とを解析する解析処理部が設けられている。パーソナルコンピュータ16Aにはモニタ部16Bが接続されている。モニタ部16Bの画面には、必要に応じて、眼底像と個人情報とが関連付けて表示される。   The personal computer 16A is provided with an analysis processing unit that analyzes fundus image information and personal information. A monitor unit 16B is connected to the personal computer 16A. A fundus image and personal information are displayed in association with each other on the screen of the monitor unit 16B as necessary.

(構成例1)
図11は、この実施形態に係る眼底撮影システムの構成例1を示す。構成例1では、個人情報取得手段(外付け患者認識ユニット)として手形(掌形)または指紋認識センサを用いている。なお、構成例1において適用可能な生体認証情報は手形や指紋に限定されず、たとえば、掌紋や、手または指の静脈(血管)のパターンを適用することが可能である。
(Configuration example 1)
FIG. 11 shows a configuration example 1 of the fundus imaging system according to this embodiment. In the configuration example 1, a handprint (palm shape) or a fingerprint recognition sensor is used as the personal information acquisition means (external patient recognition unit). The biometric authentication information applicable in Configuration Example 1 is not limited to a handprint or a fingerprint, and for example, a palm print or a vein (blood vessel) pattern of a hand or finger can be applied.

光走査型検眼鏡本体1の制御回路部27には、指紋・手形センサ30が接続されている。制御回路部29BのROMには、指紋・手形センサ30を制御するための個人情報取得制御プログラムと、個人情報と眼底像とを関連付ける関連付け手段としてのプログラムとが設けられている。制御回路部27はマイクロプロセッサを含む。このマイクロプロセッサには、リアルタイムクロック回路31からクロック信号が入力される。   A fingerprint / hand sensor 30 is connected to the control circuit unit 27 of the optical scanning ophthalmoscope body 1. The ROM of the control circuit unit 29B is provided with a personal information acquisition control program for controlling the fingerprint / hand sensor 30 and a program as an association means for associating the personal information with the fundus image. The control circuit unit 27 includes a microprocessor. The microprocessor receives a clock signal from the real time clock circuit 31.

この動作例において、電源ボタンBがオンされ、かつ、個人情報取得制御プログラムロードスイッチ(図示を略す)が操作されると、制御回路部27のマイクロプロセッサに個人情報取得制御プログラムが自動的にロードされる。被検者が指紋・手形センサ30に指または手をタッチすると、指紋または手形が個人情報として取得される。取得された個人情報は、内蔵メモリ部29BのRAMに保存される。   In this operation example, when the power button B is turned on and a personal information acquisition control program load switch (not shown) is operated, the personal information acquisition control program is automatically loaded into the microprocessor of the control circuit unit 27. Is done. When the subject touches the fingerprint / handprint sensor 30 with a finger or hand, the fingerprint or handprint is acquired as personal information. The acquired personal information is stored in the RAM of the built-in memory unit 29B.

前述した例では、個人情報が取得されたことに対応して自動的に観察モードに移行する構成が適用されている。しかし、この動作例のように被検者自身で撮影を行う場合には、眼底観察を行うことなく、被検者自らが撮影ボタン9(外部スイッチ)を操作して眼底撮影を実施する。眼底撮影が行われると、取得された眼底像EGrと、眼底撮影の前に取得された個人情報とが関連付けられて、RAMに一時的に保存される。   In the example described above, a configuration is adopted in which the mode automatically shifts to the observation mode in response to the acquisition of personal information. However, when imaging is performed by the subject himself as in this operation example, the subject himself operates the imaging button 9 (external switch) to perform fundus imaging without performing fundus observation. When fundus imaging is performed, the acquired fundus image EGr and personal information acquired before fundus imaging are associated with each other and temporarily stored in the RAM.

眼底像EGrと個人情報は、携帯情報機器16を介して、図10に示す検者側の携帯情報機器16’に送信される。このようにして、検者側の医療機関は、被検者自身により実施された眼底撮影で取得された個人情報および眼底像を得る。   The fundus image EGr and the personal information are transmitted to the examiner-side portable information device 16 ′ shown in FIG. 10 via the portable information device 16. In this way, the medical institution on the examiner obtains personal information and fundus images acquired by fundus photography performed by the subject himself.

(構成例2)
図12は、この実施形態に係る眼底撮影システムの構成例2を示す。構成例2では、網膜パターンまたは虹彩パターンを認識するためのプログラムが、個人情報取得手段としてROMに設けられている。
(Configuration example 2)
FIG. 12 shows a configuration example 2 of the fundus imaging system according to this embodiment. In Configuration Example 2, a program for recognizing a retinal pattern or iris pattern is provided in the ROM as personal information acquisition means.

網膜パターンを認識する場合、電源がオンされたことに対応し、網膜パターン認識用プログラムがマイクロプロセッサにロードされる。図7に示す走査光学系は、網膜パターン認識用プログラムによって制御される。これにより、網膜パターン像が画像処理部29aに取得され、RAMに保存される。   When the retinal pattern is recognized, a retinal pattern recognition program is loaded into the microprocessor in response to the power being turned on. The scanning optical system shown in FIG. 7 is controlled by a retinal pattern recognition program. Thereby, the retina pattern image is acquired by the image processing unit 29a and stored in the RAM.

次いで、被検者が撮影ボタン9を操作すると、眼底像EGrが取得され、この眼底像EGrと網膜パターン像(個人情報)とが関連付けられてRAMに保存される。眼底像EGrと個人情報は、携帯情報機器16を介して、図10に示す検者側の携帯情報機器16’に送信される。それにより、個人情報と眼底像とが検者側の医療機関に取得される。   Next, when the subject operates the photographing button 9, a fundus image EGr is acquired, and the fundus image EGr and the retinal pattern image (personal information) are associated with each other and stored in the RAM. The fundus image EGr and the personal information are transmitted to the examiner-side portable information device 16 ′ shown in FIG. 10 via the portable information device 16. Thereby, the personal information and the fundus image are acquired by the medical institution on the examiner side.

パーソナルコンピュータ16Aには、被検者毎(被検眼毎)の網膜パターン像があらかじめ登録されている。パーソナルコンピュータ16Aは、被検者側から送信された網膜パターン像と、事前に登録されている網膜パターン像とを照合することにより、被検者を特定する。   In the personal computer 16A, a retinal pattern image for each subject (each eye) is registered in advance. The personal computer 16A identifies the subject by collating the retinal pattern image transmitted from the subject side with the retinal pattern image registered in advance.

虹彩パターンを認識する場合、虹彩パターン認識プログラムがマイクロプロセッサにロードされる。虹彩パターン認識プログラムがマイクロプロセッサにロードされると、制御回路部27により、図7に示す前眼部撮影用の投影レンズLLが走査光学系の光路に挿入される。   When recognizing the iris pattern, an iris pattern recognition program is loaded into the microprocessor. When the iris pattern recognition program is loaded into the microprocessor, the control circuit unit 27 inserts the projection lens LL for anterior segment imaging shown in FIG. 7 into the optical path of the scanning optical system.

次いで、制御回路部27は、虹彩Rpを走査するように走査光学系を制御する。それにより、画像処理部29aによって虹彩パターン像が取得される。取得された虹彩パターン像はRAMに保存される。次いで、被検者により撮影ボタン9が操作されると、走査光学系の光路から投影レンズLLが退避され、眼底像EGrが取得される。取得された眼底像EGrは、個人情報としての虹彩パターン像と関連付けられて、RAMに保存される。   Next, the control circuit unit 27 controls the scanning optical system so as to scan the iris Rp. Thereby, an iris pattern image is acquired by the image processing unit 29a. The acquired iris pattern image is stored in the RAM. Next, when the imaging button 9 is operated by the subject, the projection lens LL is retracted from the optical path of the scanning optical system, and a fundus image EGr is acquired. The acquired fundus image EGr is associated with an iris pattern image as personal information and stored in the RAM.

眼底像EGrと個人情報は、携帯情報機器16を介して、図10に示す検者側の携帯情報機器16’に送信される。それにより、個人情報と眼底像とが検者側の医療機関に取得される。   The fundus image EGr and the personal information are transmitted to the examiner-side portable information device 16 ′ shown in FIG. 10 via the portable information device 16. Thereby, the personal information and the fundus image are acquired by the medical institution on the examiner side.

構成例2によれば、眼底像の撮影に用いられる走査光学系を利用して個人情報を取得できるので、個人情報取得手段の物理的構成をいたずらに複雑化することなく個人情報を取得できるというメリットがある。   According to the configuration example 2, personal information can be acquired using a scanning optical system used for photographing a fundus image, so that personal information can be acquired without unnecessarily complicating the physical configuration of the personal information acquisition unit. There are benefits.

(構成例3)
図13は、この実施形態に係る眼底撮影システムの構成例3を示す。構成例3では、個人情報取得手段として顔写真撮影用カメラ32が設けられている。本例において、顔写真撮影用カメラ32は、アライメント調節ボタン10により作動するよう構成されている。アライメント調節ボタン10が操作されると、顔写真撮影用カメラ32によって被検者の顔が撮影される。それ以降の動作は、構成例1や構成例2と同様であるので、その詳細な説明は省略する。
(Configuration example 3)
FIG. 13 shows a configuration example 3 of the fundus imaging system according to this embodiment. In the configuration example 3, a face photography camera 32 is provided as personal information acquisition means. In this example, the face photography camera 32 is configured to be operated by the alignment adjustment button 10. When the alignment adjustment button 10 is operated, the face of the subject is photographed by the face photography camera 32. Since the subsequent operation is the same as that of the configuration example 1 and the configuration example 2, the detailed description thereof is omitted.

構成例3によれば、顔写真撮影用のカメラを個人情報認証以外、たとえば、撮影場所の明るさ判断にも利用できるというメリットがある。   According to the configuration example 3, there is an advantage that the camera for taking a face photograph can be used not only for personal information authentication but also for determining the brightness of the shooting location, for example.

以上、被検者自身で眼底撮影を行う場合に眼底像と個人情報との関連付けを行う構成について説明した。しかし、検者が立ち会って眼底撮影を行う場合においても、同様の関連付け処理を行うことが可能である。   As described above, the configuration in which the fundus image is associated with the personal information when the fundus photographing is performed by the subject himself has been described. However, similar association processing can be performed even when the examiner is present and photographing the fundus.

〈第2の実施形態〉
第1の実施形態では、眼底撮影装置として光走査型検眼鏡が適用された眼底撮影システムについて説明したが、眼底撮影装置は光走査型検眼鏡に限定されるものではない。たとえば、背景技術として説明した眼底カメラや光干渉断層計を眼底撮影装置として適用することが可能である。
<Second Embodiment>
In the first embodiment, the fundus imaging system to which the optical scanning ophthalmoscope is applied as the fundus imaging apparatus has been described. However, the fundus imaging apparatus is not limited to the optical scanning ophthalmoscope. For example, the fundus camera or optical coherence tomography described as the background art can be applied as a fundus imaging apparatus.

眼底カメラが適用される場合、第1の実施形態の光走査型検眼鏡と同様に眼底の正面画像が取得されるので、第1の実施形態と実質的に同様の構成を適用することが可能である。以下、光干渉断層計が適用される場合について説明を行う。   When a fundus camera is applied, a frontal image of the fundus is acquired in the same manner as the optical scanning ophthalmoscope of the first embodiment, so that a configuration substantially similar to that of the first embodiment can be applied. It is. Hereinafter, a case where an optical coherence tomography is applied will be described.

なお、光干渉断層計が適用される場合においても、光干渉断層計はポータブルタイプであってよい(よって、第1の実施形態における図1〜図6のような構成を適用できる)。一方、光干渉断層計は、ポータブルタイプと据え置き型の兼用、または据え置き型専用であってよい。   Note that even when the optical coherence tomography is applied, the optical coherence tomography may be a portable type (therefore, the configuration shown in FIGS. 1 to 6 in the first embodiment can be applied). On the other hand, the optical coherence tomography may be used both as a portable type and a stationary type, or dedicated to the stationary type.

光干渉断層計は、被検眼の断面像や3次元画像データ等の形態情報や、血流状態などの機能情報を、干渉光学系を用いることにより取得する装置である。このような光計測は、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)と呼ばれる。OCTの方式として、タイムドメインOCTと、フーリエドメインOCTとが知られている。また、フーリエドメインOCTとしては、低コヒーレンス光源(広帯域光源)と分光器を用いるスペクトラルドメインタイプと、波長掃引光源(波長可変光源)を用いるスウェプトソースタイプとが知られている。   An optical coherence tomometer is a device that acquires morphological information such as a cross-sectional image and three-dimensional image data of a subject's eye and functional information such as a blood flow state by using an interference optical system. Such optical measurement is referred to as optical coherence tomography (OCT). Time domain OCT and Fourier domain OCT are known as OCT methods. As the Fourier domain OCT, a spectral domain type using a low coherence light source (broadband light source) and a spectroscope and a swept source type using a wavelength swept light source (wavelength variable light source) are known.

以下の実施形態ではスペクトラルドメインタイプのOCTを適用した場合について詳しく説明するが、他のタイプのOCTを用いる眼底撮影装置に対して、この実施形態に係る構成を適用してよい。また、以下、実施形態に係る眼底撮影システムのうち、第1の実施形態と異なる構成部分(たとえば眼底撮影装置の構成)について、特に詳しく説明する。   In the following embodiment, the case where the spectral domain type OCT is applied will be described in detail. However, the configuration according to this embodiment may be applied to a fundus imaging apparatus using another type of OCT. In the following, in the fundus imaging system according to the embodiment, components that are different from the first embodiment (for example, the configuration of the fundus imaging apparatus) will be described in detail.

[構成]
実施形態に係る眼底撮影装置の構成について説明する。図14に示す眼底撮影装置100は、光学ユニット110と、コンピュータ200と、ユーザインターフェイス(UI)300とを有する。眼底撮影装置100は、第1の実施形態の光走査型検眼鏡本体1を代替する。
[Constitution]
A configuration of the fundus imaging apparatus according to the embodiment will be described. A fundus photographing apparatus 100 illustrated in FIG. 14 includes an optical unit 110, a computer 200, and a user interface (UI) 300. The fundus imaging apparatus 100 replaces the optical scanning ophthalmoscope main body 1 of the first embodiment.

光学ユニット110、コンピュータ200およびユーザインターフェイス300は一体的に(つまり単一の筐体内に)設けられていてよい。或いは、これらは2つ以上の筐体内に分散配置されていてもよい。その場合、眼底撮影装置の一部が他の装置に設けられていてよい。たとえば、コンピュータ200の一部または全部を、パーソナルコンピュータや携帯端末(タブレット型コンピュータ、携帯電話、スマートフォン等)に設けることができる。また、ユーザインターフェイス300の一部または全部を、パーソナルコンピュータ、携帯端末、テレビ受像機、スマートテレビなどに設けることができる。   The optical unit 110, the computer 200, and the user interface 300 may be provided integrally (that is, in a single housing). Alternatively, these may be distributed in two or more housings. In that case, a part of the fundus imaging apparatus may be provided in another apparatus. For example, part or all of the computer 200 can be provided in a personal computer or a mobile terminal (tablet computer, mobile phone, smartphone, etc.). Further, part or all of the user interface 300 can be provided in a personal computer, a portable terminal, a television receiver, a smart television, or the like.

〔光学ユニット110〕
光学ユニット110は、OCT計測を行うための光学系と、所定の光学素子を駆動する機構とを含む。光学系は、光源111からの光を測定光と参照光とに分割し、測定光の被検眼Eからの戻り光と参照光とを干渉させ、その干渉光を検出する。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光(広帯域光)を参照光と測定光に分割し、被検眼Eを経由した測定光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成される。スペクトル成分の検出結果(検出信号)はコンピュータ200に送られる。
[Optical unit 110]
The optical unit 110 includes an optical system for performing OCT measurement and a mechanism for driving a predetermined optical element. The optical system divides the light from the light source 111 into measurement light and reference light, causes the return light of the measurement light from the subject eye E to interfere with the reference light, and detects the interference light. This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light (broadband light) into reference light and measurement light, and generates interference light by causing the measurement light passing through the eye E to interfere with the reference light passing through the reference light path. , Configured to detect a spectral component of the interference light. The detection result (detection signal) of the spectral component is sent to the computer 200.

スウェプトソースタイプのOCTが適用される場合、低コヒーレンス光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、光学ユニット110の構成については、OCTのタイプに応じた公知の技術を任意に適用することができる。   When the swept source type OCT is applied, a wavelength swept light source is provided instead of the low coherence light source, and an optical member for spectrally decomposing the interference light is not provided. In general, for the configuration of the optical unit 110, a known technique corresponding to the type of OCT can be arbitrarily applied.

光源111は広帯域の低コヒーレンス光を出力する。この低コヒーレンス光は、たとえば、近赤外領域の波長帯(約800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040〜1060nm程度の中心波長を有する近赤外光を低コヒーレンス光として用いてもよい。   The light source 111 outputs broadband low-coherence light. The low-coherence light includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band that cannot be visually recognized by the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light.

光源111は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。   The light source 111 includes a light output device such as a super luminescent diode (SLD), an LED, or an SOA (Semiconductor Optical Amplifier).

光源111から出力された低コヒーレンス光は、コリメートレンズ112により平行光束とされてビームスプリッタ113に導かれる。ビームスプリッタ113は、たとえば、所定割合の光を反射し、残りを透過させるハーフミラーである。ビームスプリッタ113は、この平行光束を測定光と参照光とに分割する。   The low coherence light output from the light source 111 is converted into a parallel light beam by the collimator lens 112 and guided to the beam splitter 113. The beam splitter 113 is, for example, a half mirror that reflects a predetermined ratio of light and transmits the remaining light. The beam splitter 113 splits this parallel light beam into measurement light and reference light.

測定光とは被検眼Eに照射される光である(信号光などとも呼ばれる)。測定光の光路(測定光路)を形成する光学素子群は測定アームと呼ばれる(サンプルアームなどとも呼ばれる)。参照光とは、測定光の戻り光に含まれる情報を干渉信号として抽出するための基準となる光である。参照光の光路(参照光路)を形成する光学素子群は参照アームと呼ばれる。   The measurement light is light irradiated to the eye E (also called signal light). An optical element group that forms an optical path (measurement optical path) of measurement light is called a measurement arm (also called a sample arm or the like). The reference light is light serving as a reference for extracting information included in the return light of the measurement light as an interference signal. The optical element group that forms the optical path of the reference light (reference optical path) is called a reference arm.

参照光路の一端はビームスプリッタ113であり、他端は参照ミラー114である。ビームスプリッタ113を透過した成分からなる参照光は、参照ミラー114により反射されてビームスプリッタ113に戻ってくる。   One end of the reference optical path is a beam splitter 113 and the other end is a reference mirror 114. The reference light composed of the component transmitted through the beam splitter 113 is reflected by the reference mirror 114 and returns to the beam splitter 113.

参照ミラー114は、図15に示す参照ミラー駆動部114Aにより、参照光の進行方向に沿って移動される。それにより、参照光路の長さが変更される。参照ミラー駆動部114Aは、測定光路の長さと参照光路の長さとを相対的に変更するように機能し、それにより測定光と参照光との干渉強度が最大となる深度が変更される。   The reference mirror 114 is moved along the traveling direction of the reference light by the reference mirror driving unit 114A shown in FIG. Thereby, the length of the reference optical path is changed. The reference mirror driving unit 114A functions to relatively change the length of the measurement light path and the length of the reference light path, thereby changing the depth at which the interference intensity between the measurement light and the reference light is maximized.

この実施形態では参照光路の長さを変更する構成が適用されているが、この構成の代わりに、或いはこの構成に加えて、測定光路の長さを変更する構成を設けることができる。測定光路の長さの変更は、たとえば、入射する測定光を当該入射方向と反対方向に反射するコーナーキューブと、このコーナーキューブを当該入射方向および当該反射方向に移動させるための機構とにより実現される。   In this embodiment, a configuration for changing the length of the reference optical path is applied. However, instead of this configuration or in addition to this configuration, a configuration for changing the length of the measurement optical path can be provided. The change in the length of the measurement optical path is realized by, for example, a corner cube that reflects incident measurement light in a direction opposite to the incident direction, and a mechanism for moving the corner cube in the incident direction and the reflection direction. The

ビームスプリッタ113に反射された成分からなる測定光は、測定光路に対して傾斜配置された固定ミラー115により偏向されてスキャナ116に導かれる。スキャナ116は、たとえば2軸光スキャナである。つまり、スキャナ116は、測定光を2次元的に偏向可能な構成を有する。スキャナ116は、たとえば、互いに直交する方向に偏向可能な2つのミラーを含むミラースキャナである。このミラースキャナは、たとえばMEMS(Micro Electro Mechanical Systems)として構成される。他の例として、1つのミラースキャナとロータリープリズムとを用いてスキャナ116を構成することも可能である。   The measurement light composed of the component reflected by the beam splitter 113 is deflected by a fixed mirror 115 inclined with respect to the measurement optical path and guided to the scanner 116. The scanner 116 is a two-axis optical scanner, for example. That is, the scanner 116 has a configuration capable of deflecting measurement light two-dimensionally. The scanner 116 is, for example, a mirror scanner including two mirrors that can be deflected in directions orthogonal to each other. This mirror scanner is configured as, for example, a MEMS (Micro Electro Mechanical Systems). As another example, the scanner 116 may be configured using one mirror scanner and a rotary prism.

スキャナ116から出力される測定光は、2次元的に偏向されたコリメート光である。この測定光は、リレーレンズ117により集束光とされ、眼底Efと共役な面(眼底共役面)Pcにおいて空中結像される。さらに、測定光は、合焦レンズとしての機能を有する対物レンズ119により再び集束光とされて被検眼Eに入射する。なお、眼底共役面Pcに配置された光学素子(ダイクロイックミラー118)については後述する。また、後述の切替レンズ127が測定光路に配置されている場合、測定光は、対物レンズ119を経由した後、切替レンズ127により屈折されて被検眼Eに入射する。   The measurement light output from the scanner 116 is collimated light deflected two-dimensionally. The measurement light is focused by the relay lens 117 and is imaged in the air on a plane (fundus conjugate plane) Pc conjugate with the fundus oculi Ef. Further, the measurement light is again focused by the objective lens 119 having a function as a focusing lens and enters the eye E to be examined. The optical element (dichroic mirror 118) disposed on the fundus conjugate plane Pc will be described later. When a switching lens 127 described later is disposed in the measurement optical path, the measurement light passes through the objective lens 119 and is refracted by the switching lens 127 and enters the eye E.

対物レンズ119と鏡筒部119Aは、図15に示す鏡筒駆動部119Bにより、測定光路に沿って移動される。対物レンズ119と鏡筒部119Aは、被検眼Eの屈折力に応じて光軸方向に移動される。それにより、眼底共役面Pcが眼底Efと共役な位置に配置される。その結果、測定光は、スポット光として眼底Efに投射される。なお、対物レンズ119とは別に合焦レンズを設ける構成を適用することも可能である。   The objective lens 119 and the lens barrel 119A are moved along the measurement optical path by the lens barrel drive unit 119B shown in FIG. The objective lens 119 and the lens barrel 119A are moved in the optical axis direction according to the refractive power of the eye E to be examined. Thereby, the fundus conjugate surface Pc is arranged at a position conjugate with the fundus Ef. As a result, the measurement light is projected onto the fundus oculi Ef as spot light. A configuration in which a focusing lens is provided separately from the objective lens 119 can also be applied.

切替レンズ127は、画像化の対象となる被検眼Eの部位(深さ位置)を切り替えるためのレンズである。画像化の対象部位としては、眼底Ef、前眼部、水晶体、硝子体などがある。なお、眼底Efと前眼部との切り替えを行う場合、第1の実施形態と同様の前眼部撮影用の投影レンズLLが、切替レンズ127として用いられる。切替レンズ127は、図15に示すレンズ駆動部127Aにより測定光路に対して挿入/退避される。なお、3以上の部位が対象となる場合、2以上の切替レンズを選択的に光路に配置可能に構成することが可能である。また、たとえばアルバレッツレンズのように屈折力が可変に構成された光学素子を切替レンズ127として用いることも可能である。この実施形態では、眼底Efの撮影を行う場合には切替レンズ127が光路から退避され、前眼部の撮影を行う場合には切替レンズ127が光路に配置されるものとする。   The switching lens 127 is a lens for switching a part (depth position) of the eye E to be imaged. Examples of the target site for imaging include the fundus oculi Ef, the anterior segment, the crystalline lens, and the vitreous body. When switching between the fundus oculi Ef and the anterior segment, the projection lens LL for anterior segment imaging similar to that in the first embodiment is used as the switching lens 127. The switching lens 127 is inserted / retracted with respect to the measurement optical path by the lens driving unit 127A shown in FIG. When three or more parts are targeted, it is possible to configure such that two or more switching lenses can be selectively placed in the optical path. Further, for example, an optical element whose refractive power is variable, such as an Alvarez lens, can be used as the switching lens 127. In this embodiment, the switching lens 127 is retracted from the optical path when photographing the fundus oculi Ef, and the switching lens 127 is disposed on the optical path when photographing the anterior eye segment.

眼底Efに照射された測定光は、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる測定光の後方散乱光(戻り光)は、往路と同じ経路を逆向きに進行してビームスプリッタ113に導かれる。   The measurement light applied to the fundus oculi Ef is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light (returned light) of the measurement light from the fundus oculi Ef travels in the opposite direction on the same path as the forward path and is guided to the beam splitter 113.

ビームスプリッタ113は、測定光の戻り光と、参照光路を経由した参照光とを干渉させる。このとき、参照光路の長さとほぼ等しい距離を経由した戻り光の成分、つまり参照光路の長さに対して可干渉距離以内の範囲からの後方散乱光のみが、参照光と実質的に干渉する。ビームスプリッタ113を介して生成された干渉光は、分光器120に導かれる。分光器120に入射した干渉光は、回折格子121により分光(スペクトル分解)され、レンズ122を介してCCDイメージセンサ123の受光面に照射される。なお、図14に示す回折格子121は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。   The beam splitter 113 causes the return light of the measurement light to interfere with the reference light that has passed through the reference light path. At this time, only the component of the return light that has passed through a distance substantially equal to the length of the reference optical path, that is, the backscattered light from the range within the coherent distance with respect to the length of the reference optical path, substantially interferes with the reference light. . The interference light generated via the beam splitter 113 is guided to the spectrometer 120. The interference light incident on the spectroscope 120 is split (spectral decomposition) by the diffraction grating 121, and is irradiated onto the light receiving surface of the CCD image sensor 123 via the lens 122. Although the diffraction grating 121 shown in FIG. 14 is a transmission type, other types of spectroscopic elements such as a reflection type diffraction grating can also be used.

CCDイメージセンサ123は、たとえばラインセンサまたはエリアセンサであり、分光された干渉光の各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ123は、この電荷を蓄積して検出信号を生成し、これをコンピュータ200に送る。   The CCD image sensor 123 is a line sensor or an area sensor, for example, and detects each spectral component of the dispersed interference light and converts it into electric charges. The CCD image sensor 123 accumulates this electric charge, generates a detection signal, and sends it to the computer 200.

前述したように、測定光路の眼底共役面Pcに相当する位置には、ダイクロイックミラー118が傾斜配置されている。ダイクロイックミラー118は、近赤外帯域の測定光を透過させ、可視帯域の光を反射するように構成されている。   As described above, the dichroic mirror 118 is tilted at a position corresponding to the fundus conjugate plane Pc of the measurement optical path. The dichroic mirror 118 is configured to transmit measurement light in the near-infrared band and reflect light in the visible band.

ダイクロイックミラー118を介して測定光路から分岐した光路には、フラットパネルディスプレイ(FPD)125と、レンズ126とが設けられている。フラットパネルディスプレイ125は、制御部210による制御を受けて情報を表示する。フラットパネルディスプレイ125に表示される情報として、被検眼Eに対して提示される各種の視標がある。このような視標の例として、被検眼Eを固視させるための固視標などがある。また、検査の関する指示の内容(インストラクション)などの情報を提示することも可能である。   A flat panel display (FPD) 125 and a lens 126 are provided on the optical path branched from the measurement optical path via the dichroic mirror 118. The flat panel display 125 displays information under the control of the control unit 210. As information displayed on the flat panel display 125, there are various visual targets presented to the eye E to be examined. Examples of such a target include a fixation target for fixing the eye E to be examined. It is also possible to present information such as the contents of instructions (instructions) related to the inspection.

フラットパネルディスプレイ125は、レンズ126を介して眼底共役面Pcと共役な位置(よって、眼底Efと共役な位置)に配置されている。フラットパネルディスプレイ125としては、たとえば液晶ディスプレイ(LCD)または有機ELディスプレイ(OELD)が用いられる。   The flat panel display 125 is disposed at a position conjugate with the fundus conjugate plane Pc via the lens 126 (and thus a position conjugate with the fundus Ef). As the flat panel display 125, for example, a liquid crystal display (LCD) or an organic EL display (OELD) is used.

フラットパネルディスプレイ125から出力された可視光は、レンズ126を介してダイクロイックミラー118に反射される。さらに、この可視光は、対物レンズ119を介して被検眼Eに入射し、眼底Efに到達する。それにより、この可視光に基づく像(たとえば固視標)が眼底Efに投影される。   Visible light output from the flat panel display 125 is reflected to the dichroic mirror 118 via the lens 126. Further, the visible light enters the eye E through the objective lens 119 and reaches the fundus oculi Ef. Thereby, an image (for example, a fixation target) based on the visible light is projected onto the fundus oculi Ef.

なお、ダイクロイックミラー118の代わりに、ハーフミラー等の光学素子を設けてもよい。また、測定光路に対して挿入/退避できるように構成された反射ミラーを設けることも可能である。ダイクロイックミラー118やハーフミラーが設けられる場合、OCT計測と視標の投影を同時に行うことができる。一方、反射ミラーが設けられる場合には、OCT計測と視標の投影とが異なるタイミングで実行される。   Instead of the dichroic mirror 118, an optical element such as a half mirror may be provided. It is also possible to provide a reflection mirror configured to be inserted / retracted with respect to the measurement optical path. When the dichroic mirror 118 and the half mirror are provided, OCT measurement and target projection can be performed simultaneously. On the other hand, when a reflecting mirror is provided, OCT measurement and target projection are executed at different timings.

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態の受光素子、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。   In this embodiment, a Michelson type interferometer is employed, but any type of interferometer such as a Mach-Zehnder type can be appropriately employed. Further, instead of the CCD image sensor, a light receiving element of another form, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be used.

この実施形態では、ビームスプリッタ113に反射された光が測定光として用いられ、これを透過した光が参照光として用いられている。一方、これとは逆に、ビームスプリッタ113に反射された光を参照光として使用し、これを透過した光を測定光として使用する構成を適用することも可能である。その場合、測定アームと参照アームの配置が図14とは逆になる。   In this embodiment, the light reflected by the beam splitter 113 is used as measurement light, and the light transmitted through the beam splitter 113 is used as reference light. On the other hand, it is also possible to apply a configuration in which light reflected by the beam splitter 113 is used as reference light, and light that has passed through the beam splitter 113 is used as measurement light. In this case, the arrangement of the measurement arm and the reference arm is reversed from that in FIG.

測定光および/または参照光の特性を変換する部材を設けることができる。たとえば、光減衰器(アッテネータ)や偏波調整器(偏波コントローラ)を、参照光路に設けることが可能である。光減衰器は、コンピュータ200の制御を受けて、参照光の光量を調整する。光減衰器は、たとえば、減光フィルタと、これを参照光路に対して挿入/退避させるための機構とを含む。偏波調整器は、コンピュータ200の制御を受けて、参照光の偏光状態を調整する。偏波調整器は、たとえば、参照光路に配置された偏光板と、これを回転させるための機構とを含む。これらは、測定光の戻り光と参照光との干渉強度を調整するために使用される。   A member for converting the characteristics of the measurement light and / or the reference light can be provided. For example, an optical attenuator (attenuator) or a polarization adjuster (polarization controller) can be provided in the reference optical path. The optical attenuator adjusts the amount of reference light under the control of the computer 200. The optical attenuator includes, for example, a neutral density filter and a mechanism for inserting / retracting the filter with respect to the reference optical path. The polarization adjuster adjusts the polarization state of the reference light under the control of the computer 200. The polarization adjuster includes, for example, a polarizing plate disposed in the reference optical path and a mechanism for rotating the polarizing plate. These are used to adjust the interference intensity between the return light of the measurement light and the reference light.

被検眼Eを撮影してその正面画像を取得するための正面画像取得光学系を設けることが可能である。この正面画像は、前眼部または眼底Efの画像である。正面画像取得光学系は、測定光路から分岐した光路を形成するものであり、たとえば従来の眼底カメラと同様の照明光学系と撮影光学系とを含む。照明光学系は、(近)赤外光または可視光からなる照明光を被検眼Eに照射する。撮影光学系は、被検眼Eからの照明光の戻り光(反射光)を検出する。撮影光学系は、測定光路と共通の合焦レンズ、および/または、測定光路とは独立した合焦レンズを有する。また、撮影光学系は、測定光路と共通の合焦レンズ(対物レンズ119、切替レンズ127など)、および/または、測定光路から独立した合焦レンズを有する。正面画像取得光学系の他の例として、従来のSLOと同様の光学系がある。   It is possible to provide a front image acquisition optical system for photographing the eye E and acquiring the front image. This front image is an image of the anterior segment or the fundus oculi Ef. The front image acquisition optical system forms an optical path branched from the measurement optical path, and includes, for example, an illumination optical system and a photographing optical system similar to a conventional fundus camera. The illumination optical system irradiates the eye E with illumination light composed of (near) infrared light or visible light. The photographing optical system detects the return light (reflected light) of the illumination light from the eye E. The photographing optical system has a focusing lens common to the measurement optical path and / or a focusing lens independent of the measurement optical path. The photographing optical system includes a focusing lens (such as the objective lens 119 and the switching lens 127) common to the measurement optical path and / or a focusing lens independent of the measurement optical path. Another example of the front image acquisition optical system is an optical system similar to a conventional SLO.

正面画像取得光学系が設けられる場合、従来の眼底カメラと同様のアライメント光学系を設けることができる。アライメント光学系は、測定光路から分岐した光路を形成するものであり、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための視標(アライメント視標)を生成する。アライメントは、測定光路(対物レンズ119の光軸)に対して直交する面に沿う方向(xy方向と呼ばれる)における位置合わせである。図示は省略するが、アライメント光学系は、アライメント光源(LED等)から出力された光束から2孔絞りによって2つのアライメント光束を生成する。2つのアライメント光束は、測定光路に対して傾斜配置されたビームスプリッタを介して測定光路に導かれ、被検眼Eの角膜に投影される。アライメント光束の角膜反射光は、正面画像取得光学系のイメージセンサによって検出される。   When a front image acquisition optical system is provided, an alignment optical system similar to a conventional fundus camera can be provided. The alignment optical system forms an optical path branched from the measurement optical path, and generates a visual target (alignment visual target) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The alignment is alignment in a direction (referred to as an xy direction) along a plane orthogonal to the measurement optical path (the optical axis of the objective lens 119). Although not shown, the alignment optical system generates two alignment light beams from a light beam output from an alignment light source (such as an LED) by a two-hole aperture. The two alignment light fluxes are guided to the measurement optical path via a beam splitter that is inclined with respect to the measurement optical path, and projected onto the cornea of the eye E to be examined. The cornea reflected light of the alignment light beam is detected by the image sensor of the front image acquisition optical system.

アライメント光学系が設けられる場合、オートアライメントを実行することができる。具体的には、コンピュータ200のデータ処理部230は、正面画像取得光学系のイメージセンサから入力される信号を解析して2つのアライメント視標像の位置を特定する。さらに、制御部210は、特定された2つのアライメント視標像の位置に基づいて、イメージセンサの受光面の所定位置(たとえば中心位置)に2つの角膜反射光が重なって投影されるように、光学ユニット110をxy方向に移動させる。なお、光学ユニット110は、ユニット駆動部110Aによって移動される。   When an alignment optical system is provided, auto-alignment can be performed. Specifically, the data processing unit 230 of the computer 200 analyzes the signal input from the image sensor of the front image acquisition optical system and specifies the positions of the two alignment visual target images. Further, the control unit 210 projects two corneal reflection lights on a predetermined position (for example, the center position) of the light receiving surface of the image sensor based on the positions of the two specified alignment target images. The optical unit 110 is moved in the xy direction. The optical unit 110 is moved by the unit driving unit 110A.

また、正面画像取得光学系が設けられる場合、従来の眼底カメラと同様のフォーカス光学系を設けることができる。フォーカス光学系は、測定光路から分岐した光路を形成するものであり、眼底Efに対するフォーカシング(ピント合わせ)を行うための視標(スプリット視標)を生成する。図示は省略するが、フォーカス光学系は、フォーカシング光源(LED等)から出力された光束からスプリット視標板によって2つのフォーカシング光束を生成する。2つのフォーカシング光束は、測定光路に対して傾斜配置された反射部材を介して測定光路に導かれ、眼底Efに投影される。フォーカシング光束の眼底反射光は、正面画像取得光学系のイメージセンサによって検出される。   When a front image acquisition optical system is provided, a focus optical system similar to a conventional fundus camera can be provided. The focus optical system forms an optical path branched from the measurement optical path, and generates a visual target (split visual target) for performing focusing (focusing) on the fundus oculi Ef. Although not shown, the focus optical system generates two focusing light beams by the split target plate from the light beams output from the focusing light source (LED or the like). The two focusing light beams are guided to the measurement optical path through the reflecting member that is inclined with respect to the measurement optical path, and projected onto the fundus oculi Ef. The fundus reflection light of the focusing light beam is detected by the image sensor of the front image acquisition optical system.

フォーカス光学系が設けられる場合、オートフォーカスを実行することができる。具体的には、コンピュータ200のデータ処理部230は、正面画像取得光学系のイメージセンサから入力される信号を解析して2つのスプリット視標像の位置を特定する。さらに、制御部210は、特定された2つのスプリット視標像の位置に基づいて、イメージセンサの受光面に対して2つの眼底反射光が一直線上に投影されるように、フォーカス光学系の移動制御および合焦レンズの制御(たとえば対物レンズ119の移動制御)を行う。   When a focus optical system is provided, autofocus can be performed. Specifically, the data processing unit 230 of the computer 200 analyzes the signal input from the image sensor of the front image acquisition optical system and specifies the positions of the two split visual target images. Further, the control unit 210 moves the focus optical system so that two fundus reflections are projected on a straight line on the light receiving surface of the image sensor based on the positions of the two specified split target images. Control and focusing lens control (for example, movement control of the objective lens 119) are performed.

正面画像取得光学系が設けられる場合、オートトラッキングを行うことができる。オートトラッキングとは、被検眼Eの動きに合わせて光学ユニット110を移動させるものである。オートトラッキングを行う場合、事前にアライメントとフォーカシングが実行される。オートトラッキングは、たとえば次のようにして実行される。まず、正面画像取得光学系によって被検眼Eを動画撮影する。データ処理部230は、この動画撮影により得られるフレームを逐次に解析することで、被検眼Eの動き(位置の変化)を監視する。制御部210は、逐次に取得される被検眼Eの位置に合わせて光学ユニット110を移動させるようにユニット駆動部110Aを制御する。それにより、被検眼Eの動きに対して光学ユニット110をリアルタイムで追従させることができ、アライメントとピントが合った好適な位置関係を維持することが可能となる。   When a front image acquisition optical system is provided, auto-tracking can be performed. Auto-tracking is to move the optical unit 110 in accordance with the movement of the eye E. When performing auto tracking, alignment and focusing are performed in advance. The auto tracking is executed as follows, for example. First, a moving image is taken of the eye E using the front image acquisition optical system. The data processing unit 230 monitors the movement (position change) of the eye E by sequentially analyzing frames obtained by moving image shooting. The control unit 210 controls the unit driving unit 110A to move the optical unit 110 in accordance with the position of the eye E to be sequentially acquired. Thereby, the optical unit 110 can be made to follow the movement of the eye E in real time, and a suitable positional relationship in which the alignment and the focus are matched can be maintained.

〔制御系・データ処理系〕
実施形態に係る眼底撮影装置100の制御系およびデータ処理系について説明する。制御系およびデータ処理系の構成例を図15に示す。
[Control system / Data processing system]
A control system and a data processing system of the fundus imaging apparatus 100 according to the embodiment will be described. A configuration example of the control system and the data processing system is shown in FIG.

制御系およびデータ処理系は、コンピュータ200を中心に構成される。コンピュータ200は、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼底撮影装置100に各種処理を実行させるためのコンピュータプログラムが記憶されている。コンピュータ200は、特定の処理を実行する専用の回路基板を有していてよい。たとえばOCT画像を形成するための処理を実行する回路基板が設けられていてよい。   The control system and the data processing system are configured around the computer 200. The computer 200 includes a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like. A storage device such as a hard disk drive stores a computer program for causing the fundus imaging apparatus 100 to execute various processes. The computer 200 may have a dedicated circuit board that executes a specific process. For example, a circuit board that performs processing for forming an OCT image may be provided.

(ユーザインターフェイス300)
コンピュータ200にはユーザインターフェイス300が接続されている。ユーザインターフェイス300には、表示部310と操作部320とが含まれる。表示部310は、フラットパネルディスプレイ等の表示デバイスを含む。操作部320は、眼底撮影装置100の筐体や外部に設けられたボタン、キー、ジョイスティック、操作パネル等の操作デバイスを含む。コンピュータ200がパーソナルコンピュータを含む場合、操作部320は、このパーソナルコンピュータの操作デバイス(マウス、キーボード、トラックパッド、ボタン等)を含んでいてよい。
(User interface 300)
A user interface 300 is connected to the computer 200. The user interface 300 includes a display unit 310 and an operation unit 320. The display unit 310 includes a display device such as a flat panel display. The operation unit 320 includes an operation device such as a button, a key, a joystick, or an operation panel provided on the housing of the fundus photographing apparatus 100 or outside. When the computer 200 includes a personal computer, the operation unit 320 may include an operation device (mouse, keyboard, trackpad, button, etc.) of the personal computer.

表示部310と操作部320は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部320は、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部320に対する操作内容は、電気信号として制御部210に入力される。また、表示部310に表示されたグラフィカルユーザインターフェイス(GUI)と、操作部320とを用いて、操作や情報入力を行うようにしてもよい。   The display unit 310 and the operation unit 320 need not be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. In that case, the operation unit 320 includes the touch panel and a computer program. The operation content for the operation unit 320 is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 310 and the operation unit 320.

(制御部210)
制御部210は、コンピュータ200に設けられている。制御部210は、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(Control unit 210)
The control unit 210 is provided in the computer 200. The control unit 210 includes a microprocessor, RAM, ROM, hard disk drive, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.

(主制御部211)
主制御部211は、眼底撮影装置100の各部の制御を行う。たとえば、主制御部211による制御の対象には、ユニット駆動部110A、光源111、参照ミラー駆動部114A、スキャナ116、鏡筒駆動部119B、CCD(イメージセンサ)123、フラットパネルディスプレイ125、表示部310、データ処理部230、および通信部240が含まれる。
(Main control unit 211)
The main control unit 211 controls each unit of the fundus imaging apparatus 100. For example, the main control unit 211 is controlled by a unit driving unit 110A, a light source 111, a reference mirror driving unit 114A, a scanner 116, a lens barrel driving unit 119B, a CCD (image sensor) 123, a flat panel display 125, a display unit. 310, a data processing unit 230, and a communication unit 240 are included.

ユニット駆動部110Aは、測定光路(対物レンズ119の光軸)に沿う方向(z方向)と、z方向に対して直交する面に沿う方向(xy方向)とに、光学ユニット110を移動するための機構を有する。参照ミラー駆動部114Aは、参照光路に沿って参照ミラー114を移動する。鏡筒駆動部119Bは、測定光路に沿って対物レンズ119および鏡筒部119Aを移動する。レンズ駆動部127Aは、切替レンズ127を測定光路に対して挿脱する。   The unit driver 110A moves the optical unit 110 in a direction along the measurement optical path (the optical axis of the objective lens 119) (z direction) and in a direction along the plane orthogonal to the z direction (xy direction). It has the mechanism of. The reference mirror driving unit 114A moves the reference mirror 114 along the reference optical path. The lens barrel drive unit 119B moves the objective lens 119 and the lens barrel unit 119A along the measurement optical path. The lens driving unit 127A inserts and removes the switching lens 127 with respect to the measurement optical path.

(記憶部212)
記憶部212は、各種のデータを記憶する。また、記憶部212には、眼底撮影装置100を動作させるための各種プログラムやデータが記憶されている。記憶部212に記憶されるデータは、眼底撮影装置100により取得されるデータと、あらかじめ記憶されるデータとを含む。
(Storage unit 212)
The storage unit 212 stores various data. In addition, the storage unit 212 stores various programs and data for operating the fundus imaging apparatus 100. The data stored in the storage unit 212 includes data acquired by the fundus imaging apparatus 100 and data stored in advance.

眼底撮影装置100により取得されるデータとしては、OCT画像の画像データ、検査データ、正面画像の画像データなどがある。検査データとは、光学ユニット110による干渉光の検出結果を処理することにより生成される、被検眼の状態を示すデータである(詳細は後述する)。この実施形態において、検査データは、被検者の認証を行うための認証情報として使用される。記憶部212にあらかじめ記憶されるデータとしては、以下に説明する設定情報や正規個人認証情報がある。   Examples of data acquired by the fundus imaging apparatus 100 include image data of OCT images, examination data, and image data of front images. The examination data is data indicating the state of the eye to be examined, which is generated by processing the detection result of the interference light by the optical unit 110 (details will be described later). In this embodiment, the examination data is used as authentication information for authenticating the subject. The data stored in advance in the storage unit 212 includes setting information and regular personal authentication information described below.

(設定情報)
設定情報は、光学ユニット110およびデータ処理部230に関する所定の項目の設定の内容が記録された情報である。設定情報はたとえば次の事項のうち少なくとも1つに関する設定内容を含む:(1)固視位置;(2)スキャンパターン;(3)合焦位置;(4)視度補正;(5)最大干渉深度;(6)解析処理。
(Setting information)
The setting information is information in which contents of setting of predetermined items related to the optical unit 110 and the data processing unit 230 are recorded. The setting information includes, for example, setting contents regarding at least one of the following items: (1) fixation position; (2) scan pattern; (3) focus position; (4) diopter correction; (5) maximum interference. Depth; (6) Analysis processing.

(1)「固視位置」は、被検眼Eを固視させる方向、つまりOCT計測が実行される被検眼Eの部位を示す。固視位置としては、黄斑およびその周囲のOCT計測を行うための固視位置、視神経乳頭およびその周囲のOCT計測を行うための固視位置、黄斑および視神経乳頭並びにこれらの周囲のOCT計測を行うための固視位置などがある。また、被検眼Eの任意の部位に対応する固視位置を設定することも可能である。固視位置は、たとえば、フラットパネルディスプレイ125による固視標の表示位置(画素の位置)を示す情報を含む。   (1) “Fixing position” indicates a direction in which the eye E is fixed, that is, a part of the eye E on which OCT measurement is performed. As the fixation position, the fixation position for performing OCT measurement of the macula and its surroundings, the fixation position for performing OCT measurement of the optic nerve head and its surroundings, and the OCT measurement of the macula and the optic nerve head and their surroundings There is a fixation position for. It is also possible to set a fixation position corresponding to an arbitrary part of the eye E. The fixation position includes, for example, information indicating the display position (pixel position) of the fixation target on the flat panel display 125.

(2)「スキャンパターン」は、被検眼Eに対する測定光の投射位置をどのようなパターンに沿って移動させるかを示す。スキャンパターンとしては、1以上のラインスキャン(水平スキャン、垂直スキャン)、1以上のクロススキャン、ラジアルスキャン、サークルスキャンなどがある。また、3次元画像(3次元データセット)を取得する場合には、複数のラインスキャンの間隔が十分に狭く設定された3次元スキャンが適用される。   (2) “Scan pattern” indicates a pattern along which the projection position of the measurement light with respect to the eye E is moved. Examples of the scan pattern include one or more line scans (horizontal scan, vertical scan), one or more cross scans, radial scans, and circle scans. Further, when acquiring a three-dimensional image (three-dimensional data set), a three-dimensional scan in which intervals between a plurality of line scans are set sufficiently narrow is applied.

(3)「合焦位置」は、OCT計測において適用されるフォーカス条件を示す。合焦位置は、たとえば、対物レンズ119の位置を示す情報を含む。   (3) “Focus position” indicates a focus condition applied in OCT measurement. The in-focus position includes information indicating the position of the objective lens 119, for example.

(4)「視度補正」は、視度補正において適用される条件を示す。具体的には、被検眼Eの屈折力(視力値)を示す値、対物レンズ119の位置を示す情報などがある。   (4) “Diopter correction” indicates a condition applied in diopter correction. Specifically, there are a value indicating the refractive power (eyesight value) of the eye E, information indicating the position of the objective lens 119, and the like.

(5)「最大干渉深度」は、OCT計測において適用される、測定光と参照光との干渉強度が最大となる深度を示す。最大干渉深度は、たとえば、参照ミラー114の位置を示す情報を含む。   (5) “Maximum interference depth” indicates a depth at which the interference intensity between the measurement light and the reference light, which is applied in the OCT measurement, is maximum. The maximum interference depth includes information indicating the position of the reference mirror 114, for example.

(6)「解析処理」は、光学ユニット110により取得されるデータに基づき実行される処理の内容、つまり取得される検査データの種別を示す。解析処理の例として、眼底層厚解析、乳頭形状解析などがある。眼底層厚解析は、眼底の所定の層組織(網膜、網膜のサブ組織、脈絡膜、強膜など)の厚さを求めるための解析処理である。乳頭形状解析は、眼底の断面像や3次元画像を解析して、網膜の孔部(切れ目、欠損部位)を検出して視神経乳頭の形状を求める解析処理である。また、乳頭形状解析では、視神経乳頭の傾き(形状の非対称性)を求めることもできる。   (6) “Analysis process” indicates the content of the process executed based on the data acquired by the optical unit 110, that is, the type of the inspection data to be acquired. Examples of analysis processing include fundus layer thickness analysis and nipple shape analysis. The fundus layer thickness analysis is an analysis process for obtaining the thickness of a predetermined layer tissue of the fundus (retina, retinal sub-tissue, choroid, sclera, etc.). The nipple shape analysis is an analysis process in which a cross-sectional image or a three-dimensional image of the fundus oculi is analyzed to detect a hole portion (cut or defect portion) of the retina and obtain the shape of the optic nerve head. In the nipple shape analysis, the inclination (shape asymmetry) of the optic nerve head can also be obtained.

解析処理は、被検眼Eの所定部位に相当する画像領域を特定する処理や、特定された画像領域の形態や分布を求める処理を含んでいてよい。特定対象である所定部位としては、たとえば、血管、視神経乳頭、黄斑、所定の層組織(網膜、網膜のサブ組織、脈絡膜、強膜など)、レーザ治療痕、病変部(ドルーゼン、網膜剥離部位、組織欠損部位、組織変形部位など)がある。   The analysis process may include a process of specifying an image area corresponding to a predetermined part of the eye E and a process of obtaining the form and distribution of the specified image area. Examples of the predetermined region that is a specific target include blood vessels, optic disc, macular, predetermined layer tissues (retina, retinal sub-tissue, choroid, sclera, etc.), laser treatment marks, lesions (drusen, retinal detachment sites, Tissue defect site, tissue deformation site, etc.).

解析処理は、OCT計測で取得されたデータに基づいて距離を算出する処理を含んでいてよい。この距離計測の例として、前眼部のOCT計測で取得されたデータと、眼底のOCT計測で取得されたデータとに基づく眼内距離(眼軸長など)の計測がある。なお、眼底または前眼部のOCT画像のみに基づいて眼内距離を求めることも可能である。   The analysis process may include a process of calculating a distance based on data acquired by OCT measurement. As an example of this distance measurement, there is a measurement of an intraocular distance (such as an axial length) based on data acquired by OCT measurement of the anterior segment and data acquired by OCT measurement of the fundus. It is also possible to obtain the intraocular distance based only on the OCT image of the fundus or anterior segment.

被検者の左眼と右眼の双方のOCT計測を行う場合であって、特に左右で異なる設定が適用される場合には、左眼に関する設定情報(左眼用設定情報)と、右眼に関する設定情報(右眼用設定情報)とを別々に設けることが可能である。   When OCT measurement is performed for both the left eye and the right eye of the subject, and when different settings are applied to the left and right, setting information about the left eye (setting information for the left eye) and the right eye Setting information (right eye setting information) can be provided separately.

また、眼底撮影装置100を2以上の被検者が共用する場合であって、特に被検者ごとに異なる設定が適用される場合には、被検者ごとに個別の設定情報を設けることが可能である。設定情報は、たとえば、被検眼に関する過去の検査結果や診断結果に基づいて作成される。   In addition, when two or more subjects share the fundus imaging apparatus 100 and different settings are applied to each subject, individual setting information may be provided for each subject. Is possible. The setting information is created based on, for example, past examination results and diagnosis results regarding the eye to be examined.

(正規個人認証情報)
正規個人認証情報は、眼底撮影装置100を用いて検査を行うことが許可された者(正規の被検者)の個人認証情報である。個人認証情報とは、眼底撮影装置100を用いて検査を行おうとしている者の個人認証を行うために使用される情報である。個人認証情報は、第1の実施形態における個人情報として使用される。
(Regular personal authentication information)
The regular personal authentication information is personal authentication information of a person who is permitted to perform an examination using the fundus imaging apparatus 100 (a regular subject). The personal authentication information is information used for personal authentication of a person who is going to perform an examination using the fundus imaging apparatus 100. The personal authentication information is used as personal information in the first embodiment.

個人認証情報は、文字列情報や画像情報であってよい。文字列情報としては、医療機関にて付与された患者ID、被検者の氏名等の個人情報、被検者が任意に指定した文字列情報、ランダムに指定された文字列情報などがある。画像情報としては、生体認証情報(指紋パターン、虹彩パターン、静脈パターン、顔型パターンなど)、1次元コード、2次元コードなどがある。また、個人認証情報として音声パターンや筆跡パターンを用いることも可能である。   The personal authentication information may be character string information or image information. Examples of the character string information include a patient ID given by a medical institution, personal information such as a subject's name, character string information arbitrarily designated by the subject, and character string information designated randomly. Examples of the image information include biometric authentication information (such as a fingerprint pattern, an iris pattern, a vein pattern, and a face pattern), a one-dimensional code, and a two-dimensional code. In addition, a voice pattern or a handwriting pattern can be used as the personal authentication information.

また、個人認証情報は、眼底撮影装置100により取得可能な被検眼Eの画像(2次元断面像、3次元画像、眼底正面画像など)に基づいて取得される情報であってよい。このような個人認証情報の例として次のものがある:(1)眼底の所定部位(血管、視神経乳頭、層組織、レーザ治療痕など)の形態を表す形態情報;(2)眼底の所定部位の分布を表す分布情報;(3)眼底の所定の層組織の厚みの分布を表す層厚分布情報;(4)眼底と前眼部との間の距離(眼軸長など)。これら個人認証情報の取得方法については後述する。   The personal authentication information may be information acquired based on an image of the eye E (two-dimensional cross-sectional image, three-dimensional image, front fundus image, etc.) that can be acquired by the fundus imaging apparatus 100. Examples of such personal authentication information include the following: (1) Morphological information indicating the form of a predetermined region of the fundus (blood vessel, optic nerve head, layer tissue, laser treatment mark, etc.); (2) a predetermined region of the fundus (3) Layer thickness distribution information indicating the distribution of the thickness of a predetermined layer tissue of the fundus; (4) Distance (such as the axial length) between the fundus and the anterior segment. A method for obtaining the personal authentication information will be described later.

血管の形態情報は、たとえば、血管パターン、血管の数・太さ・長さ・曲率、血管の分岐部の数、血管の交差部の数を含む。血管の分布情報は、たとえば、血管の位置(分布)、血管の曲率分布、血管の分岐部の位置、血管の交差部の位置を含む。視神経乳頭の形態情報は、たとえば、その形状・サイズ(面積、ディスク径、カップ径、リム径、これら径の比、乳頭深さなど)を含む。視神経乳頭の分布情報は、たとえば、その位置を含む。層組織の形態情報は、たとえば、その形状・サイズ(長さ、厚さ)を含む。層組織の分布情報は、たとえば、その位置を含む。特徴的部位(レーザ治療痕、病変部など)の形態情報は、たとえば、その形状・サイズを含む。特徴的部位の分布情報は、たとえば、その位置を含む。   The blood vessel morphology information includes, for example, a blood vessel pattern, the number / thickness / length / curvature of blood vessels, the number of blood vessel bifurcations, and the number of blood vessel intersections. The blood vessel distribution information includes, for example, the position (distribution) of the blood vessel, the curvature distribution of the blood vessel, the position of the branching portion of the blood vessel, and the position of the crossing portion of the blood vessel. The optic nerve head morphology information includes, for example, its shape and size (area, disk diameter, cup diameter, rim diameter, ratio of these diameters, nipple depth, etc.). The distribution information of the optic disc includes, for example, its position. The morphological information of the layer structure includes, for example, its shape / size (length, thickness). The distribution information of the layer structure includes, for example, the position. The form information of the characteristic part (laser treatment mark, lesion, etc.) includes, for example, its shape and size. The distribution information of the characteristic part includes, for example, the position.

眼底撮影装置100を用いた検査を行おうとする者は、所定の方法で個人認証情報を入力する。入力方法は、使用される個人認証情報の種別に対応する。第1の実施形態と同様の個人認証情報は、第1の実施形態と同じ要領で入力される。また、OCT計測を介して取得される個人認証情報は、被検眼Eに対して実際にOCT計測を行い、それにより得られた画像を処理することによって入力される。   A person who intends to perform an examination using the fundus imaging apparatus 100 inputs personal authentication information by a predetermined method. The input method corresponds to the type of personal authentication information used. The same personal authentication information as in the first embodiment is input in the same manner as in the first embodiment. The personal authentication information acquired through OCT measurement is input by actually performing OCT measurement on the eye E to be examined and processing an image obtained thereby.

眼底撮影装置100を2人以上の被検者が共用する場合、各被検者についての正規個人認証情報が記憶部212にあらかじめ記憶される。   When two or more subjects share the fundus imaging apparatus 100, regular personal authentication information for each subject is stored in the storage unit 212 in advance.

(画像形成部220)
画像形成部220は、CCDイメージセンサ123からの検出信号に基づいて画像データを形成する。この処理には、従来のスペクトラルドメインタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、分散補償、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCTが適用される場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
(Image forming unit 220)
The image forming unit 220 forms image data based on the detection signal from the CCD image sensor 123. This process includes processes such as noise removal (noise reduction), filter processing, dispersion compensation, and FFT (Fast Fourier Transform) as in the conventional spectral domain type OCT. When another type of OCT is applied, the image forming unit 220 executes a known process corresponding to the type.

画像形成部220は、たとえば、専用の回路基板および/またはマイクロプロセッサを含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。   The image forming unit 220 includes, for example, a dedicated circuit board and / or a microprocessor. In this specification, “image data” and “image” based thereon may be identified.

(データ処理部230)
データ処理部230は、各種のデータ処理を実行する。たとえば、データ処理部230は、画像形成部220により形成された画像に対して画像処理を施す。その一例として、データ処理部230は、断面位置が異なる複数の2次元断面像に基づいて、被検眼Eの3次元画像の画像データを形成することができる。3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。また、データ処理部230は、3次元画像の任意の断面を画像化することができる(MPR(Multi−Planar Reconstruction):断面変換)。
(Data processing unit 230)
The data processing unit 230 executes various data processing. For example, the data processing unit 230 performs image processing on the image formed by the image forming unit 220. As an example, the data processing unit 230 can form image data of a three-dimensional image of the eye E based on a plurality of two-dimensional cross-sectional images having different cross-sectional positions. The image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system. As image data of a three-dimensional image, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the data processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and views the image from a specific gaze direction. Image data of a pseudo three-dimensional image is formed. Further, the data processing unit 230 can image an arbitrary cross section of a three-dimensional image (MPR (Multi-Planar Reconstruction): cross-sectional conversion).

また、3次元画像の画像データとして、複数の断面像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断面像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断面像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。データ処理部230は、スタックデータに基づくMPR処理を行うことが可能である。   It is also possible to form stack data of a plurality of cross-sectional images as image data of a three-dimensional image. The stack data is image data obtained by three-dimensionally arranging a plurality of cross-sectional images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of cross-sectional images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there. The data processing unit 230 can perform MPR processing based on the stack data.

データ処理部230は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、所定のデータ処理専用の回路基板などを含んで構成される。ハードディスクドライブ等の記憶装置には、後述のデータ処理をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。   The data processing unit 230 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a circuit board dedicated to predetermined data processing, and the like. In a storage device such as a hard disk drive, a computer program for causing a microprocessor to execute data processing described later is stored in advance.

データ処理部230は、検査データ生成部231と、認証処理部232とを含む。   The data processing unit 230 includes an inspection data generation unit 231 and an authentication processing unit 232.

(検査データ生成部231)
検査データ生成部231は、光学ユニット110による干渉光の検出結果を処理することにより、被検眼Eの状態を示す検査データを生成する。「干渉光の検出結果」は、たとえば次のいずれかである:(1)CCDイメージセンサ123から出力される信号;(2)画像形成部220により形成された画像データ;(3)画像形成部220が実行する処理の中間段階で得られるデータ(つまり、画像データ形成処理の途中で得られるデータ);(4)CCDイメージセンサ123から出力される信号を画像形成部220以外の構成要素によって処理して得られるデータ。以下、検査データ生成部231が実行する処理の例を説明する。
(Inspection data generation unit 231)
The inspection data generation unit 231 generates inspection data indicating the state of the eye E by processing the detection result of the interference light by the optical unit 110. The “interference light detection result” is, for example, one of the following: (1) a signal output from the CCD image sensor 123; (2) image data formed by the image forming unit 220; (3) an image forming unit. Data obtained at an intermediate stage of processing executed by 220 (that is, data obtained during the image data forming process); (4) A signal output from the CCD image sensor 123 is processed by components other than the image forming unit 220 Data obtained by Hereinafter, an example of processing executed by the inspection data generation unit 231 will be described.

第1の例として、検査データ生成部231は、光学ユニット110による干渉光の検出結果に基づいて眼底Efの層厚情報を生成することができる。この場合、検査データ生成部231は、層厚情報生成部として機能し、前述の眼底層厚解析(網膜厚解析、RNFL厚解析など)を実行する。さらに、検査データ生成部231は、眼底層厚解析により取得された層厚情報と標準的な層厚値との比較解析を行うことが可能である。   As a first example, the inspection data generation unit 231 can generate layer thickness information of the fundus oculi Ef based on the detection result of the interference light by the optical unit 110. In this case, the examination data generation unit 231 functions as a layer thickness information generation unit, and executes the above-described fundus layer thickness analysis (such as retinal thickness analysis and RNFL thickness analysis). Further, the examination data generation unit 231 can perform a comparative analysis between the layer thickness information acquired by the fundus layer thickness analysis and a standard layer thickness value.

眼底層厚解析は、干渉光の検出結果に基づいて、眼底Efの所定の層組織の厚さ(分布)を求める処理である。その一例として網膜厚解析について説明する。他の層組織の厚さを求める場合も同様の処理が実行される。   The fundus layer thickness analysis is a process for obtaining the thickness (distribution) of a predetermined layer tissue of the fundus oculi Ef based on the detection result of the interference light. As an example, retinal thickness analysis will be described. Similar processing is performed when the thicknesses of other layer structures are obtained.

網膜厚解析では、たとえば眼底EfのOCT画像(断面像、3次元画像)を解析することにより、当該スキャン範囲の一部または全部における網膜の厚さ分布を求める。なお、網膜厚には様々な定義がある。たとえば、内境界膜から内顆粒層(視細胞の内接・外接)までの厚さを網膜厚とする場合、内境界膜から網膜色素上皮層までの厚さを網膜厚とする場合などがある。網膜厚解析で求める網膜厚はこのような定義のうちのいずれかである。   In the retinal thickness analysis, for example, by analyzing an OCT image (cross-sectional image, three-dimensional image) of the fundus oculi Ef, the thickness distribution of the retina in part or all of the scan range is obtained. There are various definitions of retinal thickness. For example, when the thickness from the inner boundary membrane to the inner granule layer (inscribed / external contact of photoreceptor cells) is used as the retinal thickness, the thickness from the inner border membrane to the retinal pigment epithelial layer may be used as the retinal thickness. . The retinal thickness obtained by retinal thickness analysis is one of such definitions.

網膜厚解析は、たとえば次のようにして実行される。まず、眼底EfのOCT画像を解析して、所定の境界部位(たとえば内境界膜と網膜色素上皮層)に相当する画像領域を特定する。そして、特定された境界部位の間の画素数をカウントして網膜厚(深度方向の距離)を求める。なお、OCT画像を解析して眼底の層の厚さを求める処理は、たとえば本出願人による特開2007−325831号公報、特開2008−206684号公報、特開2009−61203号公報、特開2009−66015号公報などに説明されている。このようにして取得される情報は「層厚分布情報」の例である。   The retinal thickness analysis is performed as follows, for example. First, an OCT image of the fundus oculi Ef is analyzed, and an image region corresponding to a predetermined boundary region (for example, the inner boundary membrane and the retinal pigment epithelium layer) is specified. Then, the number of pixels between the specified boundary portions is counted to obtain the retinal thickness (distance in the depth direction). The processing for analyzing the OCT image to determine the thickness of the fundus layer is, for example, Japanese Patent Application Laid-Open No. 2007-325831, Japanese Patent Application Laid-Open No. 2008-206684, Japanese Patent Application Laid-Open No. 2009-61203, Japanese Patent Application Laid-Open No. It is described in the 2009-66015 gazette. The information acquired in this way is an example of “layer thickness distribution information”.

網膜厚解析と同様の処理を行うことにより、眼底Efの任意の層組織に相当する画像領域を特定することができ、また、任意の層組織の層厚分布を取得することができる。それにより、眼底Efの所定部位(所定の層組織)の形態を表す形態情報や、所定部位の分布を表す分布情報、さらには、所定の層組織の層厚分布情報を取得することができる。   By performing the same process as the retinal thickness analysis, an image region corresponding to an arbitrary layer structure of the fundus oculi Ef can be specified, and a layer thickness distribution of the arbitrary layer structure can be acquired. As a result, it is possible to acquire morphological information indicating the form of a predetermined part (predetermined layer tissue) of the fundus oculi Ef, distribution information indicating the distribution of the predetermined part, and layer thickness distribution information of the predetermined layer tissue.

網膜厚の比較解析は、網膜厚解析により求められた網膜厚と、あらかじめ記憶された標準データ(Normative data)とを比較する解析処理である。Normative dataは、健常眼の網膜厚の標準値(標準厚)である。Normative dataは、健常眼の網膜厚を多数計測し、その計測結果の統計値(平均値、標準偏差など)を求めることにより作成される。比較解析は、被検眼Eの網膜厚が健常眼のそれの範囲に含まれるか否か判定するものである。なお、比較解析は、疾患のある眼における網膜厚の範囲を求め、網膜厚解析により得られた網膜厚が当該範囲に含まれるか否か判定する処理であってよい。   The comparative analysis of the retinal thickness is an analysis process that compares the retinal thickness obtained by the retinal thickness analysis with standard data (Normal data) stored in advance. Normal data is the standard value (standard thickness) of the retinal thickness of healthy eyes. The normal data is created by measuring a large number of retinal thicknesses of healthy eyes and obtaining statistical values (average value, standard deviation, etc.) of the measurement results. In the comparative analysis, it is determined whether or not the retinal thickness of the eye E is included in the range of the normal eye. The comparative analysis may be a process of obtaining a range of retinal thickness in a diseased eye and determining whether or not the retinal thickness obtained by the retinal thickness analysis is included in the range.

検査データ生成部231は、眼底Efの特徴的部位(レーザ治療痕、病変部など)に相当する画像領域を特定するための解析処理を実行できるように構成されていてよい。この処理は、たとえばOCT画像を解析することにより、そのスキャン範囲の一部または全部における特徴的部位の形態情報および/または分布情報を求める解析処理である。   The examination data generation unit 231 may be configured to execute an analysis process for specifying an image region corresponding to a characteristic part (laser treatment mark, lesion part, etc.) of the fundus oculi Ef. This process is an analysis process in which, for example, by analyzing an OCT image, the morphological information and / or distribution information of a characteristic part in part or all of the scan range is obtained.

この解析処理は、たとえば、OCT画像の画素のうち、特徴的部位に相当する画素を特定する処理を含む。その具体例として、特徴的部位に応じてあらかじめ決められた範囲に属する画素値を有する画素を特定することができる。他の例として、OCT画像を構成する画素について画素値のヒストグラムを作成し、このヒストグラムにおける画素値の分布に基づいて、特徴的部位に相当する画素を特定することができる。   This analysis process includes, for example, a process of specifying a pixel corresponding to a characteristic part among pixels of the OCT image. As a specific example, it is possible to specify a pixel having a pixel value belonging to a range determined in advance according to a characteristic part. As another example, a pixel value histogram can be created for the pixels constituting the OCT image, and the pixel corresponding to the characteristic part can be specified based on the distribution of the pixel values in the histogram.

また、OCT画像を複数の画像領域に分割し、またはOCT画像の所定の画像領域を特定し、さらに、この画像領域の形態に基づいて、特徴的部位に相当する画素を特定することができる。たとえば、ブルッフ膜に相当する画像領域と網膜色素上皮に相当する画像領域とを特定し、これら画像領域の間の画素値に基づいて小さな略円形の隆起形状に相当する画像領域をドルーゼン(の候補)として特定することができる。このような形状に基づく画像領域の特定処理は、たとえば、当該形状のテンプレートを用いた画像マッチングを含んでいてよい。   Further, the OCT image can be divided into a plurality of image regions, or a predetermined image region of the OCT image can be specified, and further, a pixel corresponding to a characteristic part can be specified based on the form of the image region. For example, an image region corresponding to a Bruch's membrane and an image region corresponding to a retinal pigment epithelium are identified, and an image region corresponding to a small substantially circular raised shape is selected based on a pixel value between these image regions. ) Can be specified. The image region specifying process based on such a shape may include, for example, image matching using a template of the shape.

前述の正面画像取得光学系が設けられている場合であって、眼底Efの撮影が可能である場合には、眼底Efの撮影画像に基づいて、特徴的部位に相当する画像領域を特定することができる。この解析処理は、たとえば、撮影画像の各画素の画素値が所定範囲に含まれるか判定し、所定範囲に含まれる画素を特定することにより実行される。撮影画像がカラー画像である場合、特徴的部位は、特徴的な形状や色を有している。具体的には、レーザ治療痕は小さな円形の白斑として描出され、病変部は特徴的な色(ドルーゼンは黄白色)で描写される。よって、このような特徴的な形状や色に相当する画像領域を探索することにより、特徴的部位に相当する画像領域を特定することが可能である。撮影画像がモノクロ画像である場合には、特徴的な形状や明るさ(輝度)に相当する画像領域を探索することにより、特徴的部位に相当する画像領域を特定することが可能である。   In the case where the above-described front image acquisition optical system is provided and the fundus oculi Ef can be photographed, an image region corresponding to a characteristic part is specified based on the photographed image of the fundus oculi Ef. Can do. This analysis process is executed, for example, by determining whether the pixel value of each pixel of the captured image is included in a predetermined range and specifying the pixels included in the predetermined range. When the captured image is a color image, the characteristic part has a characteristic shape and color. Specifically, the laser treatment scar is depicted as a small circular vitiligo, and the lesion is depicted in a characteristic color (Drusen is yellowish white). Therefore, by searching for an image area corresponding to such a characteristic shape and color, it is possible to specify an image area corresponding to the characteristic part. When the captured image is a monochrome image, it is possible to specify an image region corresponding to a characteristic part by searching an image region corresponding to a characteristic shape or brightness (luminance).

乳頭形状解析は、眼底EfのOCT画像を解析することにより網膜の孔部を検出し、この孔部の形状、つまり視神経乳頭の形状を求める解析処理を含んでいてよい。乳頭形状解析は、たとえば、断面像または3次元画像を解析して視神経乳頭及びその近傍の網膜表面に相当する画像領域を特定し、特定された画像領域を解析してその大域的形状や局所的形状(凹凸)を表すパラメータ(乳頭形状パラメータ)を求める。乳頭形状パラメータの例として、視神経乳頭のカップ径、ディスク径、リム径、乳頭深さなどがある。   The nipple shape analysis may include an analysis process for detecting the hole of the retina by analyzing the OCT image of the fundus oculi Ef and obtaining the shape of the hole, that is, the shape of the optic nerve head. The nipple shape analysis is performed by, for example, analyzing a cross-sectional image or a three-dimensional image to identify an image region corresponding to the optic nerve head and the retinal surface in the vicinity thereof, and analyzing the identified image region to analyze its global shape and locality. A parameter (nipple shape parameter) representing the shape (unevenness) is obtained. Examples of papillary shape parameters include the optic disc cup diameter, disc diameter, rim diameter, and nipple depth.

また、乳頭形状解析は、視神経乳頭の傾き(形状の非対称性)を求める解析処理を含んでいてよい。この解析処理は、たとえば次のようにして実行される。まず、検査データ生成部231は、視神経乳頭を含む領域をスキャンして得られた3次元画像を解析して乳頭中心を特定する。次に、検査データ生成部231は、乳頭中心を中心とする円形領域を設定し、この円形領域を放射状に分割して複数の部分領域を得る。続いて、検査データ生成部231は、円形領域の断面像を解析することで、各ピクセル位置における所定層(たとえば網膜色素上皮層)の高さ位置を求める。さらに、検査データ生成部231は、各部分領域における所定層の高さ位置の平均値を算出する。次に、検査データ生成部231は、乳頭中心に関して対向位置に相当する一対の部分領域について得られた一対の平均値を比較することにより、この対向方向における眼底Efの傾斜を求める。そして、検査データ生成部231は、複数の対向方向について得られた傾斜に基づいて、上記円形領域における眼底Efの傾斜の分布を示す傾斜分布情報を生成する。なお、生成された傾斜分布情報(およびその標準的な分布を示す情報)に基づいて、疾患の状態の評価情報を生成することができる。   The nipple shape analysis may include an analysis process for obtaining the inclination (shape asymmetry) of the optic nerve head. This analysis process is executed as follows, for example. First, the examination data generation unit 231 analyzes the three-dimensional image obtained by scanning the region including the optic nerve head and identifies the center of the teat. Next, the test data generation unit 231 sets a circular area centered on the nipple center, and divides the circular area radially to obtain a plurality of partial areas. Subsequently, the examination data generation unit 231 obtains the height position of a predetermined layer (for example, the retinal pigment epithelium layer) at each pixel position by analyzing a cross-sectional image of the circular region. Further, the inspection data generation unit 231 calculates an average value of height positions of predetermined layers in each partial region. Next, the examination data generation unit 231 obtains the inclination of the fundus oculi Ef in the facing direction by comparing a pair of average values obtained for a pair of partial regions corresponding to the facing position with respect to the nipple center. Then, the examination data generation unit 231 generates inclination distribution information indicating the distribution of the inclination of the fundus oculi Ef in the circular area based on the inclinations obtained in the plurality of facing directions. Note that the evaluation information of the disease state can be generated based on the generated inclination distribution information (and information indicating the standard distribution).

OCTにより取得された3次元画像に基づいて眼底正面画像を形成することができる。眼底正面画像は、眼底Efに対する測定光の入射方向(z方向)に直交する平面に描出される画像である。眼底正面画像は、3次元画像の一部または全部を眼底Efの深さ方向(z方向)に投影することによって形成される。この処理はデータ処理部230により実行される。眼底正面画像は、プロジェクション画像などと呼ばれる。   A fundus front image can be formed based on a three-dimensional image acquired by OCT. The fundus front image is an image drawn on a plane orthogonal to the incident direction (z direction) of the measurement light with respect to the fundus oculi Ef. The fundus front image is formed by projecting a part or all of the three-dimensional image in the depth direction (z direction) of the fundus oculi Ef. This process is executed by the data processing unit 230. The fundus front image is called a projection image.

なお、3次元画像の一部のみを用いて眼底正面画像が形成される場合、この部分領域は、xy方向における一部でもよいし、z方向における一部でもよい。前者は、たとえば、所定の部位(視神経乳頭、黄斑など)の眼底正面画像を得る場合に適用される。後者は、たとえば、z方向における所定範囲の情報を含む眼底正面画像を得る場合に適用される。3次元画像のうちz方向における一部の領域を用いる場合、この部分領域の上面および/または下面は、平面でも曲面でもよい。また、z方向に対して任意の角度をなす平面に描出される画像(傾斜眼底像)を、3次元画像に基づいて形成することが可能である。   When the fundus front image is formed using only a part of the three-dimensional image, this partial region may be a part in the xy direction or a part in the z direction. The former is applied, for example, when obtaining a fundus front image of a predetermined part (optic nerve head, macular, etc.). The latter is applied, for example, when obtaining a fundus front image including a predetermined range of information in the z direction. When a partial region in the z direction is used in the three-dimensional image, the upper surface and / or the lower surface of this partial region may be a flat surface or a curved surface. In addition, an image (tilted fundus image) drawn on a plane that forms an arbitrary angle with respect to the z direction can be formed based on a three-dimensional image.

検査データ生成部231は、眼底正面画像(または傾斜眼底像)に基づいて検査データを生成することができる。眼底正面画像に基づく検査データの種別は、たとえば上記の形態情報や分布情報など、他種のOCT画像(2次元断面像、3次元画像など)に基づく検査データのそれと同じであってよい。   The examination data generation unit 231 can generate examination data based on the fundus front image (or tilted fundus image). The type of examination data based on the fundus front image may be the same as that of examination data based on another type of OCT image (two-dimensional cross-sectional image, three-dimensional image, etc.) such as the above-described form information and distribution information.

前述したように、データ処理部230は、3次元画像の任意の断面を画像化することができる(MPR画像)。断面の指定は、手動または自動で実行される。検査データ生成部231は、MPR画像に基づいて検査データを生成することができる。MPR画像に基づく検査データの種別は、たとえば上記の形態情報や分布情報など、他種のOCT画像に基づく検査データのそれと同じであってよい。   As described above, the data processing unit 230 can image an arbitrary cross section of a three-dimensional image (MPR image). The designation of the cross section is executed manually or automatically. The inspection data generation unit 231 can generate inspection data based on the MPR image. The type of inspection data based on the MPR image may be the same as that of inspection data based on another type of OCT image, such as the above-described form information and distribution information.

検査データ生成部231は、検査データとして眼内距離を求めることができる。2次元断面像や眼底正面画像から眼内距離を求める場合、検査データ生成部231は、この画像中の複数の位置を特定する。特定される位置は、被検眼Eにおける注目点(乳頭中心、中心窩、病変部など)であり、ユーザが手動で指定した点、または画像解析により得られた点である。   The inspection data generation unit 231 can obtain the intraocular distance as the inspection data. When obtaining the intraocular distance from the two-dimensional cross-sectional image or the fundus front image, the examination data generation unit 231 specifies a plurality of positions in the image. The specified position is a point of interest in the eye E (the center of the nipple, fovea, lesion, etc.), which is a point manually designated by the user or a point obtained by image analysis.

検査データ生成部231は、2以上のOCT画像に基づいて眼内距離を特定することができる。その例として、眼軸長を求める処理について説明する。眼底撮影装置100は、眼底Efの画像を取得するための眼底モードと、前眼部の画像を形成するための前眼部モードとを切り替えることができる。動作モードの切り替えは、測定光路に対して切替レンズ127を挿入/退避することにより行われる。切替レンズ127およびレンズ駆動部127Aは「モード切替部」の一例である。主制御部211は、眼底モードにおいて適用された参照ミラー114の位置情報と、前眼部モードにおいて適用された参照ミラー114の位置情報とを、記憶部212に記憶させる。眼底モードにおいては、眼底表面の中心位置を含む2次元断面像または3次元画像が取得される。前眼部モードにおいては、角膜頂点を含む2次元断面像または3次元画像が取得される。   The examination data generation unit 231 can specify the intraocular distance based on two or more OCT images. As an example, processing for obtaining the axial length will be described. The fundus imaging apparatus 100 can switch between a fundus mode for acquiring an image of the fundus oculi Ef and an anterior segment mode for forming an image of the anterior segment. The operation mode is switched by inserting / retracting the switching lens 127 with respect to the measurement optical path. The switching lens 127 and the lens driving unit 127A are examples of “mode switching unit”. The main control unit 211 causes the storage unit 212 to store the position information of the reference mirror 114 applied in the fundus mode and the position information of the reference mirror 114 applied in the anterior segment mode. In the fundus mode, a two-dimensional cross-sectional image or a three-dimensional image including the center position of the fundus surface is acquired. In the anterior segment mode, a two-dimensional cross-sectional image or a three-dimensional image including the corneal apex is acquired.

検査データ生成部231は、眼底モードで取得されたOCT画像(眼底OCT画像)と、前眼部モードで取得されたOCT画像(前眼部OCT画像)とに基づいて、眼底と前眼部との間の距離を算出する。具体例として、検査データ生成部231は、眼底OCT画像を解析して眼底中心に相当する座標(眼底中心座標)を特定し、前眼部OCT画像を解析して角膜頂点に相当する座標(角膜頂点座標)を特定する。さらに、検査データ生成部231は、眼底中心座標と、角膜頂点座標と、動作モードの切り替えによる測定光の焦点の変位と、双方の動作モードにおける参照ミラー114の位置情報とに基づいて、被検眼Eの眼軸長を算出する。   Based on the OCT image (fundus OCT image) acquired in the fundus mode and the OCT image (anterior ocular segment OCT image) acquired in the anterior segment mode, the examination data generation unit 231 The distance between is calculated. As a specific example, the examination data generation unit 231 analyzes the fundus OCT image to identify coordinates corresponding to the fundus center (fundus center coordinates), analyzes the anterior segment OCT image, and coordinates corresponding to the corneal apex (cornea) Specify the vertex coordinates. Further, the examination data generation unit 231 determines the eye to be examined based on the fundus center coordinates, the corneal vertex coordinates, the displacement of the focus of the measurement light by switching the operation mode, and the position information of the reference mirror 114 in both operation modes. The axial length of E is calculated.

(認証処理部232)
この実施形態では、検査データ生成部231により取得された検査データを個人認証情報として用いることができる。また、記憶部212には、正規個人認証情報があらかじめ記憶されている。認証処理部232は、検査データ等の個人認証情報と、正規個人認証情報とを照合する。認証処理部232は、照合結果(照合に成功したか否かを示す情報)を制御部210に送る。
(Authentication processing unit 232)
In this embodiment, the inspection data acquired by the inspection data generation unit 231 can be used as personal authentication information. In addition, regular personal authentication information is stored in the storage unit 212 in advance. The authentication processing unit 232 collates personal authentication information such as inspection data with regular personal authentication information. The authentication processing unit 232 sends a verification result (information indicating whether the verification is successful) to the control unit 210.

照合に成功した場合、制御部210は、OCT計測を実行するように眼底撮影装置100を制御する。一方、照合に失敗した場合、制御部210は、たとえば、所定の報知情報を表示部310に表示させる。この報知情報は、照合に失敗した旨のメッセージ、個人認証情報の再入力を促すメッセージ、他の個人認証情報の入力を促すメッセージなどを含む。   When the collation is successful, the control unit 210 controls the fundus imaging apparatus 100 to execute OCT measurement. On the other hand, when collation fails, the control part 210 displays the predetermined alert information on the display part 310, for example. This notification information includes a message indicating that the verification has failed, a message prompting re-input of personal authentication information, a message prompting input of other personal authentication information, and the like.

照合処理について説明する。個人認証情報として検査データが用いられる場合、計測誤差などが介在することにより、正規の被検眼が検査対象であっても個人認証情報と正規個人認証情報とが完全に一致しない場合がある。したがって、個人認証情報と正規個人認証情報との間に或る程度の相違があっても照合に成功したと判定するように構成する必要がある。一例として、個人認証情報と正規個人認証情報との間の相違について、許容範囲(閾値など)をあらかじめ設定する。認証処理部232は、個人認証情報と正規個人認証情報との間の相違を求め、この相違が許容範囲に含まれるか判定する。相違が許容範囲に含まれると判定された場合、認証処理部232は、照合に成功したとの結果を得る。一方、相違が許容範囲に含まれないと判定された場合、認証処理部232は、照合に失敗したとの結果を得る。   The verification process will be described. When examination data is used as personal authentication information, there are cases where the personal authentication information and the regular personal authentication information do not completely match even if the regular eye to be inspected is subject to inspection due to measurement errors and the like. Therefore, it is necessary to configure so that the collation is successful even if there is a certain degree of difference between the personal authentication information and the regular personal authentication information. As an example, an allowable range (such as a threshold) is set in advance for the difference between the personal authentication information and the regular personal authentication information. The authentication processing unit 232 obtains a difference between the personal authentication information and the regular personal authentication information, and determines whether this difference is included in the allowable range. When it is determined that the difference is included in the allowable range, the authentication processing unit 232 obtains a result that the verification is successful. On the other hand, when it is determined that the difference is not included in the allowable range, the authentication processing unit 232 obtains a result that the verification has failed.

前述したように、個人認証情報には様々な種類がある。よって、複数の個人認証情報を選択的に適用することができる。以下、2つの個人認証情報が用いられる場合について説明する。   As described above, there are various types of personal authentication information. Therefore, a plurality of personal authentication information can be selectively applied. Hereinafter, a case where two pieces of personal authentication information are used will be described.

記憶部212には、第1の個人認証情報に関する正規個人認証情報(第1の正規個人認証情報)と、第2の個人認証情報に関する正規個人認証情報(第2の正規個人認証情報)とが、あらかじめ記憶されている。   The storage unit 212 includes regular personal authentication information (first regular personal authentication information) related to the first personal authentication information and regular personal authentication information (second regular personal authentication information) related to the second personal authentication information. , Stored in advance.

まず、第1の個人認証情報が得られたとする。認証処理部232は、取得された第1の個人認証情報と、第1の正規個人認証情報とを照合する。照合に成功した場合、眼底撮影装置100による撮影が許可される。一方、照合に失敗した場合、第2の個人認証情報の取得が行われる。認証処理部232は、取得された第2の個人認証情報と、第2の正規個人認証情報とを照合する。照合に成功した場合、眼底撮影装置100による撮影が許可される。一方、照合に失敗した場合、制御部210は、照合に失敗した旨のメッセージや、個人認証情報の再入力を促すメッセージ、他の個人認証情報の入力を促すメッセージなどを含む報知情報を表示部310に表示させる。   First, it is assumed that the first personal authentication information is obtained. The authentication processing unit 232 collates the acquired first personal authentication information with the first regular personal authentication information. If the collation is successful, photographing by the fundus photographing apparatus 100 is permitted. On the other hand, if the verification fails, the second personal authentication information is acquired. The authentication processing unit 232 collates the acquired second personal authentication information with the second regular personal authentication information. If the collation is successful, photographing by the fundus photographing apparatus 100 is permitted. On the other hand, when collation fails, the control unit 210 displays notification information including a message indicating that collation has failed, a message prompting re-input of personal authentication information, a message prompting input of other personal authentication information, and the like. 310 is displayed.

2以上の被検者が眼底撮影装置100を共用する場合、つまり2人以上の正規の被検者が存在する場合、各被検者の正規個人認証情報が記憶部212に記憶される。制御部210は、個人認証情報が取得されたことに対応し、記憶部212に記憶されている全ての正規個人認証情報を認証処理部232に送る。   When two or more subjects share the fundus imaging apparatus 100, that is, when two or more regular subjects exist, regular personal authentication information of each subject is stored in the storage unit 212. In response to the acquisition of the personal authentication information, the control unit 210 sends all the regular personal authentication information stored in the storage unit 212 to the authentication processing unit 232.

認証処理部232は、取得された個人認証情報と、各正規個人認証情報とを照合する。取得された個人認証情報と、いずれかの正規個人認証情報との照合に成功した場合、その正規個人認証情報に対応する被検者が今回の検査の被検者として認識される。一方、取得された個人認証情報による照合が全ての正規個人認証情報に対して失敗した場合、制御部210は、上記のような報知情報を表示部310に表示させる。   The authentication processing unit 232 collates the acquired personal authentication information with each regular personal authentication information. If the acquired personal authentication information is successfully verified with any of the regular personal authentication information, the subject corresponding to the regular personal authentication information is recognized as the subject of the current examination. On the other hand, when the verification by the acquired personal authentication information fails for all the regular personal authentication information, the control unit 210 causes the display unit 310 to display the notification information as described above.

(関連付け処理)
検査データ生成部231により生成された個人認証情報は、制御部210に送られ、記憶部212に記憶される。また、画像形成部220(およびデータ処理部230)により形成されたOCT画像は、制御部210に送られ、記憶部212に記憶される。制御部210は、OCT画像と個人認証情報(個人情報)とを関連付ける。この処理は、第1の実施形態と同様にして行われる。制御部210は「関連付け手段」の一例である。
(Association process)
The personal authentication information generated by the inspection data generation unit 231 is sent to the control unit 210 and stored in the storage unit 212. The OCT image formed by the image forming unit 220 (and the data processing unit 230) is sent to the control unit 210 and stored in the storage unit 212. The control unit 210 associates the OCT image with personal authentication information (personal information). This process is performed in the same manner as in the first embodiment. The control unit 210 is an example of “association means”.

(通信部240)
通信部240は、外部装置との間でデータ通信を行う。データ通信の方式は任意である。たとえば、通信部240は、インターネットに準拠した通信インターフェイス、LANに準拠した通信インターフェイス、近距離通信に準拠した通信インターフェイスなどを含む。また、データ通信は有線通信でも無線通信でもよい。
(Communication unit 240)
The communication unit 240 performs data communication with an external device. The method of data communication is arbitrary. For example, the communication unit 240 includes a communication interface compliant with the Internet, a communication interface compliant with LAN, a communication interface compliant with near field communication, and the like. Data communication may be wired communication or wireless communication.

通信部240は、通信回線2000を介して、あらかじめ規定された外部コンピュータ1000との間でデータ通信を行う。なお、外部コンピュータ1000は、1つ以上の任意の個数設けられる。外部コンピュータ1000としては、医療機関に設置されたサーバ、医師が使用する端末、眼底撮影装置100のメーカ(または、販売会社、メンテナンス事業者、若しくはレンタル事業者など)のサーバ、メーカ等の担当者が使用する端末などがある。外部コンピュータ1000は、眼底撮影装置100と直接に通信可能なものには限定されず、他のコンピュータを介して間接的に通信が可能なものでもよい。たとえば第1の実施形態で説明した例において、外部コンピュータ1000には、携帯情報端末16だけでなく、携帯情報端末16’やパーソナルコンピュータ16Aも含まれる。   The communication unit 240 performs data communication with a predetermined external computer 1000 via the communication line 2000. One or more external computers 1000 are provided. The external computer 1000 includes a server installed in a medical institution, a terminal used by a doctor, a server of a manufacturer (or a sales company, a maintenance company, a rental company, etc.) of the fundus imaging apparatus 100, a person in charge of the manufacturer, etc. There are terminals used by. The external computer 1000 is not limited to one that can directly communicate with the fundus imaging apparatus 100, and may be one that can indirectly communicate with another computer. For example, in the example described in the first embodiment, the external computer 1000 includes not only the portable information terminal 16 but also the portable information terminal 16 ′ and the personal computer 16 </ b> A.

通信部240による送受信されるデータは暗号化されていてもよい。その場合、制御部210(またはデータ処理部230)は、送信データを暗号化する暗号化処理部と、受信データを復号する復号化処理部とを有する。   Data transmitted and received by the communication unit 240 may be encrypted. In that case, the control unit 210 (or the data processing unit 230) includes an encryption processing unit that encrypts transmission data and a decryption processing unit that decrypts reception data.

通信部240は、制御部210により関連付けられたOCT画像と個人認証情報(個人情報)とを外部コンピュータ1000に送信する。通信部240は「送信手段」の一例である。   The communication unit 240 transmits the OCT image and personal authentication information (personal information) associated by the control unit 210 to the external computer 1000. The communication unit 240 is an example of a “transmission unit”.

[効果]
この実施形態に係る眼底撮影システムの効果について説明する。
[effect]
The effects of the fundus imaging system according to this embodiment will be described.

この実施形態に係る眼底撮影システムは、眼底撮影装置(100)と、個人情報取得手段(検査データ生成部231)と、関連付け手段(制御部210)とを含む。眼底撮影装置は、被検者の被検眼の眼底を撮影する。個人情報取得手段は、被検者の個人情報を取得する。関連付け手段は、眼底撮影装置により取得された眼底の画像と、個人情報取得手段により取得された個人情報とを関連付ける。   The fundus imaging system according to this embodiment includes a fundus imaging apparatus (100), a personal information acquisition unit (examination data generation unit 231), and an association unit (control unit 210). The fundus imaging apparatus images the fundus of the subject's eye. The personal information acquisition means acquires personal information of the subject. The association unit associates the fundus image acquired by the fundus imaging apparatus with the personal information acquired by the personal information acquisition unit.

このような実施形態によれば、それぞれ取得された眼底像と個人情報との関連付けを自動で行うことができるので、眼底像と個人情報との関連付けを簡便に行うことが可能である。たとえば、検者が立ち会わずに実施される検査においても関連付けを行うことが可能である。   According to such an embodiment, it is possible to automatically associate the acquired fundus image with the personal information, so it is possible to easily associate the fundus image with the personal information. For example, the association can be performed even in an examination performed without an examiner present.

この実施形態の眼底撮影装置は、関連付け手段により関連付けられた画像と個人情報とを送信する送信手段(通信部240)を含んでいてよい。この構成によれば、関連付けられた画像と個人情報とを外部装置に送ることが可能である。   The fundus imaging apparatus of this embodiment may include a transmission unit (communication unit 240) that transmits the image associated with the association unit and the personal information. According to this configuration, it is possible to send the associated image and personal information to the external device.

この実施形態の眼底撮影装置は、以下のような光学系および処理部を含んでいてよい。光学系は、被検眼の眼底を測定光で走査し、眼底からの測定光の戻り光と参照光とを重ね合わせて得られた干渉光を検出する。つまり、この光学系は、OCTを行うための干渉光学系である(図14を参照)。処理部は、光学系による干渉光の検出結果を処理することにより眼底の画像を形成する。この実施形態において、処理部は、少なくとも画像形成部220を含み、データ処理部230を含んでいてよい。さらに、個人情報取得手段(検査データ生成部231)は、処理部により形成された画像に基づいて個人情報(個人認証情報)を取得する。   The fundus imaging apparatus of this embodiment may include the following optical system and processing unit. The optical system scans the fundus of the subject's eye with the measurement light, and detects interference light obtained by superimposing the return light of the measurement light from the fundus and the reference light. That is, this optical system is an interference optical system for performing OCT (see FIG. 14). The processing unit forms a fundus image by processing the detection result of the interference light by the optical system. In this embodiment, the processing unit includes at least the image forming unit 220 and may include the data processing unit 230. Furthermore, the personal information acquisition unit (examination data generation unit 231) acquires personal information (personal authentication information) based on the image formed by the processing unit.

この構成によれば、OCT画像に基づいて個人情報を取得することができる。特に、眼底の深さ方向における形態や分布、さらには眼底の部位の3次元的な形態や分布などが反映された個人認証を取得することが可能である。また、ドップラOCTのような機能的OCTによって得られた機能情報(血流情報など)を個人情報として用いることができる。   According to this configuration, personal information can be acquired based on the OCT image. In particular, it is possible to acquire personal authentication reflecting the shape and distribution in the depth direction of the fundus, and the three-dimensional shape and distribution of the fundus region. Further, functional information (blood flow information or the like) obtained by functional OCT such as Doppler OCT can be used as personal information.

この実施形態において、個人情報取得手段(検査データ生成部231)は、処理部により形成された画像を解析することにより、以下の個人情報のうち一方または双方を取得するように構成されていてよい:眼底の所定部位の形態を表す形態情報;眼底の所定部位の分布を表す分布情報。ここで、眼底の所定部位は、眼底の血管、視神経乳頭、所定の層組織、およびレーザ治療による治療痕のうちのいずれかを含んでいてよい。   In this embodiment, the personal information acquisition means (examination data generation unit 231) may be configured to acquire one or both of the following personal information by analyzing the image formed by the processing unit. : Morphological information representing the form of the predetermined part of the fundus; Here, the predetermined part of the fundus may include any of a blood vessel of the fundus, an optic disc, a predetermined layer tissue, and a treatment mark by laser treatment.

この実施形態において次の構成を適用することが可能である:光学系が、眼底の3次元領域を測定光で走査する;処理部が、眼底の3次元画像を形成する;個人情報取得手段が、この3次元画像に基づいて個人情報を取得する。この構成によれば、情報量が多い3次元画像に基づいて個人情報を取得することができる。たとえば、眼底の所定部位について、2次元的形態や3次元的形態、さらには2次元的分布や3次元的分布を求めることが可能である。また、この構成によれば、取得される個人情報の自由度が高まる。   In this embodiment, the following configuration can be applied: an optical system scans a three-dimensional region of the fundus with measurement light; a processing unit forms a three-dimensional image of the fundus; The personal information is acquired based on the three-dimensional image. According to this configuration, personal information can be acquired based on a three-dimensional image with a large amount of information. For example, it is possible to obtain a two-dimensional form or a three-dimensional form as well as a two-dimensional distribution or a three-dimensional distribution for a predetermined part of the fundus. Moreover, according to this structure, the freedom degree of the personal information acquired increases.

この実施形態において次の構成を適用することが可能である:光学系が、眼底の3次元領域を測定光で走査する;処理部が、眼底の3次元画像を形成する;処理部が、この3次元画像の少なくとも一部を眼底の深さ方向に投影することにより眼底正面画像(プロジェクション画像)を形成する;個人情報取得手段が、この眼底正面画像に基づいて個人情報を取得する。眼底正面画像には、投影処理に供された範囲の情報が含まれている。この構成によれば、取得される個人情報の自由度が高まる。   In this embodiment, the following configuration can be applied: an optical system scans a three-dimensional region of the fundus with measurement light; a processing unit forms a three-dimensional image of the fundus; A fundus front image (projection image) is formed by projecting at least a part of the three-dimensional image in the depth direction of the fundus; personal information acquisition means acquires personal information based on the fundus front image. The fundus front image includes information on a range subjected to the projection process. According to this structure, the freedom degree of the acquired personal information increases.

この実施形態において次の構成を適用することが可能である:光学系が、眼底の3次元領域を測定光で走査する;処理部が、眼底の3次元画像を形成する;処理部が、この3次元画像の断面を表す2次元断面像を形成する;個人情報取得手段が、この2次元断面像に基づいて個人情報を取得する。この構成によれば、眼底の任意の断面を描画した画像に基づいて個人情報を取得することが可能である。また、この構成によれば、取得される個人情報の自由度が高まる。   In this embodiment, the following configuration can be applied: an optical system scans a three-dimensional region of the fundus with measurement light; a processing unit forms a three-dimensional image of the fundus; A two-dimensional cross-sectional image representing a cross-section of the three-dimensional image is formed; personal information acquisition means acquires personal information based on the two-dimensional cross-sectional image. According to this configuration, personal information can be acquired based on an image in which an arbitrary cross section of the fundus is drawn. Moreover, according to this structure, the freedom degree of the personal information acquired increases.

この実施形態において、個人情報取得手段は、処理部により形成された画像を解析することにより、眼底の所定の層組織の厚みの分布を表す層厚分布情報を取得するように構成されていてよい。そして、この層厚分布情報を個人情報として用いることが可能である。   In this embodiment, the personal information acquisition means may be configured to acquire layer thickness distribution information representing the thickness distribution of a predetermined layer tissue of the fundus by analyzing the image formed by the processing unit. . The layer thickness distribution information can be used as personal information.

この実施形態において、眼底撮影装置は、被検眼の眼底の画像を形成するための眼底モードと、前眼部の画像を形成するための前眼部モードとを切り替えるためのモード切替部(切替レンズ127およびレンズ駆動部127A)を有していてよい。この場合、個人情報取得手段は、眼底モードにおいて形成された眼底の画像と、前眼部モードにおいて形成された前眼部の画像とに基づいて、眼底と前眼部との間の距離を算出することができる。そして、この距離を個人情報として用いることが可能である。   In this embodiment, the fundus imaging apparatus includes a mode switching unit (switching lens) for switching between a fundus mode for forming an image of the fundus of the eye to be examined and an anterior segment mode for forming an image of the anterior segment. 127 and a lens driving unit 127A). In this case, the personal information acquisition unit calculates the distance between the fundus and the anterior segment based on the fundus image formed in the fundus mode and the anterior segment image formed in the anterior segment mode. can do. This distance can be used as personal information.

なお、モード切替部は、測定光の光路に対して切替レンズを挿入/退避する構成には限定されない。たとえば、参照光の光路長を十分な距離だけ変更可能な構成を適用することによって、眼底モードと前眼部モードとを切り替えるようにしてもよい。具体例として、一般的な眼軸長に所定距離を加えた範囲において参照ミラー(114)を移動可能に構成することができる。   The mode switching unit is not limited to the configuration in which the switching lens is inserted / retracted with respect to the optical path of the measurement light. For example, the fundus mode and the anterior segment mode may be switched by applying a configuration that can change the optical path length of the reference light by a sufficient distance. As a specific example, the reference mirror (114) can be configured to be movable within a range in which a predetermined distance is added to a general axial length.

この実施形態の眼底撮影システムは、以下のような記憶手段と照合手段を有していてよい。記憶手段(記憶部212)には、眼底撮影装置を用いた撮影を行うことが許可された正規の被検者に関する正規個人認証情報があらかじめ記憶される。照合手段は、個人情報取得手段により取得された個人情報と、正規個人認証情報とを照合する。眼底撮影装置は、照合手段により個人情報と正規個人認証情報との照合に成功した場合に撮影を実行する。なお、この構成を第1の実施形態に適用することも可能である。この構成によれば、このシステムの利用が許可されているか否かについて、被検者の認証を行うことができる。   The fundus imaging system of this embodiment may have the following storage means and collation means. The storage means (storage unit 212) stores in advance normal personal authentication information regarding a normal subject who is permitted to perform imaging using the fundus imaging apparatus. The collating unit collates the personal information acquired by the personal information acquiring unit with the regular personal authentication information. The fundus photographing apparatus performs photographing when the collation unit succeeds in collating the personal information with the regular personal authentication information. This configuration can also be applied to the first embodiment. According to this configuration, the subject can be authenticated as to whether or not the use of this system is permitted.

なお、上記の例では眼底撮影装置に記憶手段が設けられているが、記憶手段は、眼底撮影装置に接続されたデバイスに設けられていてよい。たとえば、記憶手段は、サーバやNAS(Network Attached Storage)に設けられていてよい。   In the above example, the fundus imaging apparatus is provided with the storage unit, but the storage unit may be provided in a device connected to the fundus imaging apparatus. For example, the storage means may be provided in a server or NAS (Network Attached Storage).

この実施形態において、照合手段は、個人情報と正規個人認証情報との間の相違が、あらかじめ設定された許容範囲に含まれる場合に、照合に成功したと判定するように構成されていてよい。この構成によれば、生体情報を用いた個人認証を好適に行うことが可能である。   In this embodiment, the verification unit may be configured to determine that the verification is successful when the difference between the personal information and the authorized personal authentication information is included in a preset allowable range. According to this configuration, personal authentication using biometric information can be suitably performed.

この実施形態において次の構成を適用することが可能である:個人情報と正規個人認証情報との間の相違が所定の許容範囲に含まれない場合、個人情報取得手段が、他の個人情報を取得する;照合手段が、取得された他の個人情報と、記憶手段にあらかじめ記憶された他の正規個人認証情報とを照合する。この構成によれば、一の種別の個人情報による認証に失敗した場合に、他の種別の個人情報を用いて認証を行うことができる。それにより、たとえば生体情報を用いた認証を好適に行うことが可能である。   In this embodiment, it is possible to apply the following configuration: if the difference between the personal information and the authorized personal authentication information is not within the predetermined tolerance, the personal information acquisition means The collating unit collates the acquired other personal information with other regular personal authentication information stored in advance in the storage unit. According to this configuration, when authentication using one type of personal information fails, authentication can be performed using another type of personal information. Thereby, for example, authentication using biometric information can be suitably performed.

この実施形態において、眼底撮影装置は、ポータブルタイプおよび/または据え置き型であってよい。この構成によれば、システム構成の自由度が高まる。   In this embodiment, the fundus imaging apparatus may be a portable type and / or a stationary type. According to this configuration, the degree of freedom of the system configuration is increased.

〈第3の実施形態〉
この実施形態では、複数の種別の個人情報を取得可能な眼底撮影システムについて説明する。個人情報の種別は、第1の実施形態および第2の実施形態において用いられた個人情報のうちいずれか1つ以上を含んでいてよい。以下、第2の実施形態に基づいて説明を行う。
<Third Embodiment>
In this embodiment, a fundus imaging system capable of acquiring a plurality of types of personal information will be described. The type of personal information may include any one or more of the personal information used in the first embodiment and the second embodiment. Hereinafter, description will be made based on the second embodiment.

[第1の構成例]
本例に係る眼底撮影システムに含まれる眼底撮影装置の構成を図16に示す。眼底撮影装置101は、被検者の診療歴を入力するための機能を有する。診療歴とは、被検者に対して過去に施された診療内容を示す情報である。診療歴には、病歴、治療歴、投薬歴などが含まれる。診療歴の入力は、たとえば、被検者の電子カルテをネットワーク経由で取得することにより、または、ユーザが手入力することにより行われる。前者の処理は、たとえば、制御部210が通信部240を制御することにより実行される。後者の処理は、たとえば、表示部310に表示された所定の入力画面に対し、操作部320を介して行われる。これらは「診療歴入力部」の一例である。
[First configuration example]
The configuration of the fundus imaging apparatus included in the fundus imaging system according to this example is shown in FIG. The fundus imaging apparatus 101 has a function for inputting a medical history of a subject. The medical history is information indicating the content of medical treatment given to the subject in the past. Medical history includes medical history, treatment history, medication history, and the like. The medical history is input, for example, by acquiring the subject's electronic medical record via the network or manually by the user. The former process is executed by the control unit 210 controlling the communication unit 240, for example. The latter process is performed on the predetermined input screen displayed on the display unit 310 via the operation unit 320, for example. These are examples of the “medical history input unit”.

さらに、眼底撮影装置101のデータ処理部230には、種別選択部233が設けられている。種別選択部233は、入力された診療歴に基づいて、個人情報に関する複数の種別のうちから1以上の種別を選択する。ここで、「複数の種別」はあらかじめ設定されており、たとえば個人情報取得手段(検査データ生成部231など)により取得可能な個人情報の全ての種別である。また、取得可能な全ての種別のうちの一部が「複数の種別」であってよい。この場合、「複数の種別」は、自動でまたは手動で事前に設定される。   Further, the data processing unit 230 of the fundus imaging apparatus 101 is provided with a type selection unit 233. The type selection unit 233 selects one or more types from among a plurality of types related to personal information based on the input medical history. Here, the “plurality of types” is set in advance, and is, for example, all types of personal information that can be acquired by personal information acquisition means (such as the test data generation unit 231). Further, some of all the types that can be acquired may be “plural types”. In this case, the “plurality of types” is set in advance automatically or manually.

種別選択部233の例を説明する。種別選択部233は、診療歴に含まれる項目と、個人情報の種別とが対応付けられた対応情報をあらかじめ記憶している。この項目には、たとえば、疾患名、薬剤名、治療項目などが含まれる。各項目に対し、または2以上の項目の組み合わせに対し、個人情報の種別が1つ以上対応付けられている。具体例として、或る項目に対し、この項目による影響が小さい(または影響が無い)個人情報の種別が対応付けられる。たとえば、黄斑の疾患に対して、視神経乳頭に関する形態情報が対応付けられる。逆に、視神経乳頭の疾患に対して、黄斑に関する形態情報が対応付けられる。また、緑内障に対して、加齢黄斑変性症に関連するドルーゼンの分布情報が対応付けられる。また、眼軸長の変化を伴わない疾患に対して、眼軸長が対応付けられる。   An example of the type selection unit 233 will be described. The type selection unit 233 stores in advance correspondence information in which items included in the medical history are associated with types of personal information. This item includes, for example, a disease name, a drug name, a treatment item, and the like. One or more types of personal information are associated with each item or a combination of two or more items. As a specific example, a type of personal information that has a small influence (or no influence) is associated with an item. For example, morphological information related to the optic nerve head is associated with a macular disease. Conversely, morphological information relating to the macula is associated with a disease of the optic nerve head. Further, drusen distribution information related to age-related macular degeneration is associated with glaucoma. In addition, the axial length is associated with a disease that does not involve a change in the axial length.

種別選択部233による選択結果を示す情報は、検査データ生成部231に入力される。検査データ生成部231は、たとえばOCT画像を解析することにより、種別選択部233により選択された種別の個人情報を取得する。   Information indicating the selection result by the type selection unit 233 is input to the inspection data generation unit 231. The examination data generation unit 231 acquires personal information of the type selected by the type selection unit 233, for example, by analyzing an OCT image.

本例に係る眼底撮影システムの効果について説明する。本例における個人情報取得手段は、複数の種別の個人情報を取得可能に構成される。   The effect of the fundus imaging system according to this example will be described. The personal information acquisition means in this example is configured to be able to acquire a plurality of types of personal information.

本例における個人情報取得手段は、診療歴入力部と種別選択部とを含む。診療歴入力部は、被検者の診療歴を入力するよう作用する。診療歴入力部は、たとえば、制御部210および通信部240、またはユーザインターフェイス300を含んで構成される。種別選択部(233)は、診療歴入力部により入力された診療歴に基づいて、個人情報に関してあらかじめ設定された複数の種別のうちから1以上の種別を選択する。個人情報取得手段は、種別選択部により選択された種別の個人情報を取得するように作用する。   The personal information acquisition means in this example includes a medical history input unit and a type selection unit. The medical history input unit operates to input the medical history of the subject. The medical history input unit includes, for example, the control unit 210 and the communication unit 240, or the user interface 300. The type selection unit (233) selects one or more types from among a plurality of types set in advance regarding personal information based on the medical history input by the medical history input unit. The personal information acquisition means operates to acquire personal information of the type selected by the type selection unit.

なお、本例における個人情報取得手段は、たとえば、上記の診療歴入力部(制御部210および通信部240、またはユーザインターフェイス300)に加え、データ処理部230(検査データ生成部231および種別選択部233)を含む。また、関連付け手段や送信手段については、第1の実施形態または第2の実施形態の構成を適用することが可能である。   The personal information acquisition means in this example includes, for example, the data processing unit 230 (examination data generation unit 231 and type selection unit) in addition to the above medical history input unit (control unit 210 and communication unit 240 or user interface 300). 233). In addition, the configuration of the first embodiment or the second embodiment can be applied to the association unit and the transmission unit.

このような眼底撮影システムによれば、被検者の診療歴に応じた種別の個人情報を選択的に適用することが可能である。   According to such a fundus imaging system, it is possible to selectively apply the type of personal information corresponding to the medical history of the subject.

[第2の構成例]
本例に係る眼底撮影システムに含まれる眼底撮影装置は、第1の構成例と同様の構成を有する(図16を参照)。この眼底撮影装置は、被検眼Eの眼底Efを前回撮影してからの経過時間を取得する機能を有する。この機能は、たとえば、被検者の電子カルテをネットワーク経由で取得する第1の機能と、この電子カルテから前回の撮影日(および時刻)を取得する第2の機能と、この撮影日と現在日時とに基づいて経過時間を算出する第3の機能とを含む。第1の機能は、たとえば、制御部210が通信部240を制御することにより実現される。第2および第3の機能は、たとえば、制御部210により実現される。これらは「撮影間隔取得部」の一例である。
[Second Configuration Example]
The fundus imaging apparatus included in the fundus imaging system according to this example has the same configuration as that of the first configuration example (see FIG. 16). This fundus photographing apparatus has a function of acquiring an elapsed time since the last photographing of the fundus oculi Ef of the eye E. This function includes, for example, a first function for acquiring an electronic medical record of a subject via a network, a second function for acquiring a previous photographing date (and time) from the electronic medical record, and the photographing date and current And a third function for calculating the elapsed time based on the date and time. The first function is realized by the control unit 210 controlling the communication unit 240, for example. The second and third functions are realized by the control unit 210, for example. These are examples of the “shooting interval acquisition unit”.

さらに、本例の種別選択部233は、撮影間隔取得部により入力された経過時間に基づいて、個人情報に関する複数の種別のうちから1以上の種別を選択する。この処理は、たとえば、第1の構成例と同様の対応情報を参照して実行される。   Furthermore, the type selection unit 233 of this example selects one or more types from among a plurality of types related to personal information based on the elapsed time input by the shooting interval acquisition unit. This process is executed with reference to correspondence information similar to that in the first configuration example, for example.

なお、本例の対応情報においては、経過時間と個人情報の種別とが対応付けられている。この対応関係は、たとえば、個人情報の経時変化の程度に応じて決定される。つまり、個人情報には、眼底の画像から生成される形態情報や分布情報のように経時的に変化するものと、文字列情報や指紋パターンのように経時的に変化しないものとがある。一方、形態情報や分布情報の取得において被検者の手を煩わせることはないが、文字列情報や指紋パターンの取得にはそれが必要である。このような事項を考慮し、経過時間が短い場合には経時的に変化する個人情報を適用し、経過時間が長い場合には経時的に変化しない個人情報を適用することができる。さらに、経時的に変化する各種の個人情報を、経時変化の速さや認証の精度などのファクタに応じて分類し、経過時間の時間軸に任意に対応づけることができる。   In the correspondence information of this example, the elapsed time is associated with the type of personal information. This correspondence is determined according to the degree of change of personal information with time, for example. That is, personal information includes information that changes with time, such as morphological information and distribution information generated from a fundus image, and information that does not change with time, such as character string information and fingerprint patterns. On the other hand, it does not bother the subject in acquiring the form information and distribution information, but it is necessary to acquire the character string information and the fingerprint pattern. In consideration of such matters, personal information that changes over time can be applied when the elapsed time is short, and personal information that does not change over time can be applied when the elapsed time is long. Furthermore, various personal information that changes over time can be classified according to factors such as the speed of change over time and the accuracy of authentication, and can be arbitrarily associated with the time axis of elapsed time.

種別選択部233による選択結果に眼底の画像に基づく個人情報が含まれる場合、その個人情報の種別を示す情報が検査データ生成部231に入力される。検査データ生成部231は、たとえばOCT画像を解析することにより、種別選択部233により選択された種別の個人情報を取得する。   When personal information based on the fundus image is included in the selection result by the type selection unit 233, information indicating the type of the personal information is input to the examination data generation unit 231. The examination data generation unit 231 acquires personal information of the type selected by the type selection unit 233, for example, by analyzing an OCT image.

また、種別選択部233による選択結果に被検者の作業を伴う個人情報が含まれる場合、その個人情報の種別を示す情報が制御部210に入力される。制御部210は、たとえば、種別選択部233により選択された種別の個人情報を取得するための作業を促す旨のメッセージを表示部310に表示させる。   In addition, when the selection result by the type selection unit 233 includes personal information accompanying the work of the subject, information indicating the type of the personal information is input to the control unit 210. For example, the control unit 210 causes the display unit 310 to display a message that prompts an operation for acquiring personal information of the type selected by the type selection unit 233.

本例に係る眼底撮影システムの効果について説明する。本例における個人情報取得手段は、複数の種別の個人情報を取得可能に構成される。   The effect of the fundus imaging system according to this example will be described. The personal information acquisition means in this example is configured to be able to acquire a plurality of types of personal information.

本例における個人情報取得手段は、撮影間隔取得部と種別選択部とを含む。撮影間隔取得部は、当該眼底の前回の撮影からの経過時間を取得する。撮影間隔取得部は、たとえば、制御部210および通信部240を含んで構成される。種別選択部(233)は、撮影間隔取得部により取得された経過時間に基づいて、個人情報に関してあらかじめ設定された複数の種別のうちから1以上の種別を選択する。個人情報取得手段は、種別選択部により選択された種別の個人情報を取得するように作用する。   The personal information acquisition means in this example includes an imaging interval acquisition unit and a type selection unit. The imaging interval acquisition unit acquires an elapsed time from the previous imaging of the fundus. The imaging interval acquisition unit includes, for example, a control unit 210 and a communication unit 240. The type selection unit (233) selects one or more types from among a plurality of types set in advance regarding personal information based on the elapsed time acquired by the shooting interval acquisition unit. The personal information acquisition means operates to acquire personal information of the type selected by the type selection unit.

なお、本例における個人情報取得手段は、たとえば、上記の撮影間隔取得部(制御部210および通信部240)に加え、データ処理部230(検査データ生成部231および種別選択部233、または第1の実施形態の指紋・掌形センサ30等)を含む。また、関連付け手段や送信手段については、第1の実施形態または第2の実施形態の構成を適用することが可能である。   Note that the personal information acquisition means in this example includes, for example, the data processing unit 230 (examination data generation unit 231 and type selection unit 233, or the first selection unit in addition to the above-described photographing interval acquisition unit (control unit 210 and communication unit 240). In the embodiment). In addition, the configuration of the first embodiment or the second embodiment can be applied to the association unit and the transmission unit.

このような眼底撮影システムによれば、前回の撮影からの経過時間に応じた種別の個人情報を選択的に適用することが可能である。   According to such a fundus imaging system, it is possible to selectively apply the type of personal information corresponding to the elapsed time since the previous imaging.

[第3の構成例]
本例に係る眼底撮影システムに含まれる眼底撮影装置の構成を図17に示す。眼底撮影装置102は、画像形成部220またはデータ処理部230により形成された画像を解析することにより、被検眼Eの疾患候補を特定する疾患候補特定部234を有する。疾患候補とは、被検眼Eが患っている可能性がある疾患を意味する。疾患候補特定部234が実行する画像解析は、疾患候補を特定するための任意の処理を含み(公知の処理でもよい)、たとえば眼底層厚解析や乳頭形状解析やドルーゼン解析などを含んでいてよい。なお、疾患候補特定部234は検査データ生成部231内に設けられていてよい。
[Third configuration example]
FIG. 17 shows the configuration of a fundus imaging apparatus included in the fundus imaging system according to this example. The fundus imaging apparatus 102 includes a disease candidate specifying unit 234 that specifies a disease candidate of the eye E by analyzing an image formed by the image forming unit 220 or the data processing unit 230. The disease candidate means a disease that may cause the eye E to be examined. The image analysis performed by the disease candidate specifying unit 234 includes an arbitrary process for specifying a disease candidate (may be a known process), and may include, for example, fundus layer thickness analysis, nipple shape analysis, drusen analysis, and the like. . The disease candidate specifying unit 234 may be provided in the examination data generating unit 231.

さらに、眼底撮影装置102のデータ処理部230には、種別選択部233が設けられている。種別選択部233は、疾患候補特定部234により特定された疾患候補に基づいて、個人情報に関する複数の種別のうちから1以上の種別を選択する。この処理は、たとえば、第1の構成例と同様の対応情報を参照して実行される。   Further, the data processing unit 230 of the fundus imaging apparatus 102 is provided with a type selection unit 233. The type selection unit 233 selects one or more types from among a plurality of types related to personal information based on the disease candidates specified by the disease candidate specification unit 234. This process is executed with reference to correspondence information similar to that in the first configuration example, for example.

なお、本例の対応情報においては、疾患候補と個人情報の種別とが対応付けられている。この対応関係は、たとえば、一の疾患候補と、この疾患候補による影響が無い(または影響が小さい)部位に関する個人情報の種別とを対応付けることによって得られる。具体例として、黄斑の疾患に対して、視神経乳頭に関する形態情報が対応付けられる。逆に、視神経乳頭の疾患に対して、黄斑に関する形態情報が対応付けられる。また、緑内障に対して、加齢黄斑変性症に関連するドルーゼンの分布情報が対応付けられる。また、眼軸長の変化を伴わない疾患に対して、眼軸長が対応付けられる。   In the correspondence information of this example, the disease candidate and the type of personal information are associated with each other. This correspondence relationship is obtained, for example, by associating one disease candidate with the type of personal information related to a site that is not affected (or has a small effect) by this disease candidate. As a specific example, morphological information relating to the optic nerve head is associated with a macular disease. Conversely, morphological information relating to the macula is associated with a disease of the optic nerve head. Further, drusen distribution information related to age-related macular degeneration is associated with glaucoma. In addition, the axial length is associated with a disease that does not involve a change in the axial length.

種別選択部233による選択結果を示す情報は、検査データ生成部231に入力される。検査データ生成部231は、たとえばOCT画像を解析することにより、種別選択部233により選択された種別の個人情報を取得する。   Information indicating the selection result by the type selection unit 233 is input to the inspection data generation unit 231. The examination data generation unit 231 acquires personal information of the type selected by the type selection unit 233, for example, by analyzing an OCT image.

本例に係る眼底撮影システムの効果について説明する。本例における個人情報取得手段は、複数の種別の個人情報を取得可能に構成される。   The effect of the fundus imaging system according to this example will be described. The personal information acquisition means in this example is configured to be able to acquire a plurality of types of personal information.

本例における個人情報取得手段は、疾患候補特定部(234)と種別選択部(233)とを含む。疾患候補特定部は、眼底撮影装置(102)により取得された画像を解析することにより、被検眼の疾患候補を特定する。種別選択部は、疾患候補特定部により特定された疾患候補に基づいて、個人情報に関してあらかじめ設定された複数の種別のうちから1以上の種別を選択する。個人情報取得手段は、種別選択部により選択された種別の個人情報を取得するように作用する。   The personal information acquisition means in this example includes a disease candidate specifying unit (234) and a type selecting unit (233). The disease candidate specifying unit specifies a disease candidate for the eye to be examined by analyzing an image acquired by the fundus imaging apparatus (102). The type selection unit selects one or more types from among a plurality of types set in advance regarding personal information based on the disease candidate specified by the disease candidate specifying unit. The personal information acquisition means operates to acquire personal information of the type selected by the type selection unit.

なお、本例における個人情報取得手段は、たとえば、上記の疾患候補特定部(234)に加え、データ処理部230(検査データ生成部231および種別選択部233)を含む。また、関連付け手段や送信手段については、第1の実施形態または第2の実施形態の構成を適用することが可能である。   The personal information acquisition means in this example includes, for example, a data processing unit 230 (examination data generation unit 231 and type selection unit 233) in addition to the disease candidate identification unit (234). In addition, the configuration of the first embodiment or the second embodiment can be applied to the association unit and the transmission unit.

このような眼底撮影システムによれば、眼底の画像に基づき特定された疾患候補に応じた種別の個人情報を選択的に適用することが可能である。   According to such a fundus imaging system, it is possible to selectively apply the type of personal information corresponding to the disease candidate specified based on the fundus image.

〈変形例〉
以上に説明した構成は、この発明を実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
<Modification>
The configuration described above is merely an example for carrying out the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.

第3の実施形態では、診療歴、撮影間隔または疾患候補に応じて、個人情報の種別を使い分けているが、第2の実施形態の照合処理における許容範囲を変更するように構成することが可能である。   In the third embodiment, the type of personal information is properly used according to the medical history, imaging interval, or disease candidate. However, the allowable range in the matching process of the second embodiment can be changed. It is.

上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。   A computer program for realizing the above embodiment can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.

また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。   It is also possible to transmit / receive this program through a network such as the Internet or a LAN.

1 光走査型検眼鏡本体
27 制御回路部
29 眼底像構築部
30 指紋・手形センサ
100、101、102 眼底撮影装置
110 光学ユニット
111 光源
114 参照ミラー
114A 参照ミラー駆動部
116 スキャナ
123 CCDイメージセンサ
127 切替レンズ
127A レンズ駆動部
200 コンピュータ
210 制御部
211 主制御部
212 記憶部
220 画像形成部
230 データ処理部
231 検査データ生成部
232 認証処理部
233 種別選択部
234 疾患候補特定部
240 通信部
300 ユーザインターフェイス
310 表示部
320 操作部
1000 外部コンピュータ
2000 通信回線

DESCRIPTION OF SYMBOLS 1 Optical scanning ophthalmoscope main body 27 Control circuit part 29 Fundus image construction part 30 Fingerprint / hand-shaped sensor 100, 101, 102 Fundus photographing apparatus 110 Optical unit 111 Light source 114 Reference mirror 114A Reference mirror drive part 116 Scanner 123 CCD image sensor 127 Switching Lens 127A Lens drive unit 200 Computer 210 Control unit 211 Main control unit 212 Storage unit 220 Image forming unit 230 Data processing unit 231 Examination data generation unit 232 Authentication processing unit 233 Type selection unit 234 Disease candidate identification unit 240 Communication unit 300 User interface 310 Display unit 320 Operation unit 1000 External computer 2000 Communication line

Claims (8)

被検眼の眼底を測定光で走査し、眼底からの測定光の戻り光と参照光とを重ね合わせて得られた干渉光を検出する光学系と、前記光学系による干渉光の検出結果を処理することにより眼底の画像を形成する処理部とを含む眼底撮影装置と、
前記処理部により形成された画像を解析して、個人認証を行うために使用される個人認証情報を取得する個人情報取得手段と
を備える眼底撮影システム。
An optical system that scans the fundus of the subject's eye with the measurement light and detects the interference light obtained by superimposing the return light of the measurement light from the fundus and the reference light, and processes the detection result of the interference light by the optical system A fundus imaging apparatus including a processing unit for forming an image of the fundus oculi by
A fundus imaging system comprising: a personal information acquisition unit that analyzes the image formed by the processing unit and acquires personal authentication information used for performing personal authentication.
前記個人情報取得手段は、前記処理部により形成された画像を解析することにより、眼底の所定部位の形態を表す形態情報および/または当該所定部位の分布を表す分布情報を前記個人認証情報として取得する
ことを特徴とする請求項1に記載の眼底撮影システム。
The personal information acquisition unit acquires, as the personal authentication information, morphological information indicating the morphology of a predetermined part of the fundus and / or distribution information indicating the distribution of the predetermined part by analyzing the image formed by the processing unit. The fundus imaging system according to claim 1, wherein:
前記所定部位は、眼底の血管、視神経乳頭、所定の層組織、およびレーザ治療による治療痕のうちのいずれかを含む
ことを特徴とする請求項2に記載の眼底撮影システム。
The fundus imaging system according to claim 2, wherein the predetermined part includes any one of a blood vessel of the fundus, an optic disc, a predetermined layer tissue, and a treatment mark by laser treatment.
前記光学系は、眼底の3次元領域を測定光で走査し、
前記処理部は、眼底の3次元画像を形成し、
前記個人情報取得手段は、前記3次元画像を解析して前記個人認証情報を取得する
ことを特徴とする請求項1〜請求項3のいずれか一項に記載の眼底撮影システム。
The optical system scans a three-dimensional region of the fundus with measurement light,
The processing unit forms a three-dimensional image of the fundus,
The fundus imaging system according to any one of claims 1 to 3, wherein the personal information acquisition unit acquires the personal authentication information by analyzing the three-dimensional image.
前記光学系は、眼底の3次元領域を測定光で走査し、
前記処理部は、眼底の3次元画像を形成し、前記3次元画像の少なくとも一部を眼底の深さ方向に投影することにより眼底正面画像を形成し、
前記個人情報取得手段は、前記眼底正面画像を解析して前記個人認証情報を取得する
ことを特徴とする請求項1〜請求項3のいずれか一項に記載の眼底撮影システム。
The optical system scans a three-dimensional region of the fundus with measurement light,
The processing unit forms a three-dimensional image of the fundus, forms at least a part of the three-dimensional image in the depth direction of the fundus, and forms a fundus front image.
The fundus imaging system according to any one of claims 1 to 3, wherein the personal information acquisition unit acquires the personal authentication information by analyzing the fundus front image.
前記光学系は、眼底の3次元領域を測定光で走査し、
前記処理部は、眼底の3次元画像を形成し、前記3次元画像の断面を表す2次元断面像を形成し、
前記個人情報取得手段は、前記2次元断面像を解析して前記個人認証情報を取得する
ことを特徴とする請求項1〜請求項3のいずれか一項に記載の眼底撮影システム。
The optical system scans a three-dimensional region of the fundus with measurement light,
The processing unit forms a three-dimensional image of the fundus, forms a two-dimensional cross-sectional image representing a cross-section of the three-dimensional image,
The fundus imaging system according to any one of claims 1 to 3, wherein the personal information acquisition unit acquires the personal authentication information by analyzing the two-dimensional cross-sectional image.
前記個人情報取得手段は、前記処理部により形成された画像を解析することにより、眼底の所定の層組織の厚みの分布を表す層厚分布情報を前記個人認証情報として取得する
ことを特徴とする請求項1に記載の眼底撮影システム。
The personal information acquisition means acquires layer thickness distribution information representing a thickness distribution of a predetermined layer tissue of the fundus as the personal authentication information by analyzing an image formed by the processing unit. The fundus imaging system according to claim 1.
前記眼底撮影装置は、被検眼の眼底の画像を形成するための眼底モードと、前眼部の画像を形成するための前眼部モードとを切り替えるためのモード切替部を有し、
前記個人情報取得手段は、前記眼底モードにおいて形成された眼底の画像と、前記前眼部モードにおいて形成された前眼部の画像とを解析して、眼底と前眼部との間の距離を前記個人認証情報として算出する
ことを特徴とする請求項1に記載の眼底撮影システム。

The fundus imaging apparatus has a mode switching unit for switching between a fundus mode for forming an image of the fundus of the eye to be examined and an anterior eye unit mode for forming an image of the anterior eye part,
The personal information acquisition means analyzes the fundus image formed in the fundus mode and the anterior eye image formed in the anterior segment mode, and calculates the distance between the fundus and the anterior segment. The fundus imaging system according to claim 1, wherein the fundus imaging system is calculated as the personal authentication information.

JP2017227088A 2012-11-30 2017-11-27 Fundus imaging system Pending JP2018027406A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012262727 2012-11-30
JP2012262727 2012-11-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013244540A Division JP6338358B2 (en) 2012-11-30 2013-11-27 Fundus photography system

Publications (1)

Publication Number Publication Date
JP2018027406A true JP2018027406A (en) 2018-02-22

Family

ID=51407608

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013244540A Active JP6338358B2 (en) 2012-11-30 2013-11-27 Fundus photography system
JP2017227088A Pending JP2018027406A (en) 2012-11-30 2017-11-27 Fundus imaging system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013244540A Active JP6338358B2 (en) 2012-11-30 2013-11-27 Fundus photography system

Country Status (1)

Country Link
JP (2) JP6338358B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017514659A (en) * 2014-05-08 2017-06-08 ミーモ アクチエンゲゼルシャフトMimo AG Optical coherence tomography imaging apparatus for imaging the retina of a subject
JP6535997B2 (en) * 2014-09-12 2019-07-03 株式会社ニデック Scanning laser ophthalmoscope
JP6553396B2 (en) * 2015-04-30 2019-07-31 株式会社トプコン Ophthalmic device
JP6676296B2 (en) * 2015-07-01 2020-04-08 株式会社トプコン Ophthalmic examination device
JP6961393B2 (en) * 2017-05-31 2021-11-05 フクダ電子株式会社 Reception system and reception terminal
JP7199236B2 (en) * 2019-01-24 2023-01-05 株式会社トプコン ophthalmic equipment
JP6756863B2 (en) * 2019-03-07 2020-09-16 株式会社トプコン Ophthalmic examination system
WO2020241699A1 (en) * 2019-05-31 2020-12-03 株式会社ニコン Optical coherence tomography device and optical module
CN115458105B (en) * 2022-09-16 2023-05-09 江苏至真健康科技有限公司 Quick filing method and system for eye screening

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10151114A (en) * 1996-11-26 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> Sorting and processing method for eyegrounds image
JP2006501534A (en) * 2002-02-27 2006-01-12 イメージング セラピューティクス,インコーポレーテッド System and method for building and operating a centralized measurement database
JP2008061848A (en) * 2006-09-08 2008-03-21 Gifu Univ Image pickup device and image analysis program
JP2009183332A (en) * 2008-02-04 2009-08-20 Topcon Corp Fundus observation apparatus, fundus image processing device, and program
US20110150293A1 (en) * 2008-11-26 2011-06-23 Bower Bradley A Methods, Systems and Computer Program Products for Biometric Identification by Tissue Imaging Using Optical Coherence Tomography (OCT)
JP2012075640A (en) * 2010-09-30 2012-04-19 Nidek Co Ltd Ophthalmologic observation system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09234186A (en) * 1996-03-01 1997-09-09 Nikon Corp Optometric device
JP2000237168A (en) * 1999-02-19 2000-09-05 Canon Inc Ophthalmologic examination device
JP2001161646A (en) * 1999-12-07 2001-06-19 Canon Inc Device for photographing eyes
JP2007097820A (en) * 2005-10-04 2007-04-19 Sumitomo Electric Ind Ltd Biological inspection system and biological inspection method
JP5324839B2 (en) * 2008-06-19 2013-10-23 株式会社トプコン Optical image measuring device
JP4810562B2 (en) * 2008-10-17 2011-11-09 キヤノン株式会社 Image processing apparatus and image processing method
JP2012200292A (en) * 2011-03-23 2012-10-22 Nidek Co Ltd Medical information management system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10151114A (en) * 1996-11-26 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> Sorting and processing method for eyegrounds image
JP2006501534A (en) * 2002-02-27 2006-01-12 イメージング セラピューティクス,インコーポレーテッド System and method for building and operating a centralized measurement database
JP2008061848A (en) * 2006-09-08 2008-03-21 Gifu Univ Image pickup device and image analysis program
JP2009183332A (en) * 2008-02-04 2009-08-20 Topcon Corp Fundus observation apparatus, fundus image processing device, and program
US20110150293A1 (en) * 2008-11-26 2011-06-23 Bower Bradley A Methods, Systems and Computer Program Products for Biometric Identification by Tissue Imaging Using Optical Coherence Tomography (OCT)
JP2012075640A (en) * 2010-09-30 2012-04-19 Nidek Co Ltd Ophthalmologic observation system

Also Published As

Publication number Publication date
JP2014128620A (en) 2014-07-10
JP6338358B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
JP6310859B2 (en) Fundus photographing device
JP6338358B2 (en) Fundus photography system
JP6141140B2 (en) Ophthalmic imaging equipment
JP5989523B2 (en) Ophthalmic equipment
JP2015033472A (en) Ophthalmologic image-capturing apparatus
JP6009935B2 (en) Ophthalmic equipment
US9622656B2 (en) Ophthalmological apparatus, comparison method, and non-transitory storage medium
JP2016041221A (en) Ophthalmological photographing device and control method thereof
JP2018198967A (en) Ophthalmologic device
JP6407631B2 (en) Ophthalmic equipment
JP6392408B2 (en) Ophthalmic equipment
JP6901264B2 (en) Ophthalmic equipment
JP2017012519A (en) Ophthalmologic examination device and ophthalmologic examination system
JP6422529B2 (en) Programs and ophthalmic systems
JP2017164521A (en) Ophthalmologic device
JP2017164520A (en) Ophthalmologic device
JP2017164522A (en) Ophthalmologic device
JP2019135005A (en) Ophthalmologic imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190312