JP2017080325A - Ophthalmological photographing apparatus, method for operating the same, and program - Google Patents

Ophthalmological photographing apparatus, method for operating the same, and program Download PDF

Info

Publication number
JP2017080325A
JP2017080325A JP2015215000A JP2015215000A JP2017080325A JP 2017080325 A JP2017080325 A JP 2017080325A JP 2015215000 A JP2015215000 A JP 2015215000A JP 2015215000 A JP2015215000 A JP 2015215000A JP 2017080325 A JP2017080325 A JP 2017080325A
Authority
JP
Japan
Prior art keywords
optical head
eye
photographing
position information
examined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015215000A
Other languages
Japanese (ja)
Other versions
JP6624890B2 (en
Inventor
和敏 町田
Kazutoshi Machida
和敏 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015215000A priority Critical patent/JP6624890B2/en
Publication of JP2017080325A publication Critical patent/JP2017080325A/en
Application granted granted Critical
Publication of JP6624890B2 publication Critical patent/JP6624890B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a proper evaluation in the case of performing a progress observation of an eye to be examined by using an ophthalmological photographing apparatus which can vary a photographing position of an optical head for photographing an eye to be examined with respect to the eye to be examined.SOLUTION: An information processing part 210 detects a photographing position of an optical head 100 including an optical system for photographing an eye to be examined, stores first photographing position information relating to the photographing position of the optical head 100 detected when the eye to be examined is photographed in the past in a storage part 211, compares the first photographing position information with second photographing position information relating to a photographing position of the optical head 100 detected when the eye to be examined is currently photographed, and performs display control for displaying a result of the comparison in a display part 212.SELECTED DRAWING: Figure 1-1

Description

本発明は、被検眼を撮影するための光学系を含む光学ヘッドを備える眼科撮影装置及びその制御方法、並びに、当該制御方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to an ophthalmologic photographing apparatus including an optical head including an optical system for photographing a subject eye, a control method thereof, and a program for causing a computer to execute the control method.

現在、光学機器を用いた眼科用装置として、様々なものが使用されている。例えば、被検眼を観察・撮影する眼科撮影装置として、前眼部撮影装置、眼底カメラ、共焦点レーザー走査検眼鏡(Scanning Laser Ophthalmoscope:SLO)装置、AO−SLO(Adaptive Optics − SLO)装置、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)装置等の様々な装置が使用されている。ここで、OCT装置は、被検眼の所定領域の断層画像を高解像度に得ることができる装置であり、眼科用装置として被検眼の網膜の専門外来では必要不可欠な装置になりつつある。   At present, various devices for ophthalmology using optical equipment are used. For example, as an ophthalmologic photographing apparatus for observing and photographing an eye to be examined, an anterior ocular segment photographing apparatus, fundus camera, confocal laser scanning ophthalmoscope (SLO) apparatus, AO-SLO (Adaptive Optics-SLO) apparatus, optical Various apparatuses, such as a coherence tomography (OCT) apparatus, are used. Here, the OCT apparatus is an apparatus that can obtain a tomographic image of a predetermined region of the eye to be examined with high resolution, and is becoming an indispensable apparatus in a specialized outpatient for the retina of the eye to be examined as an ophthalmic apparatus.

具体的に、OCT装置では、低コヒーレント光である光を、参照光と測定光とに分け、測定光を被検眼に照射し、その被検眼からの戻り光と参照光とを干渉させることによって、被検眼の断層画像を取得することができる。また、OCT装置では、測定光を、所定領域上にスキャンすることで、高解像度の断層画像を得ることができる。そのため、被検眼の眼底部における網膜の断層画像が取得され、網膜の眼科診断等において広く利用されている。   Specifically, in the OCT apparatus, light that is low-coherent light is divided into reference light and measurement light, the measurement light is irradiated on the eye to be examined, and the return light from the eye to be examined is interfered with the reference light. A tomographic image of the eye to be examined can be acquired. In the OCT apparatus, a high-resolution tomographic image can be obtained by scanning measurement light on a predetermined region. Therefore, a tomographic image of the retina at the fundus of the eye to be examined is acquired and widely used in ophthalmic diagnosis of the retina.

従来、被検眼の経過観察を行う場合に、過去に撮影された画像と同一部位の撮影(フォローアップ撮影)を行うため、過去画像の走査位置、走査パターン、走査角度等の走査情報に基づいてフォローアップ撮影を行うOCT装置が提案されている(特許文献1参照)。また、従来、被検眼の眼底部を広範囲に撮影するパノラマ撮影を行う眼科撮影装置も提案されている(特許文献2参照)。そして、この特許文献2に記載の眼科撮影装置では、パノラマ撮影を行う場合に、被検眼を撮影するための光学ヘッド等を被検眼に対して傾けて撮影を行うことが記載されている。   Conventionally, when performing follow-up observation of an eye to be examined, in order to perform imaging (follow-up imaging) of the same part as an image captured in the past, based on scanning information such as a scanning position, a scanning pattern, and a scanning angle of the past image. An OCT apparatus that performs follow-up imaging has been proposed (see Patent Document 1). Conventionally, an ophthalmologic photographing apparatus that performs panoramic photographing for photographing a wide range of the fundus of the eye to be examined has been proposed (see Patent Document 2). The ophthalmologic photographing apparatus described in Patent Document 2 describes that when performing panoramic photographing, photographing is performed by tilting an optical head or the like for photographing the eye to be examined.

特開2010−110391号公報JP 2010-110391 A 特開2012−213513号公報JP 2012-213513 A

しかしながら、上述した従来の技術では、被検眼を撮影するための光学ヘッドの撮影位置を被検眼に対して可変可能な眼科撮影装置を用いて被検眼の経過観察を行うことを想定したものではなかった。このため、従来の技術では、被検眼を撮影するための光学ヘッドの撮影位置を被検眼に対して可変可能な眼科撮影装置を用いて被検眼の経過観察を行う場合に、適正な評価を行うことが困難であった。   However, the above-described conventional technology does not assume that the eye is monitored using an ophthalmologic imaging apparatus that can change the imaging position of the optical head for imaging the eye to be examined. It was. For this reason, in the conventional technology, when performing the follow-up observation of the eye to be examined using an ophthalmologic photographing apparatus in which the photographing position of the optical head for photographing the eye to be examined can be changed with respect to the eye to be examined, an appropriate evaluation is performed. It was difficult.

本発明は、このような問題点に鑑みてなされたものであり、被検眼を撮影するための光学ヘッドの撮影位置を被検眼に対して可変可能な眼科撮影装置を用いて被検眼の経過観察を行う場合に、適正な評価を行える仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and the follow-up observation of the eye to be examined using an ophthalmologic photographing apparatus capable of changing the photographing position of the optical head for photographing the eye to be examined with respect to the eye to be examined. The purpose of this is to provide a mechanism that enables appropriate evaluation.

本発明の眼科撮影装置は、被検眼を撮影するための光学系を含む光学ヘッドを備える眼科撮影装置であって、前記光学ヘッドの撮影位置を検出する検出手段と、前記被検眼を過去に撮影した際に前記検出手段で検出された前記光学ヘッドの撮影位置に係る第1の撮影位置情報を記憶する記憶手段と、前記第1の撮影位置情報と、前記検出手段で検出された現在の前記光学ヘッドの撮影位置に係る第2の撮影位置情報とを比較する比較手段と、前記比較手段による比較の結果を表示部に表示させる表示制御手段とを有する。
また、本発明は、上述した眼科撮影装置の制御方法、及び、当該制御方法をコンピュータに実行させるためのプログラムを含む。
An ophthalmologic photographing apparatus according to the present invention is an ophthalmic photographing apparatus including an optical head including an optical system for photographing an eye to be examined, the detecting means for detecting the photographing position of the optical head, and the eye to be examined in the past. Storage means for storing first shooting position information related to the shooting position of the optical head detected by the detection means, the first shooting position information, and the current detected by the detection means. Comparing means for comparing with second shooting position information relating to the shooting position of the optical head, and display control means for displaying the result of comparison by the comparing means on the display unit.
The present invention also includes a control method for the above-described ophthalmologic photographing apparatus and a program for causing a computer to execute the control method.

本発明によれば、被検眼を撮影するための光学ヘッドの撮影位置を被検眼に対して可変可能な眼科撮影装置を用いて被検眼の経過観察を行う場合に、適正な評価を行うことが可能となる。   According to the present invention, it is possible to perform an appropriate evaluation when performing a follow-up observation of an eye using an ophthalmologic photographing apparatus capable of changing the photographing position of an optical head for photographing the eye to be examined with respect to the eye to be examined. It becomes possible.

本発明の第1の実施形態に係る眼科撮影装置の外観構成の一例を示す図である。It is a figure which shows an example of the external appearance structure of the ophthalmologic imaging device which concerns on the 1st Embodiment of this invention. 図1−1に示す光学ヘッドの内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the optical head shown to FIGS. 1-1. 本発明の第1の実施形態を示し、図1−1に示すチルティング機構部による光学ヘッドのチルティング角度、及び、図1−1に示すパンニング機構部による光学ヘッドのパンニング角度の検出方法を説明するための図である。1 shows a first embodiment of the present invention, and a method of detecting the tilting angle of the optical head by the tilting mechanism shown in FIG. 1-1 and the panning angle of the optical head by the panning mechanism shown in FIG. It is a figure for demonstrating. 本発明の第1の実施形態に係る眼科撮影装置の制御方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the control method of the ophthalmic imaging device which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る眼科撮影装置の制御方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the control method of the ophthalmologic imaging apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る眼科撮影装置の制御方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the control method of the ophthalmologic imaging apparatus which concerns on the 3rd Embodiment of this invention. 図3のステップS101において表示される患者選択画面の一例を示す図である。It is a figure which shows an example of the patient selection screen displayed in step S101 of FIG. 本発明の第1の実施形態を示し、図1−1の表示部に表示される撮影画面の一例を示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of the imaging | photography screen displayed on the display part of FIGS. 1-1. 本発明の第2の実施形態を示し、図1−1の表示部に表示される撮影画面の一例を示す図である。It is a figure which shows the 2nd Embodiment of this invention and shows an example of the imaging | photography screen displayed on the display part of FIGS. 1-1. 本発明の第3の実施形態を示し、図1−1の表示部に表示される撮影画面の一例を示す図である。It is a figure which shows the 3rd Embodiment of this invention and shows an example of the imaging | photography screen displayed on the display part of FIGS. 1-1. 本発明の第2の実施形態を示し、図1−1に示すパンニング機構部による光学ヘッドのパンニング角度の検出方法を説明するための図である。FIG. 10 is a diagram for explaining a method of detecting a panning angle of an optical head by the panning mechanism shown in FIG. 1-1, showing a second embodiment of the present invention. 本発明の第3の実施形態を示し、図1−1に示すチルティング機構部による光学ヘッドのチルティング角度の検出方法を説明するための図である。FIG. 10 is a diagram illustrating a method for detecting a tilting angle of an optical head by a tilting mechanism unit illustrated in FIG.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described.

<眼科撮影装置の概略構成>
図1−1は、本発明の第1の実施形態に係る眼科撮影装置10の外観構成の一例を示す図である。眼科撮影装置10は、図1−1に示すように、光学ヘッド100、ステージ部200、チルティング機構部201、パンニング機構部202、ベース部203、ジョイスティック204、情報処理部210、表示部212、入力部213、及び、被検眼位置固定部300を有して構成されている。
<Schematic configuration of ophthalmic imaging apparatus>
FIG. 1-1 is a diagram illustrating an example of an external configuration of the ophthalmologic photographing apparatus 10 according to the first embodiment of the present invention. As shown in FIG. 1-1, the ophthalmologic photographing apparatus 10 includes an optical head 100, a stage unit 200, a tilting mechanism unit 201, a panning mechanism unit 202, a base unit 203, a joystick 204, an information processing unit 210, a display unit 212, The input unit 213 and the eye position fixing unit 300 to be examined are configured.

光学ヘッド100は、被検眼を撮影するための光学系を含み構成されており、被検眼の前眼部における前眼部画像及び被検眼の眼底部における眼底画像の2次元画像、並びに、被検眼の断層画像を撮影する。   The optical head 100 is configured to include an optical system for photographing the eye to be examined, and includes a two-dimensional image of the anterior eye image in the anterior eye portion of the eye to be examined, a fundus image in the fundus portion of the eye to be examined, and the eye to be examined. Take a tomographic image of.

ステージ部200は、光学ヘッド100を図1−1に示すx方向、y方向及びz方向に移動させるためのものである。チルティング機構部201は、光学ヘッド100を垂直方向にチルティング(単に、「チルト」と称することもある)させるためのものである。パンニング機構部202は、光学ヘッド100を水平方向にパンニング(単に、「パン」と称することもある)させるためのものである。ベース部203は、ステージ部200及び被検眼位置固定部300を支持するものである。ジョイスティック204は、検者等が、ステージ部200を介して、光学ヘッド100を図1−1に示すx方向、y方向及びz方向に移動させる際に、検者等により操作されるものである。   The stage unit 200 is for moving the optical head 100 in the x, y, and z directions shown in FIG. 1-1. The tilting mechanism unit 201 is for tilting the optical head 100 in the vertical direction (sometimes simply referred to as “tilt”). The panning mechanism 202 is for panning the optical head 100 in the horizontal direction (sometimes simply referred to as “panning”). The base part 203 supports the stage part 200 and the eye position fixing part 300 to be examined. The joystick 204 is operated by the examiner or the like when the examiner or the like moves the optical head 100 in the x, y, and z directions shown in FIG. .

情報処理部210は、眼科撮影装置10の動作を統括的に制御することや眼科撮影装置10における各種の処理を行うものであり、例えばパーソナル・コンピュータから構成されている。この情報処理部210は、光学ヘッド100の撮影位置を検出する。この検出を行う情報処理部210は、検出手段を構成する。具体的に、本実施形態では、情報処理部210は、光学ヘッド100の撮影位置として、チルティング機構部201による光学ヘッド100のチルティング位置及びパンニング機構部202による光学ヘッド100のパンニング位置を検出する。また、情報処理部210には、情報処理部210で行われる各種の処理を行うためのプログラムや、各種の情報及び各種のデータを記憶する記憶部211が設けられている。本実施形態では、記憶部211には、各被検眼ごとに、過去に撮影した際に得られた撮影画像と当該撮影画像を撮影した際に情報処理部210で検出された光学ヘッド100の撮影位置に係る撮影位置情報(第1の撮影位置情報)とが対応付けられて記憶される。   The information processing unit 210 performs overall control of the operation of the ophthalmologic photographing apparatus 10 and performs various processes in the ophthalmic photographing apparatus 10, and is composed of, for example, a personal computer. The information processing unit 210 detects the shooting position of the optical head 100. The information processing unit 210 that performs this detection constitutes detection means. Specifically, in the present embodiment, the information processing unit 210 detects the tilting position of the optical head 100 by the tilting mechanism unit 201 and the panning position of the optical head 100 by the panning mechanism unit 202 as the shooting position of the optical head 100. To do. Further, the information processing unit 210 is provided with a storage unit 211 that stores programs for performing various processes performed by the information processing unit 210 and various types of information and various types of data. In the present embodiment, the storage unit 211 captures, for each eye to be examined, a captured image obtained when the image is captured in the past and the image of the optical head 100 detected by the information processing unit 210 when the captured image is captured. The shooting position information related to the position (first shooting position information) is stored in association with each other.

また、情報処理部210は、現在の光学ヘッド100の撮影位置に係る撮影位置情報(第2の撮影位置情報)を検出し、各被検眼ごとに、上述した第1の撮影位置情報と第2の撮影位置情報とを比較する。この比較を行う情報処理部210は、比較手段を構成する。そして、情報処理部210は、当該比較の結果を表示部212に表示する制御を行う。この表示部212に対する表示の制御を行う情報処理部210は、表示制御手段を構成する。   In addition, the information processing unit 210 detects shooting position information (second shooting position information) related to the current shooting position of the optical head 100, and the first shooting position information and the second shooting position information described above for each eye to be examined. Is compared with the shooting position information. The information processing unit 210 that performs the comparison constitutes a comparison unit. The information processing unit 210 performs control to display the comparison result on the display unit 212. The information processing unit 210 that controls display on the display unit 212 constitutes a display control unit.

表示部212は、情報処理部210の制御に基づいて、各種の情報や各種のデータを表示するモニタ等である。入力部213は、情報処理部210に対して、各種の情報等を入力するためのものであり、例えばキーボード及びマウスから構成されている。   The display unit 212 is a monitor that displays various types of information and various types of data based on the control of the information processing unit 210. The input unit 213 is for inputting various types of information and the like to the information processing unit 210, and includes, for example, a keyboard and a mouse.

被検眼位置固定部300は、被検者の顎と額とを固定することで、被検者の眼(被検眼)の位置を固定するための機構である。この被検眼位置固定部300は、図1−1に示すように、顎受け部301、額当て部302、目高線303、及び、外部固視灯304を備えて構成されている。   The subject eye position fixing unit 300 is a mechanism for fixing the position of the subject's eye (the subject eye) by fixing the subject's chin and forehead. As shown in FIG. 1A, the eye position fixing unit 300 includes a chin rest portion 301, a forehead support portion 302, an eye height line 303, and an external fixation lamp 304.

次に、光学ヘッド100の内部構成について説明する。
図1−2は、図1−1に示す光学ヘッド100の内部構成の一例を示す図である。
Next, the internal configuration of the optical head 100 will be described.
FIG. 1-2 is a diagram illustrating an example of an internal configuration of the optical head 100 illustrated in FIG. 1-1.

まず、測定光学系について説明する。
被検眼Eに対向して対物レンズ135−1が設置され、その光軸上で第1ダイクロイックミラー132−1及び第2ダイクロイックミラー132−2によって、波長帯域ごとに、OCT光学系の光路191、眼底部観察と固視灯用の光路192及び前眼部観察用の光路193とに分岐される。
First, the measurement optical system will be described.
An objective lens 135-1 is installed facing the eye E, and an optical path 191 of the OCT optical system is provided for each wavelength band by the first dichroic mirror 132-1 and the second dichroic mirror 132-2 on the optical axis thereof. It branches into the optical path 192 for fundus oculi observation, the fixation lamp optical path 192, and the anterior ocular segment observation optical path 193.

光路192では、穴あきミラー133によって被検眼Eの眼底部からの反射光が眼底部観察用のCCD172に導かれる。また、光路192には、第3ダイクロイックミラー132−3によって眼底部観察用のSLO光源181及び内部固視灯182からの光が導かれる。また、光路192には、レンズ135−3及び135−4が配置されており、レンズ135−3は、内部固視灯182及び眼底部観察用の焦点合わせのためモータ(不図示)によって駆動される。SLO光源181は、中心波長が780nmの光を出射する。内部固視灯182は、可視光を発生して被検者の被検眼における固視を促すものである。   In the optical path 192, reflected light from the fundus of the eye E is guided to the fundus oculi CCD 172 by the perforated mirror 133. Further, the light from the SLO light source 181 for observing the fundus and the internal fixation lamp 182 is guided to the optical path 192 by the third dichroic mirror 132-3. In addition, lenses 135-3 and 135-4 are arranged in the optical path 192, and the lens 135-3 is driven by a motor (not shown) for focusing for the internal fixation lamp 182 and fundus observation. The The SLO light source 181 emits light having a center wavelength of 780 nm. The internal fixation lamp 182 generates visible light to promote fixation on the subject's eye.

光路193には、レンズ135−2から前眼部観察用の赤外線CCD171が配置されている。この赤外線CCD171は、前眼部観察用照明光の波長、具体的には970nm付近に感度を持つものである。   In the optical path 193, an infrared CCD 171 for observing the anterior segment from the lens 135-2 is disposed. This infrared CCD 171 has a sensitivity at the wavelength of the anterior segment observation illumination light, specifically, around 970 nm.

光路191は、上述したようにOCT光学系の光路であり、被検眼Eの眼底部の断層画像を撮影するための光路である。より具体的には、断層画像を形成するための干渉信号を得るためものである。光路191には、披検眼Eへの光照射を撮影時のみにするためのシャッター117、光を被検眼Eの眼底部上で走査するためのXYスキャナ134が配置されている。このXYスキャナ134は、1枚のミラーとして図示しているが、X軸方向とY軸方向との2軸方向の走査を行うものである。また、光路191には、レンズ135−5及び135−6が配置されている。そのうちのレンズ135−5は、ファイバーカプラー106に接続されているファイバー131−2から出射する光源101からの光を被検眼Eの眼底部上に焦点合わせするためにモータ(不図示)によって駆動される。この焦点合わせによって被検眼Eの眼底部からの光は、同時にファイバー131−2の先端にスポット状に結像されて入射されることになる。   The optical path 191 is an optical path of the OCT optical system as described above, and is an optical path for capturing a tomographic image of the fundus of the eye E. More specifically, it is for obtaining an interference signal for forming a tomographic image. In the optical path 191, there are arranged a shutter 117 for irradiating the eye E with light only during photographing and an XY scanner 134 for scanning light on the fundus of the eye E. The XY scanner 134 is illustrated as a single mirror, but performs scanning in the biaxial direction of the X axis direction and the Y axis direction. Further, lenses 135-5 and 135-6 are disposed in the optical path 191. The lens 135-5 is driven by a motor (not shown) to focus light from the light source 101 emitted from the fiber 131-2 connected to the fiber coupler 106 on the fundus of the eye E. The By this focusing, the light from the fundus of the eye E is simultaneously incident on the tip of the fiber 131-2 in a spot shape.

次に、光源101からの光路と参照光学系の構成について説明する。
光源101は、波長を変化させることが可能な波長挿引型光源であり、例えば、中心波長が1040nm程度でバンド幅が100nm程度の光を出射する。光源101から出射された光は、ファイバー102を介して、ファイバーカプラー104に導かれ、光量を測定するためのファイバー131−1とOCT測定するためのファイバー105とに分岐される。光源101から出射された光は、ファイバー131−1を介して、PM(Power Meter)130においてそのパワーが測定される。また、ファイバー105を介した光は、ファイバーカプラー106に導かれる。ファイバーカプラー106は、光源101からの光が伝送される光路を参照光路と測定光路とに分割する分割部として機能する。このファイバーカプラー106により、光源101からの光は、測定光(OCT測定光とも言う)と参照光とに分岐される。なお、ファイバーカプラー104の分岐比は、99:1であり、また、ファイバーカプラー106の分岐比は、90(参照光):10(測定光)である。
Next, the configuration of the optical path from the light source 101 and the reference optical system will be described.
The light source 101 is a wavelength insertion type light source capable of changing the wavelength. For example, the light source 101 emits light having a center wavelength of about 1040 nm and a bandwidth of about 100 nm. The light emitted from the light source 101 is guided to the fiber coupler 104 via the fiber 102 and branched into the fiber 131-1 for measuring the light amount and the fiber 105 for measuring OCT. The power of the light emitted from the light source 101 is measured by a PM (Power Meter) 130 via the fiber 131-1. Further, the light passing through the fiber 105 is guided to the fiber coupler 106. The fiber coupler 106 functions as a dividing unit that divides an optical path through which light from the light source 101 is transmitted into a reference optical path and a measurement optical path. By this fiber coupler 106, the light from the light source 101 is branched into measurement light (also referred to as OCT measurement light) and reference light. The branching ratio of the fiber coupler 104 is 99: 1, and the branching ratio of the fiber coupler 106 is 90 (reference light): 10 (measurement light).

ファイバーカプラー106で分岐された測定光は、ファイバー131−2を介して、コリメータ116から平行光として出射される。ファイバー131−2には、測定光側の偏光調整部139−1が設けられている。また、ファイバー131−3には、参照光側の偏光調整部139−2が設けられている。これらの偏光調整部は、ファイバーをループ状に引き回した部分を幾つか持ち、このループ状の部分をファイバーの長手方向を中心として回動させることでファイバーに捩じりを加えて、測定光と参照光の偏光状態を各々調整して合わせることが可能なものである。本実施形態における光学ヘッド100では、予め測定光と参照光の偏光状態が調整されて固定されている。出射された測定光は、測定光学系を通り、被検眼の眼底部で所望の範囲の領域を走査する。   The measurement light branched by the fiber coupler 106 is emitted as parallel light from the collimator 116 via the fiber 131-2. The fiber 131-2 is provided with a polarization adjustment unit 139-1 on the measurement light side. The fiber 131-3 is provided with a reference light side polarization adjustment unit 139-2. These polarization adjustment parts have several parts where the fiber is routed in a loop, and twist the fiber by rotating the loop-like part around the longitudinal direction of the fiber. The polarization state of the reference light can be adjusted and matched. In the optical head 100 according to the present embodiment, the polarization states of the measurement light and the reference light are adjusted and fixed in advance. The emitted measurement light passes through the measurement optical system and scans a region in a desired range on the fundus of the eye to be examined.

また、ファイバーカプラー106で分岐された参照光は、ファイバー131−3及び参照光側の偏光調整部139−2を介して、コリメータ120−1から平行光として出射される。コリメータ120−1から出射された参照光は、分散補償ガラス121を介して、コヒーレンスゲートステージ122上の参照ミラー123−1及び123−2で反射される。その後、参照光は、コリメータ120−2及びファイバー124を介して、ファイバーカプラー126に到達する。   The reference light branched by the fiber coupler 106 is emitted as collimated light from the collimator 120-1 via the fiber 131-3 and the reference light side polarization adjusting unit 139-2. The reference light emitted from the collimator 120-1 is reflected by the reference mirrors 123-1 and 123-2 on the coherence gate stage 122 via the dispersion compensation glass 121. Thereafter, the reference light reaches the fiber coupler 126 via the collimator 120-2 and the fiber 124.

コヒーレンスゲートステージ122は、参照ミラー123−1及び123−2の位置を変更する変更部として機能し、かかる機能により測定光の光路長と参照光の光路長を調整する。また、参照ミラー123−1及び123−2は、測定光の光路長と参照光の光路長とが等しくなる位置が撮影対象付近となるように配置される。コヒーレンスゲートステージ122は、被検眼Eの眼軸長の相違等に対応するため、モータ(不図示)によって駆動される。   The coherence gate stage 122 functions as a changing unit that changes the positions of the reference mirrors 123-1 and 123-2, and adjusts the optical path length of the measurement light and the reference light. Further, the reference mirrors 123-1 and 123-2 are arranged so that the position where the optical path length of the measurement light and the optical path length of the reference light are equal is in the vicinity of the imaging target. The coherence gate stage 122 is driven by a motor (not shown) in order to cope with a difference in the axial length of the eye E to be examined.

ファイバーカプラー126は、参照光路を経由した参照光と測定光路を経由した測定光とを合波する合波部として機能する。これにより、ファイバーカプラー126に到達した測定光と参照光とは合波されて干渉光となり、ファイバー127及び128を経由し、合波された光を検出する光検出器である差動検出器(balanced receiver)129によって干渉光が電気信号(干渉信号)に変換される。差動検出器129から出力されたそれぞれの干渉信号に対して、一般的な再構成処理を行うことで断層画像が生成されて取得される。   The fiber coupler 126 functions as a multiplexing unit that multiplexes the reference light passing through the reference optical path and the measurement light passing through the measurement optical path. As a result, the measurement light and the reference light that have reached the fiber coupler 126 are combined to become interference light, which passes through the fibers 127 and 128, and is a differential detector that is a photodetector that detects the combined light ( The interference light is converted into an electric signal (interference signal) by a balanced receiver (129). A tomographic image is generated and acquired by performing general reconstruction processing on each interference signal output from the differential detector 129.

次に、本実施形態におけるフォローアップ撮影時の処理について説明する。   Next, processing at the time of follow-up shooting in the present embodiment will be described.

図2は、本発明の第1の実施形態を示し、図1−1に示すチルティング機構部201による光学ヘッド100のチルティング角度、及び、図1−1に示すパンニング機構部202による光学ヘッド100のパンニング角度の検出方法を説明するための図である。具体的に、図2(a)に、図1−1に示すチルティング機構部201による光学ヘッド100のチルティング角度の検知方法の一例を示し、図2(b)に、図1−1に示すパンニング機構部202による光学ヘッド100のパンニング角度の検知方法の一例を示す。   2 shows the first embodiment of the present invention, the tilting angle of the optical head 100 by the tilting mechanism unit 201 shown in FIG. 1-1, and the optical head by the panning mechanism unit 202 shown in FIG. 1-1. It is a figure for demonstrating the detection method of 100 panning angles. Specifically, FIG. 2 (a) shows an example of a method of detecting the tilting angle of the optical head 100 by the tilting mechanism unit 201 shown in FIG. 1-1, and FIG. An example of a method for detecting the panning angle of the optical head 100 by the illustrated panning mechanism 202 will be described.

図2(a)において、チルティング機構部201にはエンコーダー2012が固定されており、また、光学ヘッド100にはチルティング検知センサー2011が固定されている。光学ヘッド100を垂直方向にチルティングさせた時に、チルティング検知センサー2011が、エンコーダー2012を読み取ることにより、光学ヘッド100のチルティング角度が検知される。そして、情報処理部210は、チルティング検知センサー2011で検知されたチルティング角度に従って、光学ヘッド100のチルティング位置を検出する。   In FIG. 2A, the encoder 2012 is fixed to the tilting mechanism unit 201, and the tilting detection sensor 2011 is fixed to the optical head 100. When the optical head 100 is tilted in the vertical direction, the tilting detection sensor 2011 reads the encoder 2012 to detect the tilting angle of the optical head 100. Then, the information processing unit 210 detects the tilting position of the optical head 100 according to the tilting angle detected by the tilting detection sensor 2011.

図2(b)において、光学ヘッド(100)の回転軸2023にはエンコーダー2022が固定されており、パンニング機構部202にはパンニング検知センサー2021が固定されている。光学ヘッド(100)を水平方向にパンニングさせた時にエンコーダー2022が回転し、パンニング検知センサー2021が、このエンコーダー2022を読み取ることにより、光学ヘッド100のパンニング角度が検知される。そして、情報処理部210は、パンニング検知センサー2021で検知されたパンニング角度に従って、光学ヘッド100のパンニング位置を検出する。   In FIG. 2B, an encoder 2022 is fixed to the rotating shaft 2023 of the optical head (100), and a panning detection sensor 2021 is fixed to the panning mechanism 202. When the optical head (100) is panned in the horizontal direction, the encoder 2022 rotates, and the panning detection sensor 2021 reads the encoder 2022, whereby the panning angle of the optical head 100 is detected. The information processing unit 210 detects the panning position of the optical head 100 according to the panning angle detected by the panning detection sensor 2021.

また、情報処理部210は、検出したチルティング位置(チルティング角度)及びパンニング位置(パンニング角度)の情報を被検者情報として撮影画像と対応付けて、記憶部211に記憶する。ここで、被検者情報としては、チルティング位置(チルティング角度)及びパンニング位置(パンニング角度)の情報だけでなく、被検眼Eの情報、光学ヘッド100のxyz方向位置情報、内部固視位置情報、ガルバノ角度情報、及び、スキャン範囲情報を記憶してもよい。   In addition, the information processing unit 210 stores information on the detected tilting position (tilting angle) and panning position (panning angle) in the storage unit 211 in association with the captured image as subject information. Here, as the subject information, not only the tilting position (tilting angle) and panning position (panning angle) information, but also information on the eye E, xyz direction position information of the optical head 100, and internal fixation position Information, galvano angle information, and scan range information may be stored.

また、本実施形態では、その他の角度検知方法として、エンコーダーではなくポテンショメーターを用いて、各角度を検知することもできる。   In this embodiment, as another angle detection method, each angle can also be detected using a potentiometer instead of an encoder.

次に、本実施形態に係る眼科撮影装置10の制御方法における処理手順について説明する。
図3−1は、本発明の第1の実施形態に係る眼科撮影装置10の制御方法における処理手順の一例を示すフローチャートである。なお、図3−1のフローチャートの処理を開始するのに際しては、予め記憶部211には、各被検者ごとに、過去に被検眼Eを撮影した際の光学ヘッド100の撮影位置に係る撮影位置情報(第1の撮影位置情報)が記憶されているものとする。
Next, a processing procedure in the control method of the ophthalmologic photographing apparatus 10 according to the present embodiment will be described.
FIG. 3A is a flowchart illustrating an example of a processing procedure in the control method of the ophthalmologic photographing apparatus 10 according to the first embodiment of the present invention. When the processing of the flowchart in FIG. 3A is started, the storage unit 211 previously captures an image related to the imaging position of the optical head 100 when the eye E is captured in the past for each subject. It is assumed that position information (first shooting position information) is stored.

まず、ステップS101において、情報処理部210は、表示部212に患者選択画面を表示する制御を行う。   First, in step S101, the information processing unit 210 performs control to display a patient selection screen on the display unit 212.

図4は、図3のステップS101において表示される患者選択画面400の一例を示す図である。
図4に示す患者選択画面400には、被検者リスト401、被検者ボタン402、及び、撮影ボタン403が示されている。検者が被検者ボタン402を選択すると、情報処理部210は、被検者リスト401を表示する制御を行う。
FIG. 4 is a diagram showing an example of the patient selection screen 400 displayed in step S101 of FIG.
A patient selection screen 400 shown in FIG. 4 shows a subject list 401, a subject button 402, and an imaging button 403. When the examiner selects the examinee button 402, the information processing unit 210 performs control to display the examinee list 401.

ここで、再び、図3−1の説明に戻る。
ステップS101の処理が終了すると、ステップS102に進む。
ステップS102に進むと、情報処理部210は、例えば検者により入力部213を介して入力された情報に基づいて、図4に示す被検者リスト401に、検査対象の被検者の情報があるか否かを判断する。
Here, the description returns to FIG. 3-1.
When the process of step S101 ends, the process proceeds to step S102.
In step S102, the information processing unit 210 stores information on the subject to be inspected in the subject list 401 shown in FIG. 4 based on, for example, information input by the examiner via the input unit 213. Judge whether there is.

ステップS102の判断の結果、図4に示す被検者リスト401に、検査対象の被検者の情報がある場合には(S102/Yes)、ステップS103に進む。
ステップS103に進むと、情報処理部210は、記憶部211から、当該検査対象の被検者において過去に被検眼Eを撮影した際の光学ヘッド100の撮影位置に係る撮影位置情報(第1の撮影位置情報)を読み出す。ここで、図3−1に示す例では、撮影位置情報として、チルティング角度及びパンニング角度(図3−1では「パンチルト角度」と略記している)の情報を読み出す。
As a result of the determination in step S102, if the subject list 401 shown in FIG. 4 includes information on the subject to be examined (S102 / Yes), the process proceeds to step S103.
When the processing proceeds to step S103, the information processing unit 210 captures from the storage unit 211 imaging position information (first image) related to the imaging position of the optical head 100 when the subject eye E has been imaged in the past. (Shooting position information) is read out. Here, in the example illustrated in FIG. 3A, information on a tilting angle and a panning angle (abbreviated as “pan / tilt angle” in FIG. 3A) is read out as shooting position information.

続いて、ステップS104において、情報処理部210は、現在の光学ヘッド100の撮影位置を検出する。ここで検出された撮影位置に係る撮影位置情報は、第2の撮影位置情報を構成する。具体的に、図3−1に示す例では、チルティング角度及びパンニング角度(図3−1では「パンチルト角度」と略記している)を検出する。   Subsequently, in step S104, the information processing unit 210 detects the current shooting position of the optical head 100. The photographing position information relating to the photographing position detected here constitutes second photographing position information. Specifically, in the example illustrated in FIG. 3A, a tilting angle and a panning angle (abbreviated as “pan tilt angle” in FIG. 3A) are detected.

続いて、ステップS105において、情報処理部210は、ステップS103で読み出した過去のパンチルト角度と、ステップS104で検出した現在のパンチルト角度とを比較し、両者が同じであるか否かを判断する。   Subsequently, in step S105, the information processing unit 210 compares the past pan / tilt angle read in step S103 with the current pan / tilt angle detected in step S104, and determines whether or not they are the same.

ステップS105の判断の結果、ステップS103で読み出した過去のパンチルト角度と、ステップS104で検出した現在のパンチルト角度とが同じでない(即ち、異なる)場合には(S105/No)、ステップS106に進む。
ステップS106に進むと、情報処理部210は、表示部212の撮影画面に、現在の光学ヘッド100のパンチルトを動かすように促す指標を表示する制御を行う。具体的に、本実施形態では、過去のパンチルト角度に対する現在のパンチルト角度のずれを示す指標を表示部212に表示する制御を行う。
As a result of the determination in step S105, when the past pan / tilt angle read in step S103 and the current pan / tilt angle detected in step S104 are not the same (that is, different) (S105 / No), the process proceeds to step S106.
In step S <b> 106, the information processing unit 210 performs control to display an index that prompts the user to move the current pan / tilt of the optical head 100 on the shooting screen of the display unit 212. Specifically, in the present embodiment, control is performed to display an index indicating a deviation of the current pan / tilt angle with respect to the past pan / tilt angle on the display unit 212.

図5−1は、本発明の第1の実施形態を示し、図1−1の表示部212に表示される撮影画面510の一例を示す図である。
この撮影画面510には、被検眼が右眼か左眼かを示す左右眼表示部501、スキャンモード表示部502、マウスポインタ503、眼底画像(SLO画像)表示部504、フォーカスバー505、断層画像(OCT画像)表示部506、キャプチャーボタン507、スタートボタン508、指標511及び512が示されている。ここで、指標511はパンニングを促す矢印の指標であり、指標512はチルティングを促す矢印の指標である。この指標511及び512を表示することで、検者に対して、光学ヘッド100のパンチルト角度を変えるように促すことができる。具体的に、本実施形態では、過去のパンチルト角度に対する現在のパンチルト角度のずれ量を少なくする方向に検者にパンチルトさせるように、例えば、指標511及び512の当該方向の矢印をハイライト表示することや、指標511及び512の当該方向の矢印のみを表示する。
FIG. 5A is a diagram illustrating an example of a shooting screen 510 displayed on the display unit 212 of FIG. 1-1 according to the first embodiment of this invention.
The imaging screen 510 includes a left / right eye display unit 501 indicating whether the subject's eye is a right eye or a left eye, a scan mode display unit 502, a mouse pointer 503, a fundus image (SLO image) display unit 504, a focus bar 505, a tomographic image. An (OCT image) display unit 506, a capture button 507, a start button 508, and indicators 511 and 512 are shown. Here, the index 511 is an arrow index for promoting panning, and the index 512 is an arrow index for promoting tilting. By displaying the indicators 511 and 512, the examiner can be prompted to change the pan / tilt angle of the optical head 100. Specifically, in the present embodiment, for example, the arrows in the direction of the indicators 511 and 512 are highlighted so that the examiner pans and tilts in a direction to reduce the deviation amount of the current pan / tilt angle with respect to the past pan / tilt angle. In addition, only the arrows in the corresponding direction of the indicators 511 and 512 are displayed.

ここで、再び、図3−1の説明に戻る。
ステップS106の処理が終了すると、ステップS104に戻る。そして、ステップS104以降の処理が再度行われる。このステップS104〜S106のループは、ステップS105において、ステップS103で読み出した過去のパンチルト角度とステップS104で検出した現在のパンチルト角度とが同じであると判断されるまで繰り返される。
Here, the description returns to FIG. 3-1.
When the process of step S106 ends, the process returns to step S104. And the process after step S104 is performed again. This loop of steps S104 to S106 is repeated until it is determined in step S105 that the past pan-tilt angle read in step S103 is the same as the current pan-tilt angle detected in step S104.

また、ステップS102の判断の結果、図4に示す被検者リスト401に、検査対象の被検者の情報がない場合には(S102/No)、ステップS107に進む。
ステップS107に進むと、情報処理部210は、入力部213から、当該検査対象の被検者に係る患者情報の入力を受け付ける。
Further, as a result of the determination in step S102, when there is no information on the subject to be examined in the subject list 401 shown in FIG. 4 (S102 / No), the process proceeds to step S107.
In step S <b> 107, the information processing unit 210 receives input of patient information related to the subject to be examined from the input unit 213.

ステップS107の処理が終了した場合、或いは、ステップS105で過去のパンチルト角度と現在のパンチルト角度とが同じであると判断された場合には(S105/Yes)、ステップS108に進む。
ステップS108に進むと、情報処理部210は、当該検査対象の被検者における被検眼Eの撮影を実行する制御を行う。この撮影制御を行う情報処理部210は、撮影制御手段を構成する。
When the process of step S107 is completed, or when it is determined in step S105 that the past pan / tilt angle is the same as the current pan / tilt angle (S105 / Yes), the process proceeds to step S108.
In step S108, the information processing unit 210 performs control to execute imaging of the eye E to be examined by the subject to be examined. The information processing unit 210 that performs the shooting control constitutes a shooting control unit.

続いて、ステップS109において、情報処理部210は、ステップS108の撮影により得られた撮影画像と対応付けて、ステップS104で検出した撮影位置情報である第2の撮影位置情報(パンチルト角度)を記憶部211に記憶して保存する。   Subsequently, in step S109, the information processing unit 210 stores second shooting position information (pan tilt angle) that is the shooting position information detected in step S104 in association with the shot image obtained by shooting in step S108. Store in the unit 211 and save.

ステップS109の処理が終了すると、図3−1のフローチャートの処理が終了する。   When the process of step S109 ends, the process of the flowchart of FIG.

第1の実施形態によれば、被検眼Eの経過観察を行う場合に、過去に撮影した過去画像の場合と同じ光学ヘッド100の撮影位置で撮影を行うことができる。これにより、過去の撮影と同様の位置に被検眼Eを固定できれば、過去に撮影した過去画像と同一の被検眼Eの部位を撮影することができるため、被検眼Eの経過観察を行う場合に、適正な評価を行うことが可能となる。   According to the first embodiment, when performing the follow-up observation of the eye E, it is possible to perform imaging at the same imaging position of the optical head 100 as in the case of past images captured in the past. As a result, if the eye E can be fixed at the same position as the past imaging, the same part of the eye E as the past image captured in the past can be imaged. It is possible to perform an appropriate evaluation.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

上述した第1の実施形態では、チルティング位置(チルティング角度)及びパンニング位置(パンニング角度)の情報を、エンコーダーやポテンショメーターを用いて取得する形態であった。しかしながら、本発明においてはこの形態に限定されるものではない。第2の実施形態では、チルティング位置(チルティング角度)及びパンニング位置(パンニング角度)の情報を、被検眼Eの撮影画像または観察画像から取得する形態を採る。   In the first embodiment described above, the information about the tilting position (tilting angle) and the panning position (panning angle) is acquired using an encoder or a potentiometer. However, the present invention is not limited to this form. The second embodiment adopts a form in which information on the tilting position (tilting angle) and the panning position (panning angle) is acquired from a captured image or an observation image of the eye E.

第2の実施形態に係る眼科撮影装置の外観構成は、上述した図1−1に示す第1の実施形態に係る眼科撮影装置10の外観構成と同様である。また、第2の実施形態における光学ヘッド100の内部構成は、上述した図1−2に示す第1の実施形態における光学ヘッド100の内部構成と同様である。なお、第2の実施形態に係る眼科撮影装置10には、上述した第1の実施形態におけるエンコーダー等を備えないこととしてもよいし、また備えることとしてもよい。   The external configuration of the ophthalmic imaging apparatus according to the second embodiment is the same as the external configuration of the ophthalmic imaging apparatus 10 according to the first embodiment shown in FIG. The internal configuration of the optical head 100 in the second embodiment is the same as the internal configuration of the optical head 100 in the first embodiment shown in FIG. The ophthalmologic photographing apparatus 10 according to the second embodiment may or may not include the encoder or the like in the first embodiment described above.

次に、本実施形態におけるフォローアップ撮影時の処理について説明する。   Next, processing at the time of follow-up shooting in the present embodiment will be described.

図6は、本発明の第2の実施形態を示し、図1−1に示すパンニング機構部202による光学ヘッド100のパンニング角度の検出方法を説明するための図である。   FIG. 6 shows the second embodiment of the present invention and is a diagram for explaining a method of detecting the panning angle of the optical head 100 by the panning mechanism unit 202 shown in FIG. 1-1.

図6(a)において、第1の注目点601及び第2の注目点602は、被検眼Eの網膜上(撮影画像/観察画像)における水平方向の任意の2点である。また、図6(b)は、図6(a)に示す第1の注目点601及び第2の注目点602を抜き出した図である。   In FIG. 6A, the first attention point 601 and the second attention point 602 are two arbitrary points in the horizontal direction on the retina (captured image / observed image) of the eye E. FIG. 6B is a diagram in which the first attention point 601 and the second attention point 602 shown in FIG. 6A are extracted.

図6(b)において、第1の注目点601と第2の注目点602とを結ぶ直線610の長さ(2点間の長さ)611は、光学ヘッド100が被検眼Eに対してパンニングしていない場合(図6(b)の正面方向から見た場合)の長さを表している。一方、光学ヘッド100が被検眼Eに対してパンニングした場合(図6(b)の斜め方向から見た場合)、第2の注目点602は見かけ上、第3の注目点603に見える。このため、見かけ上の長さは、第1の注目点601と第3の注目点603を結ぶ直線620の長さ(2点間の長さ)621になる。ここで、光学ヘッド100をパンニングしない場合とパンニングした場合とで、第1の注目点601と第2の注目点602とを結ぶ直線の見かけ上の長さは変化する。本実施形態では、この点に着目し、情報処理部210は、この被検眼Eにおける水平方向の2点間の長さを検出することで、光学ヘッド100のパンニング位置(パンニング角度)を検出する。   In FIG. 6B, the length (the length between two points) 611 of the straight line 610 connecting the first attention point 601 and the second attention point 602 indicates that the optical head 100 pans the eye E to be examined. It represents the length when not (when viewed from the front direction in FIG. 6B). On the other hand, when the optical head 100 is panned with respect to the eye E (when viewed from an oblique direction in FIG. 6B), the second attention point 602 appears to be the third attention point 603. For this reason, the apparent length is the length (the length between two points) 621 of the straight line 620 connecting the first attention point 601 and the third attention point 603. Here, the apparent length of the straight line connecting the first attention point 601 and the second attention point 602 varies depending on whether the optical head 100 is not panned or panned. In the present embodiment, paying attention to this point, the information processing unit 210 detects the panning position (panning angle) of the optical head 100 by detecting the length between two horizontal points in the eye E to be examined. .

同様に、情報処理部210は、被検眼Eの網膜上(撮影画像/観察画像)における垂直方向の任意の2点を設定し、当該2点を結ぶ直線の長さの変化を考慮して当該2点間の長さを検出することで、光学ヘッド100のチルティング位置(チルティング角度)を検出する。   Similarly, the information processing unit 210 sets two arbitrary points in the vertical direction on the retina (captured image / observed image) of the eye E, and considers the change in the length of the straight line connecting the two points. By detecting the length between the two points, the tilting position (tilting angle) of the optical head 100 is detected.

次に、本実施形態に係る眼科撮影装置10の制御方法における処理手順について説明する。
図3−2は、本発明の第2の実施形態に係る眼科撮影装置10の制御方法における処理手順の一例を示すフローチャートである。なお、図3−2において、図3−1と同様の処理ステップについては同じステップ番号を付しており、その詳細な説明は省略する。図3−2のフローチャートの処理を開始するのに際しては、予め記憶部211には、各被検者ごとに、過去に被検眼Eを撮影した際の光学ヘッド100の撮影位置に係る撮影位置情報(第1の撮影位置情報)が記憶されているものとする。
Next, a processing procedure in the control method of the ophthalmologic photographing apparatus 10 according to the present embodiment will be described.
FIG. 3-2 is a flowchart illustrating an example of a processing procedure in the control method of the ophthalmologic photographing apparatus 10 according to the second embodiment of the present invention. In FIG. 3B, the same processing steps as those in FIG. 3A are denoted by the same step numbers, and detailed description thereof is omitted. When the processing of the flowchart of FIG. 3-2 is started, imaging position information relating to the imaging position of the optical head 100 when the eye E was previously captured is stored in the storage unit 211 in advance for each subject. It is assumed that (first shooting position information) is stored.

まず、図3−2では、図3−1に示すステップS101及びS102の処理を経る。   First, in FIG. 3B, the processing of steps S101 and S102 shown in FIG.

ステップS102の判断の結果、図4に示す被検者リスト401に、検査対象の被検者の情報がある場合には(S102/Yes)、ステップS201に進む。
ステップS201に進むと、情報処理部210は、記憶部211から、当該検査対象の被検者において過去に被検眼Eを撮影した際の光学ヘッド100の撮影位置に係る撮影位置情報(第1の撮影位置情報)を読み出す。ここで、図3−2に示す例では、撮影位置情報として、被検眼Eにおける水平方向及び垂直方向の各方向の、第1の注目点の位置、第2の注目点の位置及び2点間の長さの情報を読み出す。
As a result of the determination in step S102, if the subject list 401 shown in FIG. 4 includes information on the subject to be inspected (S102 / Yes), the process proceeds to step S201.
When the processing proceeds to step S201, the information processing unit 210 captures, from the storage unit 211, imaging position information (first image) related to the imaging position of the optical head 100 when the subject eye E has been imaged in the past. (Shooting position information) is read out. Here, in the example illustrated in FIG. 3B, as the imaging position information, the position of the first point of interest, the position of the second point of interest, and the distance between the two points in the horizontal direction and the vertical direction of the eye E to be examined. Read length information.

続いて、ステップS202において、情報処理部210は、現在の光学ヘッド100の撮影位置を検出する。ここで検出された撮影位置に係る撮影位置情報は、第2の撮影位置情報を構成する。具体的に、図3−2に示す例では、現在の被検眼Eにおける水平方向及び垂直方向の各方向の、第1の注目点の位置、第2の注目点の位置及び2点間の長さを検出する。   Subsequently, in step S202, the information processing unit 210 detects the current shooting position of the optical head 100. The photographing position information relating to the photographing position detected here constitutes second photographing position information. Specifically, in the example illustrated in FIG. 3B, the position of the first point of interest, the position of the second point of interest, and the length between the two points in the horizontal direction and the vertical direction of the current eye E to be examined. Detect.

続いて、ステップS203において、情報処理部210は、ステップS201で読み出した過去の被検眼Eにおける水平方向及び垂直方向の2点間の長さと、ステップS202で検出した現在の被検眼Eにおける水平方向及び垂直方向の2点間の長さとを比較し、それぞれが同じであるか否かを判断する。   Subsequently, in step S203, the information processing section 210 reads the length between two points in the horizontal direction and the vertical direction in the past eye E read in step S201 and the horizontal direction in the current eye E detected in step S202. And the length between two points in the vertical direction are compared to determine whether or not each is the same.

ステップS203の判断の結果、過去の被検眼Eにおける水平方向及び垂直方向の2点間の長さと、現在の被検眼Eにおける水平方向及び垂直方向の2点間の長さとが同じでない(即ち、異なる)場合には(S203/No)、ステップS204に進む。ここでは、過去の被検眼Eにおける水平方向の2点間の長さと現在の被検眼Eにおける水平方向の2点間の長さ、及び、過去の被検眼Eにおける垂直方向の2点間の長さと現在の被検眼Eにおける垂直方向の2点間の長さのうち、少なくともいずれか一方が異なる場合には、ステップS204に進む。
ステップS204に進むと、情報処理部210は、表示部212の撮影画面に、現在の光学ヘッド100のパンチルトを動かすように促す指標を表示する制御を行う。具体的に、本実施形態では、過去のパンチルト角度に対する現在のパンチルト角度のずれを示す指標を表示部212に表示する制御を行う。
As a result of the determination in step S203, the length between the two points in the horizontal direction and the vertical direction in the past eye E is not the same as the length between the two points in the horizontal direction and the vertical direction in the current eye E (that is, If not (S203 / No), the process proceeds to step S204. Here, the length between two horizontal points in the past eye E, the length between two horizontal points in the current eye E, and the length between two vertical points in the past eye E If at least one of the lengths between the two points in the vertical direction of the eye E to be examined is different, the process proceeds to step S204.
In step S <b> 204, the information processing unit 210 performs control to display an index that prompts the user to move the current pan / tilt of the optical head 100 on the shooting screen of the display unit 212. Specifically, in the present embodiment, control is performed to display an index indicating a deviation of the current pan / tilt angle with respect to the past pan / tilt angle on the display unit 212.

図5−2は、本発明の第2の実施形態を示し、図1−1の表示部212に表示される撮影画面520の一例を示す図である。この図5−2において、図5−1と同様の構成については同じ符号を付しており、その詳細な説明は省略する。
この撮影画面520には、指標521及び522が示されている。ここで、指標521はパンニングを促す指標であり、指標522はチルティングを促す指標である。この指標521及び522を表示することで、検者に対して、光学ヘッド100のパンチルト角度を変えるように促すことができる。具体的に、図5−2に示す例では、指標521は、その表示態様が長方形になっており、これは、パンニング角度が過去撮影と同じになっていることを示している。一方、図5−2に示す例では、指標522は、その表示態様が台形形状になっており、これは、チルティング角度が過去撮影と同じになっていないことを示している。ここで、本実施形態では、過去のパンチルト角度に対する現在のパンチルト角度のずれ量を少なくする方向に検者にパンチルトさせるように、例えば、指標522では、当該方向を台形形状の先細っている側で示している。これらの表示により、検者は、パンチルト角度が過去撮影と同じになっているかどうかを視覚的に認識することができる。
FIG. 5B is a diagram illustrating an example of the shooting screen 520 displayed on the display unit 212 of FIG. 1-1 according to the second embodiment of the present invention. 5B, the same reference numerals are given to the same components as those in FIG. 5A, and detailed description thereof will be omitted.
In this shooting screen 520, indexes 521 and 522 are shown. Here, the index 521 is an index for promoting panning, and the index 522 is an index for promoting tilting. By displaying the indicators 521 and 522, the examiner can be prompted to change the pan / tilt angle of the optical head 100. Specifically, in the example illustrated in FIG. 5B, the indicator 521 has a rectangular display mode, which indicates that the panning angle is the same as that in the past shooting. On the other hand, in the example illustrated in FIG. 5B, the indicator 522 has a trapezoidal display mode, which indicates that the tilting angle is not the same as in the past shooting. Here, in the present embodiment, for example, in the index 522, the direction in which the direction of the trapezoid is tapered is set so that the examiner pans and tilts in a direction to reduce the deviation amount of the current pan / tilt angle with respect to the past pan / tilt angle. Is shown. By these displays, the examiner can visually recognize whether or not the pan / tilt angle is the same as that in the past photographing.

ここで、再び、図3−2の説明に戻る。
ステップS204の処理が終了すると、ステップS202に戻る。そして、ステップS202以降の処理が再度行われる。このステップS202〜S204のループは、ステップS203において、過去の被検眼Eにおける水平方向及び垂直方向の2点間の長さと、現在の被検眼Eにおける水平方向及び垂直方向の2点間の長さとが同じであると判断されるまで繰り返される。
Here, it returns to description of FIG. 3-2 again.
When the process of step S204 ends, the process returns to step S202. And the process after step S202 is performed again. In step S203, the loop of steps S202 to S204 includes the length between two points in the horizontal direction and the vertical direction in the past eye E and the length between two points in the horizontal direction and the vertical direction in the current eye E. Is repeated until it is determined that they are the same.

ステップS107の処理が終了した場合、或いは、ステップS203で過去の被検眼Eにおける水平方向及び垂直方向の2点間の長さと、現在の被検眼Eにおける水平方向及び垂直方向の2点間の長さとが同じであると判断された場合には(S203/Yes)、ステップS108に進む。
ステップS108に進むと、情報処理部210は、当該検査対象の被検者における被検眼Eの撮影を実行する制御を行う。この撮影制御を行う情報処理部210は、撮影制御手段を構成する。
When the process of step S107 is completed, or in step S203, the length between two points in the horizontal direction and the vertical direction in the past eye E in the past and the length between two points in the horizontal direction and the vertical direction in the current eye E in the past. When it is determined that they are the same (S203 / Yes), the process proceeds to step S108.
In step S108, the information processing unit 210 performs control to execute imaging of the eye E to be examined by the subject to be examined. The information processing unit 210 that performs the shooting control constitutes a shooting control unit.

続いて、ステップS205において、情報処理部210は、ステップS108の撮影により得られた撮影画像と対応付けて、ステップS202で検出した撮影位置情報である第2の撮影位置情報(被検眼Eにおける水平方向及び垂直方向の各方向の、第1の注目点の位置、第2の注目点の位置及び2点間の長さ)を記憶部211に記憶して保存する。   Subsequently, in step S205, the information processing unit 210 associates with the photographed image obtained by the photographing in step S108 and associates with the second photographing position information (horizontal in the eye E to be examined) that is the photographing position information detected in step S202. The position of the first point of interest, the position of the second point of interest, and the length between the two points) in each of the direction and the vertical direction are stored in the storage unit 211 and stored.

ステップS205の処理が終了すると、図3−2のフローチャートの処理が終了する。   When the process of step S205 ends, the process of the flowchart of FIG. 3-2 ends.

第2の実施形態によれば、被検眼Eの経過観察を行う場合に、過去に撮影した過去画像の場合と同じ光学ヘッド100の撮影位置で撮影を行うことができる。これにより、過去の撮影と同様の位置に被検眼Eを固定できれば、過去に撮影した過去画像と同一の被検眼Eの部位を撮影することができるため、被検眼Eの経過観察を行う場合に、適正な評価を行うことが可能となる。   According to the second embodiment, when performing the follow-up observation of the eye E, it is possible to perform imaging at the same imaging position of the optical head 100 as in the case of past images captured in the past. As a result, if the eye E can be fixed at the same position as the past imaging, the same part of the eye E as the past image captured in the past can be imaged. It is possible to perform an appropriate evaluation.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

上述した第1の実施形態では、チルティング位置(チルティング角度)及びパンニング位置(パンニング角度)の情報を、エンコーダーやポテンショメーターを用いて取得する形態であった。しかしながら、本発明においてはこの形態に限定されるものではない。第3の実施形態では、第2の実施形態と同様に、チルティング位置(チルティング角度)及びパンニング位置(パンニング角度)の情報を、被検眼Eの撮影画像または観察画像から取得する形態を採る。   In the first embodiment described above, the information about the tilting position (tilting angle) and the panning position (panning angle) is acquired using an encoder or a potentiometer. However, the present invention is not limited to this form. In the third embodiment, as in the second embodiment, the information about the tilting position (tilting angle) and the panning position (panning angle) is acquired from the captured image or observation image of the eye E. .

第3の実施形態に係る眼科撮影装置の外観構成は、上述した図1−1に示す第1の実施形態に係る眼科撮影装置10の外観構成と同様である。また、第3の実施形態における光学ヘッド100の内部構成は、上述した図1−2に示す第1の実施形態における光学ヘッド100の内部構成と同様である。なお、第3の実施形態に係る眼科撮影装置10には、上述した第1の実施形態におけるエンコーダー等を備えないこととしてもよいし、また備えることとしてもよい。   The external configuration of the ophthalmic imaging apparatus according to the third embodiment is the same as the external configuration of the ophthalmic imaging apparatus 10 according to the first embodiment shown in FIG. The internal configuration of the optical head 100 in the third embodiment is the same as the internal configuration of the optical head 100 in the first embodiment shown in FIG. The ophthalmologic photographing apparatus 10 according to the third embodiment may or may not include the encoder or the like in the first embodiment described above.

次に、本実施形態におけるフォローアップ撮影時の処理について説明する。   Next, processing at the time of follow-up shooting in the present embodiment will be described.

図7は、本発明の第3の実施形態を示し、図1−1に示すチルティング機構部201による光学ヘッド100のチルティング角度の検出方法を説明するための図である。   FIG. 7 shows the third embodiment of the present invention, and is a diagram for explaining a method of detecting the tilting angle of the optical head 100 by the tilting mechanism unit 201 shown in FIG. 1-1.

図7(a)において、注目領域710は、撮影画像中または観察画像中の被検眼における任意の領域である。光学ヘッド100を被検眼Eに対してチルティングさせた場合、図7(a)に示す注目領域710は、図7(b)に示す注目領域720に示すように見かけ上つぶれた円になる。本実施形態では、注目領域710の縦方向の長さ711と注目領域720の縦方向の長さ721の変化に着目し、情報処理部210は、画像中の被検眼における注目領域の縦方向の長さを検出することで、光学ヘッド100のチルティング位置(チルティング角度)を検出する。   In FIG. 7A, the attention area 710 is an arbitrary area in the eye to be examined in the captured image or the observation image. When the optical head 100 is tilted with respect to the eye E, the attention area 710 shown in FIG. 7A becomes an apparently collapsed circle as shown in the attention area 720 shown in FIG. 7B. In this embodiment, paying attention to the change in the vertical length 711 of the attention area 710 and the vertical length 721 of the attention area 720, the information processing unit 210 performs the vertical movement of the attention area in the eye to be examined in the image. By detecting the length, the tilting position (tilting angle) of the optical head 100 is detected.

同様に、情報処理部210は、画像中の被検眼における注目領域の横方向の長さを検出することで、光学ヘッド100のパンニング位置(パンニング角度)を検出する。   Similarly, the information processing unit 210 detects the panning position (panning angle) of the optical head 100 by detecting the horizontal length of the region of interest in the eye to be examined in the image.

次に、本実施形態に係る眼科撮影装置10の制御方法における処理手順について説明する。
図3−3は、本発明の第3の実施形態に係る眼科撮影装置10の制御方法における処理手順の一例を示すフローチャートである。なお、図3−3において、図3−1と同様の処理ステップについては同じステップ番号を付しており、その詳細な説明は省略する。図3−3のフローチャートの処理を開始するのに際しては、予め記憶部211には、各被検者ごとに、過去に被検眼Eを撮影した際の光学ヘッド100の撮影位置に係る撮影位置情報(第1の撮影位置情報)が記憶されているものとする。
Next, a processing procedure in the control method of the ophthalmologic photographing apparatus 10 according to the present embodiment will be described.
FIG. 3-3 is a flowchart illustrating an example of a processing procedure in the control method of the ophthalmologic photographing apparatus 10 according to the third embodiment of the present invention. In FIG. 3C, the same processing steps as those in FIG. 3A are denoted by the same step numbers, and detailed description thereof is omitted. When starting the processing of the flowchart of FIG. 3C, the storage unit 211 stores in advance the imaging position information related to the imaging position of the optical head 100 when the eye E is captured in the past for each subject. It is assumed that (first shooting position information) is stored.

まず、図3−3では、図3−1に示すステップS101及びS102の処理を経る。   First, in FIG. 3C, the process of steps S101 and S102 shown in FIG.

ステップS102の判断の結果、図4に示す被検者リスト401に、検査対象の被検者の情報がある場合には(S102/Yes)、ステップS301に進む。
ステップS301に進むと、情報処理部210は、記憶部211から、当該検査対象の被検者において過去に被検眼Eを撮影した際の光学ヘッド100の撮影位置に係る撮影位置情報(第1の撮影位置情報)を読み出す。ここで、図3−3に示す例では、撮影位置情報として、被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さの情報を読み出す。
As a result of the determination in step S102, when the subject list 401 shown in FIG. 4 includes information on the subject to be inspected (S102 / Yes), the process proceeds to step S301.
When the processing proceeds to step S301, the information processing unit 210 captures from the storage unit 211 imaging position information (first image) related to the imaging position of the optical head 100 when the subject E to be inspected previously images the eye E to be examined. (Shooting position information) is read out. Here, in the example illustrated in FIG. 3C, information on the length in the vertical direction and the length in the horizontal direction of the region of interest in the eye E is read as the imaging position information.

続いて、ステップS302において、情報処理部210は、現在の光学ヘッド100の撮影位置を検出する。ここで検出された撮影位置に係る撮影位置情報は、第2の撮影位置情報を構成する。具体的に、図3−3に示す例では、現在の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さを検出する。   Subsequently, in step S302, the information processing unit 210 detects the current shooting position of the optical head 100. The photographing position information relating to the photographing position detected here constitutes second photographing position information. Specifically, in the example illustrated in FIG. 3C, the vertical length and the horizontal length of the attention area in the current eye E are detected.

続いて、ステップS303において、情報処理部210は、ステップS301で読み出した過去の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さと、ステップS302で検出した現在の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さとを比較し、それぞれが同じであるか否かを判断する。   Subsequently, in step S303, the information processing unit 210 performs the vertical length and the horizontal length of the attention area in the past eye E read in step S301 and the current eye E detected in step S302. The length in the vertical direction and the length in the horizontal direction of the attention area are compared, and it is determined whether or not they are the same.

ステップS303の判断の結果、過去の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さと、現在の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さとが同じでない(即ち、異なる)場合には(S303/No)、ステップS304に進む。ここでは、過去の被検眼Eにおける注目領域の縦方向の長さと現在の被検眼Eにおける注目領域の縦方向の長さ、及び、過去の被検眼Eにおける注目領域の横方向の長さと現在の被検眼Eにおける注目領域の横方向の長さのうち、少なくともいずれか一方が異なる場合には、ステップS304に進む。
ステップS304に進むと、情報処理部210は、表示部212の撮影画面に、現在の光学ヘッド100のパンチルトを動かすように促す指標を表示する制御を行う。具体的に、本実施形態では、過去のパンチルト角度に対する現在のパンチルト角度のずれを示す指標を表示部212に表示する制御を行う。
As a result of the determination in step S303, the vertical length and the horizontal length of the attention area in the past eye E are the same as the vertical length and the horizontal length of the attention area in the current eye E. If not (ie, different) (S303 / No), the process proceeds to step S304. Here, the vertical length of the attention area in the past eye E and the vertical length of the attention area in the current eye E, and the horizontal length of the attention area in the past eye E and the current length. If at least one of the horizontal lengths of the region of interest in the eye E is different, the process proceeds to step S304.
In step S304, the information processing unit 210 performs control to display an index that prompts the user to move the current pan / tilt of the optical head 100 on the photographing screen of the display unit 212. Specifically, in the present embodiment, control is performed to display an index indicating a deviation of the current pan / tilt angle with respect to the past pan / tilt angle on the display unit 212.

図5−3は、本発明の第3の実施形態を示し、図1−1の表示部212に表示される撮影画面530の一例を示す図である。この図5−3において、図5−1と同様の構成については同じ符号を付しており、その詳細な説明は省略する。
この撮影画面530には、指標531及び532が示されている。ここで、指標531は、パンニングを促す指標であり、図5−3に示す例では過去画像とのパンニング角度のずれ角度を示している。また、指標532は、チルティングを促す指標であり、図5−3に示す例では過去画像とのチルティング角度のずれ角度を示している。この指標531及び532を表示することで、検者に対して、光学ヘッド100のパンチルト角度を変えるように促すことができる。なお、図5−3に示す指標531及び532では、過去画像に対するずれ角度を示しているが、本実施形態においてはこの態様に限定されるものではなく、例えば、光学ヘッド100の絶対座標に対する角度を示すようにしてもよい。この場合、過去画像の絶対座標に対する角度と現在の絶対座標に対する角度を表示する態様を採る。
FIG. 5C is a diagram illustrating an example of the shooting screen 530 displayed on the display unit 212 of FIG. 1-1 according to the third embodiment of the present invention. 5C, the same reference numerals are given to the same components as those in FIG. 5A, and detailed description thereof is omitted.
In this photographing screen 530, indicators 531 and 532 are shown. Here, the index 531 is an index that promotes panning, and in the example illustrated in FIG. 5C, the deviation angle of the panning angle from the past image is illustrated. An index 532 is an index that promotes tilting. In the example illustrated in FIG. 5C, the tilt angle shifts from the past image. Displaying the indicators 531 and 532 can prompt the examiner to change the pan / tilt angle of the optical head 100. Note that the indices 531 and 532 illustrated in FIG. 5C indicate the shift angle with respect to the past image. However, the present embodiment is not limited to this mode. For example, the angle with respect to the absolute coordinates of the optical head 100 is not limited. May be shown. In this case, the aspect which displays the angle with respect to the absolute coordinate of the past image, and the angle with respect to the current absolute coordinate is taken.

ここで、再び、図3−3の説明に戻る。
ステップS304の処理が終了すると、ステップS302に戻る。そして、ステップS302以降の処理が再度行われる。このステップS302〜S304のループは、ステップS303において、過去の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さと、現在の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さとが、それぞれ同じであると判断されるまで繰り返される。
Here, the description returns to FIG. 3-3 again.
When the process of step S304 ends, the process returns to step S302. And the process after step S302 is performed again. In step S303, the loop of steps S302 to S304 includes the vertical length and horizontal length of the attention area in the past eye E, and the vertical length and horizontal length of the attention area in the current eye E. The process is repeated until it is determined that the lengths of the directions are the same.

ステップS107の処理が終了した場合、或いは、ステップS303で過去の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さと、現在の被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さとが、それぞれ同じであると判断された場合には(S303/Yes)、ステップS108に進む。
ステップS108に進むと、情報処理部210は、当該検査対象の被検者における被検眼Eの撮影を実行する制御を行う。この撮影制御を行う情報処理部210は、撮影制御手段を構成する。
When the process of step S107 is completed, or in step S303, the vertical length and the horizontal length of the attention area in the past eye E, and the vertical length of the attention area in the current eye E and When it is determined that the horizontal lengths are the same (S303 / Yes), the process proceeds to step S108.
In step S108, the information processing unit 210 performs control to execute imaging of the eye E to be examined by the subject to be examined. The information processing unit 210 that performs the shooting control constitutes a shooting control unit.

続いて、ステップS305において、情報処理部210は、ステップS108の撮影により得られた撮影画像と対応付けて、ステップS302で検出した撮影位置情報である第2の撮影位置情報(被検眼Eにおける注目領域の縦方向の長さ及び横方向の長さ)を記憶部211に記憶して保存する。   Subsequently, in step S305, the information processing unit 210 associates with the photographed image obtained by the photographing in step S108 and associates with the second photographing position information (the attention in the eye E) detected as the photographing position information detected in step S302. The vertical length and the horizontal length of the region are stored in the storage unit 211 and stored.

ステップS305の処理が終了すると、図3−3のフローチャートの処理が終了する。   When the process of step S305 ends, the process of the flowchart of FIG. 3-3 ends.

第3の実施形態によれば、被検眼Eの経過観察を行う場合に、過去に撮影した過去画像の場合と同じ光学ヘッド100の撮影位置で撮影を行うことができる。これにより、過去の撮影と同様の位置に被検眼Eを固定できれば、過去に撮影した過去画像と同一の被検眼Eの部位を撮影することができるため、被検眼Eの経過観察を行う場合に、適正な評価を行うことが可能となる。   According to the third embodiment, when performing the follow-up observation of the eye E, it is possible to perform imaging at the same imaging position of the optical head 100 as in the case of past images captured in the past. As a result, if the eye E can be fixed at the same position as the past imaging, the same part of the eye E as the past image captured in the past can be imaged. It is possible to perform an appropriate evaluation.

(その他の実施形態)
上述した本発明の各実施形態では、光学ヘッド100の角度検出方法と撮影画面上での検者への角度ずれ表示方法とを1対1で説明したが、光学ヘッド100の角度検出方法と撮影画面上での検者への角度ずれ表示方法とは別の組み合わせであってもよい。例えば、第1の実施形態における光学ヘッド100の角度検出方法と第2または第3の実施形態における撮影画面上での検者への角度ずれ表示方法とを組み合わせることとしてもよい。また、第2の実施形態における光学ヘッド100の角度検出方法と第1または第3の実施形態における撮影画面上での検者への角度ずれ表示方法とを組み合わせることとしてもよい。さらに、第3の実施形態における光学ヘッド100の角度検出方法と第1または第2の実施形態における撮影画面上での検者への角度ずれ表示方法とを組み合わせることとしてもよい。
(Other embodiments)
In each of the embodiments of the present invention described above, the angle detection method of the optical head 100 and the angle shift display method to the examiner on the shooting screen have been explained on a one-to-one basis. A combination other than the method of displaying the angle deviation to the examiner on the screen may be used. For example, the angle detection method for the optical head 100 in the first embodiment may be combined with the method for displaying the angle shift to the examiner on the imaging screen in the second or third embodiment. Further, the angle detection method of the optical head 100 in the second embodiment may be combined with the method of displaying the angle deviation to the examiner on the photographing screen in the first or third embodiment. Furthermore, the angle detection method of the optical head 100 according to the third embodiment may be combined with the angle deviation display method for the examiner on the photographing screen according to the first or second embodiment.

また、第1乃至第3の実施形態における光学ヘッド100の角度検出方法を組み合わせる形態も、本発明に適用可能である。この形態を採用する場合、例えば、第1の実施形態における光学ヘッド100の角度検出方法を用いて粗い検出を行い、その後、第2または第3の実施形態における光学ヘッド100の角度検出方法を用いて詳細な検出を行う。そして、この場合、第1の実施形態における図3−1のステップS105を、過去のパンチルト角度に対する現在のパンチルト角度のずれ量が閾値以内に入ったことを判定するステップとし、このステップS105において当該ずれ量が閾値以内に入ったと判定されたときに、第2の実施形態における図3−2のステップS203または第3の実施形態における図3−3のステップS303の当該ずれ量の判定を行うようにしてもよい。また、当該形態を採用する場合、上述したずれ量を表示する方法としては、例えば、図5−1に示す指標511及び512を使用し続けてもよいし、或いは、光学ヘッド100の角度検出方法が変更されたことを明らかにするために図5−2に示す指標521及び522または図5−3に示す指標531及び532に変更するようにしてもよい。さらに、この場合、図5−1に示す指標511及び512と合わせて、図5−2に示す指標521及び522または図5−3に示す指標531及び532を表示するようにしてもよい。   In addition, a combination of the angle detection methods of the optical head 100 in the first to third embodiments is also applicable to the present invention. When this mode is adopted, for example, rough detection is performed using the angle detection method of the optical head 100 in the first embodiment, and then the angle detection method of the optical head 100 in the second or third embodiment is used. Detailed detection. In this case, step S105 of FIG. 3-1 in the first embodiment is a step of determining that the deviation amount of the current pan / tilt angle with respect to the past pan / tilt angle is within the threshold value. When it is determined that the deviation amount is within the threshold, the deviation amount is determined in step S203 of FIG. 3-2 in the second embodiment or in step S303 of FIG. 3-3 in the third embodiment. It may be. Further, in the case of adopting the form, as a method of displaying the above-described deviation amount, for example, the indicators 511 and 512 shown in FIG. 5A may be continuously used, or the angle detection method of the optical head 100 may be used. May be changed to the indicators 521 and 522 shown in FIG. 5-2 or the indicators 531 and 532 shown in FIG. Further, in this case, the indicators 521 and 522 shown in FIG. 5-2 or the indicators 531 and 532 shown in FIG. 5-3 may be displayed together with the indicators 511 and 512 shown in FIG.

また、上述した本発明の各実施形態では、断層画像を撮影する際にSS(Swept Source)−OCTを用いることを想定した説明を行ったが、本発明においてはこれに限定されるものではない。例えば、断層画像を撮影する際に、SD(Spectral Domain)−OCTやTD(Time Domain)−OCTを用いてもよい。   Further, in each of the above-described embodiments of the present invention, description has been made assuming that SS (Swept Source) -OCT is used when taking a tomographic image. However, the present invention is not limited to this. . For example, when capturing a tomographic image, SD (Spectral Domain) -OCT or TD (Time Domain) -OCT may be used.

さらに、上述した本発明の各実施形態では、被検眼Eの眼底部を観察するために、SLOを用いることを想定した説明を行ったが、例えばSLOに代えて眼底カメラやAO−SLO等を用いることとしてもよい。   Furthermore, in each of the above-described embodiments of the present invention, the description has been made assuming that the SLO is used for observing the fundus of the eye E. It may be used.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
This program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that the above-described embodiments of the present invention are merely examples of implementation in practicing the present invention, and the technical scope of the present invention should not be construed as being limited thereto. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

10 眼科撮影装置、100 光学ヘッド、200 ステージ部、201 チルティング機構部、202 パンニング機構部、203 ベース部、204 ジョイスティック、210 情報処理部、211 記憶部、212 表示部、213 入力部、300 被検眼位置固定部、301 顎受け部、302 額当て部、303 目高線、304 外部固視灯 DESCRIPTION OF SYMBOLS 10 Ophthalmic imaging device, 100 Optical head, 200 Stage part, 201 Tilting mechanism part, 202 Panning mechanism part, 203 Base part, 204 Joystick, 210 Information processing part, 211 Storage part, 212 Display part, 213 Input part, 300 Cover Optometry position fixing part, 301 chin rest part, 302 forehead rest part, 303 eye height line, 304 external fixation lamp

Claims (10)

被検眼を撮影するための光学系を含む光学ヘッドを備える眼科撮影装置であって、
前記光学ヘッドの撮影位置を検出する検出手段と、
前記被検眼を過去に撮影した際に前記検出手段で検出された前記光学ヘッドの撮影位置に係る第1の撮影位置情報を記憶する記憶手段と、
前記第1の撮影位置情報と、前記検出手段で検出された現在の前記光学ヘッドの撮影位置に係る第2の撮影位置情報とを比較する比較手段と、
前記比較手段による比較の結果を表示部に表示させる表示制御手段と
を有することを特徴とする眼科撮影装置。
An ophthalmologic photographing apparatus including an optical head including an optical system for photographing an eye to be examined,
Detecting means for detecting a photographing position of the optical head;
Storage means for storing first imaging position information relating to the imaging position of the optical head detected by the detection means when the eye to be examined has been imaged in the past;
Comparing means for comparing the first shooting position information with the second shooting position information relating to the current shooting position of the optical head detected by the detection means;
An ophthalmologic photographing apparatus comprising: a display control unit that displays a result of comparison by the comparison unit on a display unit.
当該眼科撮影装置は、前記光学ヘッドを垂直方向にチルティングさせるためのチルティング機構と、前記光学ヘッドを水平方向にパンニングさせるためのパンニング機構とを更に備えて構成されており、
前記検出手段は、前記光学ヘッドの撮影位置として、前記チルティング機構による前記光学ヘッドのチルティング位置および前記パンニング機構による前記光学ヘッドのパンニング位置を検出することを特徴とする請求項1に記載の眼科撮影装置。
The ophthalmologic photographing apparatus further includes a tilting mechanism for tilting the optical head in the vertical direction, and a panning mechanism for panning the optical head in the horizontal direction.
2. The detection unit according to claim 1, wherein the detection unit detects a tilting position of the optical head by the tilting mechanism and a panning position of the optical head by the panning mechanism as a photographing position of the optical head. Ophthalmic photography device.
前記検出手段は、前記被検眼における水平方向の2点間の長さおよび前記被検眼における垂直方向の2点間の長さを検出することで前記光学ヘッドの撮影位置を検出することを特徴とする請求項1または2に記載の眼科撮影装置。   The detection means detects a photographing position of the optical head by detecting a length between two points in the horizontal direction in the eye to be examined and a length between two points in the vertical direction in the eye to be examined. The ophthalmologic photographing apparatus according to claim 1 or 2. 前記検出手段は、前記被検眼における注目領域の縦方向の長さおよび横方向の長さを検出することで前記光学ヘッドの撮影位置を検出することを特徴とする請求項1または2に記載の眼科撮影装置。   The detection unit detects a photographing position of the optical head by detecting a vertical length and a horizontal length of a region of interest in the eye to be examined. Ophthalmic photography device. 前記表示制御手段は、前記比較手段による比較の結果、前記第1の撮影位置情報と前記第2の撮影位置情報とが異なる場合に、前記第1の撮影位置情報に対する前記第2の撮影位置情報のずれを示す指標を前記表示部に表示させることを特徴とする請求項1乃至4のいずれか1項に記載の眼科撮影装置。   The display control means, when the first photographing position information is different from the second photographing position information as a result of the comparison by the comparing means, the second photographing position information with respect to the first photographing position information. The ophthalmologic photographing apparatus according to any one of claims 1 to 4, wherein an index indicating a deviation is displayed on the display unit. 前記指標は、前記第1の撮影位置情報に対する前記第2の撮影位置情報のずれ量を少なくする方向を示すものであることを特徴とする請求項5に記載の眼科撮影装置。   The ophthalmologic photographing apparatus according to claim 5, wherein the index indicates a direction in which a shift amount of the second photographing position information with respect to the first photographing position information is reduced. 前記記憶手段は、前記被検眼を過去に撮影した際に得られた撮影画像と対応付けて前記第1の撮影位置情報を記憶することを特徴とする請求項1乃至6のいずれか1項に記載の眼科撮影装置。   7. The storage device according to claim 1, wherein the storage unit stores the first imaging position information in association with a captured image obtained when the eye to be examined has been captured in the past. The ophthalmic imaging apparatus described. 前記比較手段による比較の結果、前記第1の撮影位置情報と前記第2の撮影位置情報とが同じである場合に、前記光学ヘッドによる撮影を実行する制御を行う撮影制御手段を更に有することを特徴とする請求項1乃至7のいずれか1項に記載の眼科撮影装置。   When the first photographing position information and the second photographing position information are the same as a result of the comparison by the comparison means, the photographing control means further includes a photographing control unit that performs control for performing photographing by the optical head. The ophthalmologic photographing apparatus according to claim 1, wherein the ophthalmologic photographing apparatus is characterized. 被検眼を撮影するための光学系を含む光学ヘッドを備える眼科撮影装置の制御方法であって、
前記光学ヘッドの撮影位置を検出手段で検出する検出ステップと、
前記被検眼を過去に撮影した際に前記検出手段で検出された前記光学ヘッドの撮影位置に係る第1の撮影位置情報を記憶手段に記憶する記憶ステップと、
前記第1の撮影位置情報と、前記検出手段で検出された現在の前記光学ヘッドの撮影位置に係る第2の撮影位置情報とを比較する比較ステップと、
前記比較ステップによる比較の結果を表示部に表示させる表示制御ステップと
を有することを特徴とする眼科撮影装置の制御方法。
A method for controlling an ophthalmologic photographing apparatus including an optical head including an optical system for photographing an eye to be examined,
A detecting step of detecting a photographing position of the optical head by a detecting means;
A storage step of storing, in a storage unit, first imaging position information relating to the imaging position of the optical head detected by the detection unit when the eye to be examined has been imaged in the past;
A comparison step of comparing the first shooting position information with the second shooting position information relating to the current shooting position of the optical head detected by the detection unit;
And a display control step of displaying a result of the comparison in the comparison step on a display unit.
被検眼を撮影するための光学系を含む光学ヘッドを備える眼科撮影装置の制御方法をコンピュータに実行させるためのプログラムであって、
前記光学ヘッドの撮影位置を検出手段で検出する検出ステップと、
前記被検眼を過去に撮影した際に前記検出手段で検出された前記光学ヘッドの撮影位置に係る第1の撮影位置情報を記憶手段に記憶する記憶ステップと、
前記第1の撮影位置情報と、前記検出手段で検出された現在の前記光学ヘッドの撮影位置に係る第2の撮影位置情報とを比較する比較ステップと、
前記比較ステップによる比較の結果を表示部に表示させる表示制御ステップと
をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a method for controlling an ophthalmologic photographing apparatus including an optical head including an optical system for photographing a subject eye,
A detecting step of detecting a photographing position of the optical head by a detecting means;
A storage step of storing, in a storage unit, first imaging position information relating to the imaging position of the optical head detected by the detection unit when the eye to be examined has been imaged in the past;
A comparison step of comparing the first shooting position information with the second shooting position information relating to the current shooting position of the optical head detected by the detection unit;
A program for causing a computer to execute a display control step for displaying a result of comparison in the comparison step on a display unit.
JP2015215000A 2015-10-30 2015-10-30 Ophthalmic imaging apparatus, control method therefor, and program Active JP6624890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015215000A JP6624890B2 (en) 2015-10-30 2015-10-30 Ophthalmic imaging apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015215000A JP6624890B2 (en) 2015-10-30 2015-10-30 Ophthalmic imaging apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2017080325A true JP2017080325A (en) 2017-05-18
JP6624890B2 JP6624890B2 (en) 2019-12-25

Family

ID=58714391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015215000A Active JP6624890B2 (en) 2015-10-30 2015-10-30 Ophthalmic imaging apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6624890B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08238222A (en) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd Apparatus for recognizing line of gaze
JPH10262931A (en) * 1997-03-28 1998-10-06 Topcon Corp Ophthalmologic image processor
JP2002051984A (en) * 2000-08-10 2002-02-19 Canon Inc Vision fixation guiding system of ophthalmologic instrument
JP2007252692A (en) * 2006-03-24 2007-10-04 Topcon Corp Eyeground observation apparatus
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus
JP2013255533A (en) * 2012-06-11 2013-12-26 Topcon Corp Ophthalmologic photographing apparatus and ophthalmologic image processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08238222A (en) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd Apparatus for recognizing line of gaze
JPH10262931A (en) * 1997-03-28 1998-10-06 Topcon Corp Ophthalmologic image processor
JP2002051984A (en) * 2000-08-10 2002-02-19 Canon Inc Vision fixation guiding system of ophthalmologic instrument
JP2007252692A (en) * 2006-03-24 2007-10-04 Topcon Corp Eyeground observation apparatus
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus
JP2013255533A (en) * 2012-06-11 2013-12-26 Topcon Corp Ophthalmologic photographing apparatus and ophthalmologic image processor

Also Published As

Publication number Publication date
JP6624890B2 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
JP5061380B2 (en) Fundus observation apparatus, ophthalmologic image display apparatus, and program
US8967804B2 (en) Ophthalmic apparatus, ophthalmic apparatus control method and storage medium
JP4823693B2 (en) Optical image measuring device
JP5210442B1 (en) Optical tomographic imaging apparatus and control method
JP5210443B1 (en) Optical tomographic imaging apparatus and control method
JP6115073B2 (en) Ophthalmic photographing apparatus and ophthalmic photographing program
US11026570B2 (en) Information processing apparatus
JP2010151704A (en) Imaging apparatus and imaging method of optical tomographic image
JP6184113B2 (en) Optical tomographic imaging apparatus and control method thereof
JP2013208158A (en) Image display device, image display method, and program
JP2014147500A (en) Light tomographic device and method for controlling the same
JP2014045901A (en) Image processor, and image processing method
JP6188339B2 (en) Optical tomographic imaging apparatus and control method thereof
JP6633468B2 (en) Blood flow measurement device
JP2017158836A (en) Ophthalmologic apparatus and imaging method
JP6260733B2 (en) Ophthalmic photographing apparatus and ophthalmic photographing program
JP6906898B2 (en) Ophthalmologic imaging equipment
JP6624890B2 (en) Ophthalmic imaging apparatus, control method therefor, and program
JP5913519B2 (en) Fundus observation device
JP6780081B2 (en) Information processing device and information processing method
JP2012176162A (en) Fundus oculi observing device
JP6308723B2 (en) CONTROL DEVICE, ITS OPERATION METHOD, AND PROGRAM
JP6701250B2 (en) Ophthalmic photographing apparatus, control method thereof, and program
JP2017070635A (en) Ophthalmologic apparatus and control method of ophthalmologic apparatus
JP7013134B2 (en) Information processing equipment, information processing methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R151 Written notification of patent or utility model registration

Ref document number: 6624890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151