JP2019118422A - Ophthalmologic imaging apparatus, control method therefor, program, and recording medium - Google Patents

Ophthalmologic imaging apparatus, control method therefor, program, and recording medium Download PDF

Info

Publication number
JP2019118422A
JP2019118422A JP2017253044A JP2017253044A JP2019118422A JP 2019118422 A JP2019118422 A JP 2019118422A JP 2017253044 A JP2017253044 A JP 2017253044A JP 2017253044 A JP2017253044 A JP 2017253044A JP 2019118422 A JP2019118422 A JP 2019118422A
Authority
JP
Japan
Prior art keywords
fixation
image
fundus
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017253044A
Other languages
Japanese (ja)
Other versions
JP6954831B2 (en
Inventor
俊輔 中村
Shunsuke Nakamura
俊輔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017253044A priority Critical patent/JP6954831B2/en
Publication of JP2019118422A publication Critical patent/JP2019118422A/en
Application granted granted Critical
Publication of JP6954831B2 publication Critical patent/JP6954831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To appropriately set a plurality of fixation positions for acquiring a mosaic image using OCT, regardless of an individual difference in an eyeball.SOLUTION: A control unit of an ophthalmologic imaging apparatus according to the embodiment controls a fixation system and an image acquisition unit such that a front image of an eyeground is repeatedly acquired while fixation marks are moved. A drawing position determination unit analyzes a sequentially acquired front image to determine whether a predetermined site of the eyeground is drawn within a predetermined region of the front image. When it is determined that the predetermined site is drawn within the predetermined region, a fixation position setting unit sets a fixation position on the basis of the position of the fixation mark when the front image was acquired. The control unit controls the fixation system such that the fixation system sequentially presents a plurality of fixation marks corresponding to a plurality of fixation positions including the fixation position, and causes the OCT image acquisition unit to acquire a three-dimensional image of the eyeground while each of the fixation marks is presented. A combine processing unit creates a combined image of a plurality of three-dimensional images corresponding to the plurality of fixation positions.SELECTED DRAWING: Figure 5

Description

本発明は、眼科撮影装置、その制御方法、プログラム、及び記録媒体に関する。   The present invention relates to an ophthalmologic imaging apparatus, a control method thereof, a program, and a recording medium.

眼科分野において画像診断は重要な位置を占める。近年では光コヒーレンストモグラフィ(OCT)の活用が進んでいる。OCTは、被検眼のBスキャン画像や3次元画像の取得だけでなく、Cスキャン画像やシャドウグラムなどの正面画像(en−face画像)の取得にも利用されるようになってきている。   Diagnostic imaging occupies an important position in the field of ophthalmology. In recent years, utilization of optical coherence tomography (OCT) has been advanced. The OCT has come to be used not only for acquiring B-scan images and three-dimensional images of an eye to be examined but also for acquiring front images (en-face images) such as C-scan images and shadowgrams.

また、被検眼の特定部位を強調した画像を取得するモダリティも実用化されている。例えば、網膜血管や脈絡膜血管が強調された画像を形成するOCT血管造影(OCT−Angiography)が注目を集めている(例えば、特許文献1を参照)。一般に、スキャン部位の組織(構造)は時間的に不変であるが、血管内部の血流部分は時間的に変化する。OCT血管造影では、このような時間的変化が存在する部分(血流信号)を強調して画像を形成する。なお、OCT血管造影は、OCTモーションコントラスト撮影(motion contrast imaging)などとも呼ばれる。また、OCT血管造影により取得される画像は、血管造影画像、アンジオグラム、モーションコントラスト画像などと呼ばれる。   In addition, a modality for acquiring an image in which a specific part of an eye to be examined is emphasized has also been put to practical use. For example, OCT angiography (OCT-Angiography), which forms an image in which retinal blood vessels and choroidal blood vessels are emphasized, has attracted attention (see, for example, Patent Document 1). Generally, the tissue (structure) at the scan site is temporally invariant, but the blood flow part inside the blood vessel temporally changes. In OCT angiography, an image is formed by emphasizing a portion (blood flow signal) in which such temporal change exists. OCT angiography is also referred to as OCT motion contrast imaging or the like. In addition, images obtained by OCT angiography are called angiographic images, angiograms, motion contrast images, and the like.

典型的な従来のOCT血管造影では、既定サイズ(例えば、9mm×9mm)の3次元スキャンが適用され、眼底血管の3次元的分布を表現した画像が得られる。一方、より広範囲の血管造影画像を取得することが望まれている。眼底の広い範囲のOCTデータを取得するための技術としてパノラマ撮影が知られている(例えば、特許文献2を参照)。   In typical conventional OCT angiography, a three-dimensional scan of a predetermined size (eg, 9 mm × 9 mm) is applied to obtain an image representing the three-dimensional distribution of fundus blood vessels. On the other hand, it is desirable to acquire a wider range of angiographic images. Panoramic imaging is known as a technique for acquiring OCT data of a wide range of the fundus (see, for example, Patent Document 2).

パノラマ撮影は、異なる複数の領域に3次元スキャンをそれぞれ適用し、それにより得られた複数の3次元画像を合成して広域画像を構築する画像化手法である。互いに隣接する領域には重複領域が設定され、この重複領域を基準として隣接する画像の間の相対位置が決定される。また、異なる複数の領域に対する順次的な3次元スキャンは、典型的には、固視位置の移動によって実現される。パノラマ撮影によって取得された広域画像は、パノラマ画像、モザイク画像などと呼ばれる。   Panoramic imaging is an imaging method in which a three-dimensional scan is respectively applied to a plurality of different areas, and a plurality of three-dimensional images obtained thereby are synthesized to construct a wide area image. Overlapping regions are set in regions adjacent to each other, and relative positions between adjacent images are determined with reference to the overlapping regions. Also, sequential three-dimensional scanning for different regions is typically realized by movement of the fixation position. The wide area image acquired by panoramic imaging is called a panoramic image, a mosaic image or the like.

ところで、眼球のサイズや特性には個人差があり、例えば眼軸長や視度(眼屈折力)は個々人で異なる。前述したように既定サイズの3次元スキャンを適用する場合であっても、実際にスキャンされる眼底の範囲は眼軸長や視度によって変化する。   By the way, there are individual differences in the size and characteristics of the eyeball, and for example, the axial length and diopter (eye refractive power) differ among individuals. As described above, even in the case of applying a three-dimensional scan of a predetermined size, the range of the fundus actually scanned changes depending on the axial length and diopter.

例えば、図1に示すように、眼軸長L1の被検眼E1と眼軸長L2(>L1)の被検眼E2に対してOCT測定光が同じ角度θで入射した場合、被検眼E1の眼底における測定光の投射位置の高さY1よりも、被検眼E2の眼底における測定光の投射位置の高さY2の方が大きくなる(Y2>Y1)。すなわち、眼軸長が長いほど、眼底における測定光の投射位置の高さが大きくなる。一方、OCTスキャンのサイズは、測定光の最大偏向角で定義される。したがって、OCTスキャンのサイズの条件が同じであっても、実際にスキャンされる眼底の範囲は、眼軸長の値に応じて変化してしまう。視度についても同様である。   For example, as shown in FIG. 1, when the OCT measurement light is incident at the same angle θ to the subject eye E1 having the axial length L1 and the subject eye E2 having the axial length L2 (> L1), the fundus of the subject eye E1 The height Y2 of the projection position of the measurement light on the fundus of the eye to be examined E2 is larger than the height Y1 of the projection position of the measurement light in (Y2> Y1). That is, the height of the projection position of the measurement light on the fundus increases as the axial length increases. On the other hand, the size of the OCT scan is defined by the maximum deflection angle of the measurement light. Therefore, even if the condition of the OCT scan size is the same, the range of the fundus actually scanned changes according to the value of the axial length. The same applies to diopter.

このように実際のスキャン範囲が眼球パラメータに影響を受けるため、パノラマ撮影における重複領域の大きさも眼球パラメータに応じて変化する。例えば、被検眼の眼軸長が長い場合には実際のスキャン範囲が広くなるため、重複領域も広くなる。重複領域が必要以上に広くなると、モザイク画像により実際に描出される範囲が狭くなり、パノラマ撮影の効率が低下する。   As such, since the actual scan range is affected by the eye parameter, the size of the overlapping area in panoramic imaging also changes according to the eye parameter. For example, when the axial length of the subject's eye is long, the actual scan range becomes wide, so the overlapping area also becomes wide. If the overlapping area becomes larger than necessary, the area actually drawn out by the mosaic image becomes narrow, and the efficiency of panoramic imaging decreases.

逆に、被検眼の眼軸長が短い場合には実際のスキャン範囲が狭くなるため、重複領域も狭くなり、場合によっては重複領域が無くなる。重複領域が狭くなると、隣接する画像の間の相対位置を十分な精度で求められないおそれがある。また、重複領域が存在しない場合には、隣接する画像の間の相対位置を決定することができず、モザイク画像を構築することができない。   On the contrary, when the axial length of the subject's eye is short, the actual scan range becomes narrow, so the overlapping area becomes narrow, and in some cases, the overlapping area disappears. If the overlapping area becomes narrow, there is a possibility that relative positions between adjacent images can not be determined with sufficient accuracy. In addition, when there is no overlapping area, the relative position between adjacent images can not be determined, and a mosaic image can not be constructed.

また、モザイク画像の中心領域に描出したい注目部位(例えば、黄斑中心)が、そのように配置されない事態も生じ得る。   In addition, there may also be a situation where a notable part (for example, the macula lutea) to be drawn in the central region of the mosaic image is not arranged as such.

特表2015−515894号公報JP-A-2015-515894 特開2009−183332号公報JP, 2009-183332, A

本発明の目的は、OCTを用いてモザイク画像を取得するための複数の固視位置の設定を、眼球のサイズや特性の個人差にかかわらず好適に行うことを可能とする技術を提供することにある。   An object of the present invention is to provide a technology capable of suitably setting a plurality of fixation positions for acquiring a mosaic image using OCT regardless of individual differences in eye size and characteristics. It is in.

実施形態の第1の態様は、固視系と、撮影部と、OCT画像取得部と、制御部と、描出位置判定部と、固視位置設定部と、画像処理部とを含む眼科撮影装置である。固視系は、被検眼に固視標を提示する。撮影部は、被検眼の眼底を撮影する。OCT画像取得部は、眼底に光コヒーレンストモグラフィ(OCT)を適用して画像を取得する。制御部は、固視標を移動しつつ眼底の正面画像を繰り返し取得するように固視系及び撮影部を制御する眼底撮影制御を実行する。描出位置判定部は、眼底撮影制御により逐次に取得される正面画像を解析して、当該正面画像の所定領域内に眼底の所定部位が描出されているか判定する。固視位置設定部は、所定領域内に所定部位が描出されていると描出位置判定部により判定されたとき、対応する正面画像が撮影部により取得されたときの固視標の位置に基づいて1以上の固視位置を設定する。画像処理部は、OCT画像取得部により取得された画像を処理する。制御部は、設定された1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に被検眼に提示するように固視系を制御し、且つ、これら2以上の固視標のそれぞれが被検眼に提示されているときに眼底の3次元画像を取得するようにOCT画像取得部を制御するOCT制御を実行する。画像処理部は、OCT制御により取得された2以上の固視位置に対応する2以上の3次元画像の合成画像を形成する合成処理部を含む。   The first aspect of the embodiment is an ophthalmologic imaging apparatus including a fixation system, an imaging unit, an OCT image acquisition unit, a control unit, a depiction position determination unit, a fixation position setting unit, and an image processing unit. It is. The fixation system presents a fixation target to the subject's eye. The imaging unit captures the fundus of the eye to be examined. The OCT image acquisition unit applies an optical coherence tomography (OCT) to the fundus to acquire an image. The control unit executes fundus imaging control for controlling the fixation system and the imaging unit so as to repeatedly acquire the front image of the fundus while moving the fixation target. The depiction position determination unit analyzes the front image sequentially acquired by the fundus imaging control, and determines whether a predetermined region of the fundus is depicted within a predetermined region of the front image. The fixation position setting unit is based on the position of the fixation target when the corresponding front image is acquired by the imaging unit when the drawing position judgment unit judges that the predetermined part is drawn in the predetermined area. Set one or more fixation positions. The image processing unit processes the image acquired by the OCT image acquisition unit. The control unit controls the fixation system to sequentially present two or more fixation targets corresponding to two or more fixation positions including the set one or more fixation positions to the subject's eye, and The OCT control is performed to control the OCT image acquisition unit so as to acquire a three-dimensional image of the fundus when each of the two or more fixation targets is presented to the eye to be examined. The image processing unit includes a composition processing unit that forms a composite image of two or more three-dimensional images corresponding to two or more fixation positions acquired by OCT control.

実施形態の第2の態様は、第1の態様の眼科撮影装置であって、制御部は、眼底撮影制御において、予め設定された初期固視位置から固視標の移動を開始する。   A second aspect of the embodiment is the ophthalmologic imaging apparatus of the first aspect, wherein the control unit starts movement of the fixation target from a preset initial fixation position in the fundus imaging control.

実施形態の第3の態様は、第2の態様の眼科撮影装置であって、初期固視位置は、標準的な眼の眼底の所定部位から所定方向に所定距離だけ離れた位置を中心とする正面画像を取得するための固視位置である。   A third aspect of the embodiment is the ophthalmologic imaging apparatus of the second aspect, wherein the initial fixation position is centered on a position separated by a predetermined distance in a predetermined direction from a predetermined site of the fundus of a standard eye. It is a fixation position for acquiring a front image.

実施形態の第4の態様は、第2の態様の眼科撮影装置であって、制御部は、眼底の所定部位を中心とする正面画像を取得するための既定の固視位置に対応する固視標を被検眼に提示しつつ眼底の予備的正面画像を取得するように固視系及び撮影部を制御する予備的制御を実行する。更に、画像処理部は、予備的正面画像の中心位置に対する眼底の所定部位の画像の偏位を算出する。加えて、固視位置設定部は、算出された偏位に基づいて初期固視位置を設定する。   A fourth aspect of the embodiment is the ophthalmologic imaging apparatus of the second aspect, wherein the control unit is a fixation unit corresponding to a predetermined fixation position for acquiring a front image centering on a predetermined region of the fundus A preliminary control is performed to control the fixation system and the imaging unit so as to obtain a preliminary frontal image of the fundus while presenting a target to the subject's eye. Furthermore, the image processing unit calculates a deviation of the image of the predetermined part of the fundus with respect to the center position of the preliminary frontal image. In addition, the fixation position setting unit sets an initial fixation position based on the calculated deviation.

実施形態の第5の態様は、第1〜第4の態様のいずれかの眼科撮影装置であって、制御部は、OCT制御において、眼底の3次元血管造影画像を取得するようにOCT画像取得部を制御する。   A fifth aspect of the embodiment is the ophthalmologic imaging apparatus according to any of the first to fourth aspects, wherein the control unit acquires an OCT image so as to acquire a three-dimensional angiographic image of the fundus in OCT control. Control the department.

実施形態の第6の態様は、被検眼の眼底に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置を制御する方法であって、撮影ステップと、描出位置判定ステップと、固視位置設定ステップと、OCTステップと、合成ステップとを含む。撮影ステップは、固視標を移動しつつ眼底の正面画像を繰り返し取得する。描出位置判定ステップは、撮影ステップにより逐次に取得される正面画像を解析して、当該正面画像の所定領域内に眼底の所定部位が描出されているか判定する。固視位置設定ステップは、正面画像の所定領域内に眼底の所定部位が描出されていると描出位置判定ステップにより判定されたとき、この正面画像が取得されたときの固視標の位置に基づいて1以上の固視位置を設定する。OCTステップは、設定された1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に被検眼に提示し、且つ、これら2以上の固視標のそれぞれが被検眼に提示されているときに眼底の3次元画像を取得する。合成ステップは、OCTステップにより取得された2以上の固視位置に対応する2以上の3次元画像の合成画像を形成する。   A sixth aspect of the embodiment is a method of controlling an ophthalmologic imaging apparatus capable of applying imaging and optical coherence tomography (OCT) to a fundus of an eye to be examined, comprising: an imaging step; It includes a step, a fixation position setting step, an OCT step, and a combining step. The photographing step repeatedly acquires a front image of the fundus while moving the fixation target. The depiction position determination step analyzes the front image sequentially acquired by the imaging step, and determines whether a predetermined region of the fundus is depicted within a predetermined region of the front image. The fixation position setting step is based on the position of the fixation target when the front image is acquired, when it is determined by the drawing position determination step that a predetermined region of the fundus is drawn in a predetermined region of the front image. Set one or more fixation positions. The OCT step sequentially presents two or more fixation targets corresponding to two or more fixation positions including the set one or more fixation positions to the subject's eye, and each of the two or more fixation targets Acquires the three-dimensional image of the fundus when it is presented to the subject's eye. The combining step forms a combined image of two or more three-dimensional images corresponding to the two or more fixation positions acquired by the OCT step.

実施形態の第7の態様は、被検眼の眼底に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置に第6の態様の制御方法を実行させるプログラムである。   A seventh aspect of the embodiment is a program that causes an ophthalmologic imaging apparatus capable of applying imaging and optical coherence tomography (OCT) to the fundus of a subject's eye to execute the control method of the sixth aspect.

実施形態の第8の態様は、第7の態様のプログラムを記録したコンピュータ可読な非一時的記録媒体である。   An eighth aspect of the embodiment is a computer-readable non-transitory recording medium recording the program of the seventh aspect.

実施形態によれば、OCTを用いてモザイク画像を取得するための複数の固視位置の設定を、眼球のサイズや特性の個人差にかかわらず好適に行うことが可能である。   According to the embodiment, setting of a plurality of fixation positions for acquiring a mosaic image using OCT can be suitably performed regardless of individual differences in eyeball size and characteristics.

背景技術を説明するための概略図である。It is a schematic diagram for explaining background art. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。It is a schematic diagram for explaining an example of operation of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。It is a schematic diagram for explaining an example of operation of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。It is a schematic diagram for explaining an example of operation of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。It is a schematic diagram for explaining an example of operation of an ophthalmology photographing instrument concerning an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of the ophthalmologic imaging device which concerns on exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。It is a schematic diagram for explaining an example of operation of an ophthalmology photographing instrument concerning an exemplary embodiment.

例示的な実施形態に係る眼科撮影装置、その制御方法、プログラム、及び記録媒体について、図面を参照しながら詳細に説明する。実施形態の眼科撮影装置は、光コヒーレンストモグラフィ(OCT)を実行する機能を備えた眼科装置である。実施形態の眼科撮影装置は、眼底のOCT血管造影を実行可能であってよい。   An ophthalmologic photographing apparatus, a control method thereof, a program, and a recording medium according to an exemplary embodiment will be described in detail with reference to the drawings. The ophthalmologic imaging apparatus of the embodiment is an ophthalmologic apparatus having a function of performing optical coherence tomography (OCT). The ophthalmologic imaging apparatus of the embodiment may be capable of performing OCT angiography of the fundus.

以下、スウェプトソースOCTと眼底カメラとを組み合わせた眼科撮影装置について説明するが、実施形態はこれに限定されない。OCTの種別はスウェプトソースOCTには限定されず、例えばスペクトラルドメインOCTであってもよい。   Hereinafter, although the ophthalmologic imaging device which combined the sweep source OCT and the fundus camera is demonstrated, embodiment is not limited to this. The type of OCT is not limited to swept source OCT, and may be, for example, spectral domain OCT.

スウェプトソースOCTは、波長可変光源(波長掃引光源)からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。   Swept source OCT divides the light from the wavelength variable light source (wavelength swept light source) into the measurement light and the reference light, superimposes the return light of the measurement light from the object with the reference light, and generates interference light, This interference light is detected by a balanced photodiode or the like, and the detection data collected according to the sweep of the wavelength and the scan of the measurement light is subjected to Fourier transformation or the like to form an image.

スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。   Spectral domain OCT splits light from a low coherence light source into measurement light and reference light, superimposes return light from measurement light from a test object on reference light, and generates interference light, and the spectrum of this interference light The distribution is detected by a spectroscope, and the detected spectral distribution is subjected to Fourier transform or the like to form an image.

このように、スウェプトソースOCTは時分割でスペクトル分布を取得するOCT手法であり、スペクトラルドメインOCTは空間分割でスペクトル分布を取得するOCT手法である。なお、実施形態に利用することが可能なOCT手法はこれらに限定されず、これらと異なる任意のOCT手法(例えば、タイムドメインOCT)を利用した実施形態を採用することも可能である。   Thus, the swept source OCT is an OCT method for acquiring a spectral distribution by time division, and the spectral domain OCT is an OCT method for acquiring a spectral distribution by space division. In addition, the OCT method which can be utilized for embodiment is not limited to these, It is also possible to employ | adopt embodiment using the OCT method (for example, time-domain OCT different from them) different from these.

実施形態に係る眼科撮影装置は、被検眼の眼底を撮影して正面画像を取得する機能を備えている。眼底撮影に使用可能な眼科モダリティの例として、以下に説明する眼底カメラに加え、走査型レーザー検眼鏡(SLO)、スリットランプ顕微鏡、手術用顕微鏡などがある。なお、実施形態に利用可能な眼科モダリティはこれらに限定されず、また、眼科以外のモダリティを利用した実施形態を採用することも可能である。   The ophthalmologic imaging apparatus according to the embodiment has a function of imaging the fundus of an eye to be examined and acquiring a front image. Examples of ophthalmologic modalities that can be used for fundus imaging include a scanning laser ophthalmoscope (SLO), a slit lamp microscope, a surgical microscope, and the like in addition to the fundus camera described below. In addition, the ophthalmology modality which can be utilized for embodiment is not limited to these, Moreover, it is also possible to employ | adopt embodiment using modality other than ophthalmology.

本明細書においては、特に言及しない限り、「画像データ」と、それに基づく「画像」とを区別しない。また、特に言及しない限り、被検眼の部位又は組織と、それを表す画像とを区別しない。   In the present specification, “image data” and “image” based thereon are not distinguished unless otherwise mentioned. Also, unless otherwise stated, the region or tissue of the eye to be examined and the image representing it are not distinguished.

〈構成〉
図2に示す例示的な眼科撮影装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構と、OCTを実行するための光学系や機構とが設けられている。OCTユニット100には、OCTを実行するための光学系や機構が設けられている。演算制御ユニット200は、各種の処理(演算、制御等)を実行するように構成された1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTが適用される部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科撮影装置1に設けられてもよい。
<Constitution>
The exemplary ophthalmologic imaging apparatus 1 shown in FIG. 2 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The fundus camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye to be examined E, and an optical system and a mechanism for executing the OCT. The OCT unit 100 is provided with an optical system or mechanism for performing OCT. The arithmetic and control unit 200 includes one or more processors configured to execute various processes (operations, controls, etc.). In addition to these, any member such as a member for supporting the face of the subject (jaw holder, forehead rest, etc.), or a lens unit for switching the site to which OCT is applied (for example, attachment for anterior segment OCT) Elements or units of the above may be provided in the ophthalmologic imaging apparatus 1.

本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。   In the present specification, the “processor” is, for example, a central processing unit (CPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple programmable logic device (SPLD), a CPLD (complex). It means a circuit such as a programmable logic device (FPGA), a field programmable gate array (FPGA) or the like. The processor implements the function according to the embodiment by, for example, reading and executing a program stored in a memory circuit or a memory device.

〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efのデジタル画像(眼底像、眼底写真等と呼ばれる)は、一般に、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、可視領域のフラッシュ光を用いた静止画像である。
<Fundus camera unit 2>
The fundus camera unit 2 is provided with an optical system for photographing the fundus oculi Ef of the eye to be examined E. The digital image (referred to as a fundus image, a fundus photograph, etc.) of the fundus oculi Ef to be acquired is generally a front image such as an observation image or a photographed image. An observation image is obtained by moving image shooting using near infrared light. The photographed image is a still image using flash light in the visible region.

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は、被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eに照射された照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれる。被検眼E(例えば、眼底Ef)に投射された測定光の戻り光は、眼底カメラユニット2内の同じ光路を通じてOCTユニット100に導かれる。   The fundus camera unit 2 includes an illumination optical system 10 and an imaging optical system 30. The illumination optical system 10 illuminates the eye E with illumination light. The photographing optical system 30 detects the return light of the illumination light irradiated to the eye to be examined E. The measurement light from the OCT unit 100 is guided to the eye E through an optical path in the fundus camera unit 2. The return light of the measurement light projected onto the eye to be examined E (for example, the fundus oculi Ef) is guided to the OCT unit 100 through the same optical path in the fundus camera unit 2.

照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由して孔開きミラー21に導かれる。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef)を照明する。観察照明光の被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部に合致するように調整される。   Light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the concave mirror 12, passes through the condenser lens 13, passes through the visible cut filter 14, and becomes near-infrared light. Furthermore, the observation illumination light is once converged in the vicinity of the photographing light source 15 and reflected by the mirror 16, passes through the relay lens system 17, the relay lens 18, the diaphragm 19, and the relay lens system 20 to the apertured mirror 21. Led. Then, the observation illumination light is reflected at the peripheral portion (region around the hole) of the apertured mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and illuminates the eye E (fundus oculi Ef) Do. The return light of the observation illumination light from the eye E to be examined is refracted by the objective lens 22, transmitted through the dichroic mirror 46, transmitted through the hole formed in the central region of the apertured mirror 21, and transmitted through the dichroic mirror 55. The light beam is reflected by the mirror 32 via the photographing focusing lens 31. Further, this return light passes through the half mirror 33 A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the imaging lens 34. The image sensor 35 detects the return light at a predetermined frame rate. The focus of the photographing optical system 30 is adjusted to coincide with the fundus oculi Ef or the anterior segment.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。   The light (shooting illumination light) output from the shooting light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The return light of the photographing illumination light from the eye E to be examined is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is focused by the imaging lens 37. An image is formed on the light receiving surface of the image sensor 38.

液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。固視標は、典型的には、視線の誘導及び固定に利用される。被検眼Eの視線が誘導(及び固定)される方向、つまり被検眼Eの固視が促される方向は、固視位置と呼ばれる。   A liquid crystal display (LCD) 39 displays a fixation target (fixation target image). A part of the light beam output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the imaging focusing lens 31 and the dichroic mirror 55, and passes through the hole of the apertured mirror 21. The light flux that has passed through the hole of the apertured mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef. Fixation targets are typically used for visual guidance and fixation. The direction in which the line of sight of the subject eye E is guided (and fixed), that is, the direction in which the fixation of the subject eye E is urged is referred to as a fixation position.

LCD39の画面上における固視標画像の表示位置を変更することにより、固視標による被検眼Eの固視位置を変更することができる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の位置(眼底中心)を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。   By changing the display position of the fixation target image on the screen of the LCD 39, it is possible to change the fixation position of the eye to be examined E by the fixation target. As an example of the fixation position, a fixation position for acquiring an image centered on the macula, a fixation position for acquiring an image centered on the optic disc, a position between the macula and the optic disc ( There are a fixation position for acquiring an image centered on the ocular fundus) and a fixation position for acquiring an image of a part far from the macula (peripheral part of the fundus).

このような典型的な固視位置の少なくとも1つを指定するためのグラフィカルユーザーインターフェース(GUI)等を設けることができる。また、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を設けることができる。また、固視位置を自動で設定する構成を適用することも可能である。   A graphical user interface (GUI) or the like may be provided to designate at least one of such typical fixation positions. In addition, a GUI or the like for moving the fixation position (display position of fixation target) manually can be provided. It is also possible to apply a configuration in which the fixation position is automatically set.

固視位置の変更が可能な固視標を被検眼Eに提示するための構成は、LCD等の表示デバイスには限定されない。例えば、複数の発光部(発光ダイオード等)がマトリクス状に配列されたデバイス(固視マトリクス)を、表示デバイスの代わりに採用することができる。この場合、複数の発光部を選択的に点灯させることにより、固視標による被検眼Eの固視位置を変更することができる。他の例として、移動可能な1以上の発光部を備えたデバイスによって、固視位置の変更が可能な固視標を生成することができる。   The configuration for presenting a fixation target whose fixation position can be changed to the eye to be examined E is not limited to a display device such as an LCD. For example, a device (fixation matrix) in which a plurality of light emitting units (light emitting diodes or the like) are arranged in a matrix can be employed instead of the display device. In this case, the fixation position of the eye to be examined E by the fixation target can be changed by selectively turning on the plurality of light emitting units. As another example, a device provided with one or more movable light emitters can generate a fixation target whose fixation position can be changed.

アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光(角膜反射光等)は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行することができる。   The alignment optical system 50 generates an alignment index used to align the optical system with the eye E. The alignment light output from the light emitting diode (LED) 51 passes through the diaphragm 52, the diaphragm 53, and the relay lens 54, is reflected by the dichroic mirror 55, passes through the hole of the apertured mirror 21, and passes through the dichroic mirror 46. The light is transmitted through the objective lens 22 and projected onto the eye E. The return light (corneal reflection light etc.) from the eye E to be inspected of the alignment light is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment and auto alignment can be performed based on the light reception image (alignment index image).

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱される。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光(眼底反射光等)は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。   The focusing optical system 60 generates a split index used for focus adjustment on the eye E. The focusing optical system 60 is moved along the light path (illumination light path) of the illumination optical system 10 in conjunction with the movement of the photographing focusing lens 31 along the light path (shooting light path) of the photographing optical system 30. The reflector bar 67 is inserted into and removed from the illumination light path. When the focus adjustment is performed, the reflection surface of the reflection rod 67 is inclined to the illumination light path. The focus light output from the LED 61 passes through the relay lens 62, is split into two light beams by the split index plate 63, passes through the two-hole aperture 64, is reflected by the mirror 65, and is reflected by the focusing lens 66 The light is once imaged and reflected on the reflective surface of. Further, the focus light passes through the relay lens 20, is reflected by the aperture mirror 21, passes through the dichroic mirror 46, and is projected onto the eye E via the objective lens 22. The return light from the eye E to be examined (e.g., fundus reflected light) of the focus light is guided to the image sensor 35 through the same path as the return light of the alignment light. Manual focusing or auto focusing can be performed based on the light reception image (split index image).

孔開きミラー21とダイクロイックミラー55との間の撮影光路に、視度補正レンズ70及び71を選択的に挿入することができる。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。   The diopter correction lenses 70 and 71 can be selectively inserted into the imaging optical path between the aperture mirror 21 and the dichroic mirror 55. The diopter correction lens 70 is a plus lens (convex lens) for correcting intensity hyperopia. The diopter correction lens 71 is a minus lens (concave lens) for correcting the intensity myopia.

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路(測定アーム)とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。   The dichroic mirror 46 combines the fundus imaging light path and the OCT light path (measurement arm). The dichroic mirror 46 reflects light in a wavelength band used for OCT and transmits light for fundus imaging. In the measurement arm, a collimator lens unit 40, a retroreflector 41, a dispersion compensation member 42, an OCT focusing lens 43, an optical scanner 44, and a relay lens 45 are provided in order from the OCT unit 100 side.

リトロリフレクタ41は、図2に示す矢印の方向に移動可能とされ、それにより測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。   The retroreflector 41 is movable in the direction of the arrow shown in FIG. 2, whereby the length of the measuring arm is changed. The change of the measurement arm length is used, for example, for optical path length correction according to the axial length, adjustment of the interference state, and the like.

分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。   The dispersion compensating member 42 acts to match the dispersion characteristic of the measurement light LS with the dispersion characteristic of the reference light LR, together with the dispersion compensating member 113 (described later) disposed in the reference arm.

OCT合焦レンズ43は、測定アームのフォーカス調整を行うために測定アームに沿って移動される。なお、撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。   The OCT focusing lens 43 is moved along the measurement arm to perform focus adjustment of the measurement arm. The movement of the imaging focusing lens 31, the movement of the focusing optical system 60, and the movement of the OCT focusing lens 43 can be cooperatively controlled.

光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSを偏向する。光スキャナ44は、例えば、2次元走査が可能なガルバノスキャナである。典型的には、光スキャナ44は、測定光を±x方向に偏向するための1次元スキャナ(x−スキャナ)と、測定光を±y方向に偏向するための1次元スキャナ(y−スキャナ)とを含む。この場合、例えば、これら1次元スキャナのいずれか一方が瞳孔と光学的に共役な位置に配置されるか、或いは、瞳孔と光学的に共役な位置がこれら1次元スキャナの間に配置される。   The light scanner 44 is disposed substantially at a position optically conjugate with the pupil of the eye E. The optical scanner 44 deflects the measurement light LS guided by the measurement arm. The optical scanner 44 is, for example, a galvano scanner capable of two-dimensional scanning. Typically, the optical scanner 44 is a one-dimensional scanner (x-scanner) for deflecting the measurement light in the ± x direction, and a one-dimensional scanner (y-scanner) for deflecting the measurement light in the ± y direction. And. In this case, for example, either one of the one-dimensional scanners is disposed at a position optically conjugate with the pupil, or a position optically conjugate with the pupil is disposed between the one-dimensional scanners.

〈OCTユニット100〉
図3に示す例示的なOCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源からの光を測定光と参照光とに分割し、被検眼Eに投射された測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光の検出により得られたデータ(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
<OCT unit 100>
The exemplary OCT unit 100 shown in FIG. 3 is provided with an optical system for performing the swept source OCT. This optical system includes an interference optical system. This interference optical system divides the light from the wavelength variable light source into the measurement light and the reference light, superimposes the return light of the measurement light projected onto the eye to be examined E and the reference light via the reference light path, and thereby generates interference light. To detect this interference light. The data (detection signal) obtained by the detection of the interference light is a signal representing the spectrum of the interference light, and is sent to the arithmetic control unit 200.

光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームなどと呼ばれ、参照光LRの光路は参照アームなどと呼ばれる。   The light source unit 101 includes, for example, a near-infrared wavelength tunable laser that changes the wavelength of emitted light at high speed. The light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102, and its polarization state is adjusted. Further, the light L0 is guided to the fiber coupler 105 by the optical fiber 104 and split into the measurement light LS and the reference light LR. The optical path of the measurement light LS is called a measurement arm or the like, and the optical path of the reference light LR is called a reference arm or the like.

ファイバカプラ105により生成された参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。   The reference light LR generated by the fiber coupler 105 is guided to the collimator 111 by the optical fiber 110 and converted into a parallel light beam, and is guided to the retroreflector 114 via the optical path length correction member 112 and the dispersion compensation member 113. The optical path length correction member 112 acts to match the optical path length of the reference light LR with the optical path length of the measurement light LS. The dispersion compensation member 113 works with the dispersion compensation member 42 disposed in the measurement arm to match the dispersion characteristics between the reference light LR and the measurement light LS. The retroreflector 114 is movable along the optical path of the reference light LR incident thereon, whereby the length of the reference arm is changed. The change of the reference arm length is used, for example, for optical path length correction according to the axial length, adjustment of the interference state, and the like.

リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。   The reference light LR that has passed through the retroreflector 114 passes through the dispersion compensation member 113 and the optical path length correction member 112, is converted from a parallel light beam into a focused light beam by the collimator 116, and enters the optical fiber 117. The reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 to adjust its polarization state, guided to the attenuator 120 through the optical fiber 119 to adjust its light amount, and to the fiber coupler 122 through the optical fiber 121. Led.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127を通じてコリメータレンズユニット40に導かれて平行光束に変換され、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光は、測定アームを逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。   On the other hand, the measurement light LS generated by the fiber coupler 105 is guided to the collimator lens unit 40 through the optical fiber 127 and converted into a parallel light beam, and the retroreflector 41, the dispersion compensation member 42, the OCT focusing lens 43, and the light scanner 44. The light beam is reflected by the dichroic mirror 46 via the relay lens 45, refracted by the objective lens 22, and projected onto the eye E. The measurement light LS is scattered and reflected at various depth positions of the eye E. The return light from the eye E to be examined of the measurement light LS travels the measurement arm in the reverse direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分岐比(例えば1:1)で分岐することで一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。   The fiber coupler 122 superimposes the measurement light LS incident through the optical fiber 128 and the reference light LR incident through the optical fiber 121 to generate interference light. The fiber coupler 122 splits the generated interference light at a predetermined branching ratio (for example, 1: 1) to generate a pair of interference lights LC. The pair of interference lights LC are guided to the detector 125 through the optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、これらにより得られた一対の検出信号の差分を出力する。検出器125は、この出力(差分信号等の検出信号)をデータ収集システム(DAQ)130に送る。   The detector 125 includes, for example, a balanced photodiode. The balanced photodiode includes a pair of photodetectors that respectively detect the pair of interference lights LC, and outputs the difference between the pair of detection signals obtained by these. The detector 125 sends this output (a detection signal such as a differential signal) to a data acquisition system (DAQ) 130.

データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、これら分岐光の一方を光学的に遅延させ、これら分岐光を合成し、得られた合成光を検出し、その検出信号に基づいてクロックKCを生成する。データ収集システム130は、検出器125から入力される検出信号(差分信号)のサンプリングをクロックKCに基づいて実行する。データ収集システム130は、このサンプリングで得られたデータを演算制御ユニット200に送る。   The clock KC is supplied to the data acquisition system 130 from the light source unit 101. The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the wavelength tunable light source. For example, the light source unit 101 branches the light L0 of each output wavelength to generate two branched lights, optically delays one of the branched lights, combines the branched lights, and obtains the combined light obtained. A clock KC is generated based on the detection signal. The data acquisition system 130 performs sampling of the detection signal (difference signal) input from the detector 125 based on the clock KC. The data acquisition system 130 sends the data obtained by this sampling to the arithmetic control unit 200.

本例では、測定アーム長を変更するための要素(例えば、リトロリフレクタ41)と、参照アーム長を変更するための要素(例えば、リトロリフレクタ114、又は参照ミラー)との双方が設けられているが、これら要素のうちの一方のみが設けられていてもよい。また、測定アーム長と参照アーム長との間の差(光路長差)を変更するための要素はこれらに限定されず、任意の要素(光学部材、機構など)を採用することが可能である。   In this example, both an element for changing the measurement arm length (for example, retro reflector 41) and an element for changing the reference arm length (for example, retro reflector 114 or reference mirror) are provided. However, only one of these elements may be provided. Also, the element for changing the difference between the measurement arm length and the reference arm length (optical path length difference) is not limited to these, and it is possible to adopt any element (optical member, mechanism, etc.) .

〈演算制御ユニット200〉
演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。また、演算制御ユニット200は、各種の演算処理を実行する。例えば、演算制御ユニット200は、一連の波長走査毎に(Aライン毎に)、データ収集システム130により得られたサンプリングデータ群に基づくスペクトル分布にフーリエ変換等の信号処理を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。そのための演算処理は、従来のスウェプトソースOCTと同様である。
<Operation control unit 200>
The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3 and the OCT unit 100. The arithmetic control unit 200 also executes various arithmetic processes. For example, the arithmetic control unit 200 performs signal processing such as Fourier transform on the spectrum distribution based on the sampling data group obtained by the data acquisition system 130 for each series of wavelength scans (for each A line). Form a reflection intensity profile at the line. Furthermore, the arithmetic control unit 200 forms image data by imaging the reflection intensity profile of each A line. The calculation process for that is similar to the conventional swept source OCT.

演算制御ユニット200は、例えば、プロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含む。ハードディスクドライブ等の記憶装置には各種のコンピュータプログラムが格納されている。演算制御ユニット200は、操作デバイス、入力デバイス、表示デバイスなどを含んでいてもよい。   The arithmetic and control unit 200 includes, for example, a processor, a random access memory (RAM), a read only memory (ROM), a hard disk drive, a communication interface, and the like. Various computer programs are stored in a storage device such as a hard disk drive. The arithmetic and control unit 200 may include an operation device, an input device, a display device, and the like.

〈制御系〉
眼科撮影装置1の制御系(処理系)の構成の例を図4及び図5に示す。制御部210、画像形成部220及びデータ処理部230は、例えば演算制御ユニット200に設けられる。
Control system
The example of a structure of the control system (processing system) of the ophthalmologic imaging device 1 is shown in FIG.4 and FIG.5. The control unit 210, the image forming unit 220, and the data processing unit 230 are provided, for example, in the arithmetic control unit 200.

〈制御部210〉
制御部210は、プロセッサを含み、眼科撮影装置1の各部を制御する。制御部210は、主制御部211と記憶部212とを含む。
<Control unit 210>
The control unit 210 includes a processor and controls each unit of the ophthalmologic imaging apparatus 1. Control unit 210 includes a main control unit 211 and a storage unit 212.

〈主制御部211〉
主制御部211は、プロセッサを含み、眼科撮影装置1の各要素(図2〜図5に示された要素を含む)を制御する。主制御部211は、回路を含むハードウェアと、制御ソフトウェアとの協働により実現される。
<Main control unit 211>
The main control unit 211 includes a processor and controls each element (including the elements shown in FIGS. 2 to 5) of the ophthalmic imaging apparatus 1. The main control unit 211 is realized by the cooperation of hardware including a circuit and control software.

撮影光路に配置された撮影合焦レンズ31と照明光路に配置されたフォーカス光学系60とは、主制御部211の制御の下に、図示しない撮影合焦駆動部によって移動される。測定アームに設けられたリトロリフレクタ41は、主制御部211の制御の下に、リトロリフレクタ(RR)駆動部41Aによって移動される。測定アームに配置されたOCT合焦レンズ43は、主制御部211の制御の下に、OCT合焦駆動部43Aによって移動される。測定アームに設けられた光スキャナ44は、主制御部211の制御の下に動作する。参照アームに配置されたリトロリフレクタ114は、主制御部211の制御の下に、リトロリフレクタ(RR)駆動部114Aによって移動される。これら駆動部のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。   The imaging focusing lens 31 disposed in the imaging optical path and the focusing optical system 60 disposed in the illumination optical path are moved by an imaging focusing drive unit (not shown) under the control of the main control unit 211. The retroreflector 41 provided on the measurement arm is moved by the retroreflector (RR) drive unit 41A under the control of the main control unit 211. The OCT focusing lens 43 disposed in the measurement arm is moved by the OCT focusing drive unit 43A under the control of the main control unit 211. The light scanner 44 provided in the measurement arm operates under the control of the main control unit 211. The retroreflector 114 disposed in the reference arm is moved by the retroreflector (RR) drive unit 114A under the control of the main control unit 211. Each of these drive units includes an actuator such as a pulse motor that operates under the control of the main control unit 211.

移動機構150は、例えば、少なくとも眼底カメラユニット2を3次元的に移動する。典型的な例において、移動機構150は、±x方向(左右方向)に移動可能なxステージと、xステージを移動するx移動機構と、±y方向(上下方向)に移動可能なyステージと、yステージを移動するy移動機構と、±z方向(奥行き方向)に移動可能なzステージと、zステージを移動するz移動機構とを含む。これら移動機構のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。   The moving mechanism 150 three-dimensionally moves at least the fundus camera unit 2, for example. In a typical example, the moving mechanism 150 includes an x-stage movable in the ± x direction (horizontal direction), an x-moving mechanism for moving the x stage, and a y stage movable in the ± y direction (vertical direction) , A y moving mechanism for moving the y stage, a z stage movable in the ± z direction (depth direction), and a z moving mechanism for moving the z stage. Each of these moving mechanisms includes an actuator such as a pulse motor that operates under the control of the main control unit 211.

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
<Storage unit 212>
The storage unit 212 stores various data. Examples of data stored in the storage unit 212 include image data of an OCT image, image data of a fundus image, and eye information to be examined. The subject's eye information includes subject information such as patient ID and name, identification information of left eye / right eye, electronic medical record information, and the like.

記憶部212は、眼底撮影における画像化範囲(眼底撮影領域)と、3次元OCTスキャンが適用される範囲(3次元スキャン領域)との間の位置関係を示す位置関係情報を記憶してもよい。眼底撮影領域は、例えば、眼科撮影装置1の眼底撮影機能により正面画像として描出される領域の特徴(例えば、形状、寸法)によって定義されてよい。また、3次元スキャン領域は、例えば、眼科撮影装置1のOCT機能により3次元画像として描出される領域の特徴(例えば、形状、寸法)によって定義されてよい。   The storage unit 212 may store positional relationship information indicating a positional relationship between an imaging range (fundus photographing region) in fundus imaging and a range (three-dimensional scanning region) to which a three-dimensional OCT scan is applied. . The fundus imaging region may be defined, for example, by the features (for example, the shape and size) of the region depicted as a front image by the fundus imaging function of the ophthalmologic imaging device 1. In addition, the three-dimensional scan area may be defined by, for example, the features (for example, the shape and size) of the area depicted as a three-dimensional image by the OCT function of the ophthalmologic imaging apparatus 1.

ここで、3次元画像として描出される領域の特徴は、この3次元画像のレンダリング画像として描出される領域の特徴であってもよい。その具体例として、3次元画像として描出される領域の特徴は、3次元画像をz方向に投影して得られるプロジェクション画像に描出される領域の特徴、又は、3次元画像の一部をz方向に投影して得られるシャドウグラムに描出される領域の特徴であってよい(例えば、2次元的形状、面積、周長、径)。   Here, the feature of the area depicted as a three-dimensional image may be the feature of the area depicted as a rendered image of this three-dimensional image. As a specific example, the feature of the area depicted as a three-dimensional image is the feature of the area depicted as a projection image obtained by projecting the three-dimensional image in the z direction, or a part of the three-dimensional image in the z direction It may be a feature of the area depicted in a shadowgram obtained by projecting onto (eg, two-dimensional shape, area, circumference, diameter).

プロジェクション画像やシャドウグラムは正面画像であり、眼底撮影機能により得られる正面画像と同じ2次元座標系(xy座標系)で定義することが可能である。このような2次元画像ではなく3次元画像が考慮される場合には、眼底撮影機能により得られる正面画像の定義座標系(xy座標系)を3次元画像の定義座標系(xyz座標系)に埋め込むことが可能である。   The projection image and the shadowgram are frontal images, and can be defined in the same two-dimensional coordinate system (xy coordinate system) as the frontal image obtained by the fundus imaging function. When a three-dimensional image is considered instead of such a two-dimensional image, the definition coordinate system (xy coordinate system) of the front image obtained by the fundus imaging function is set to the definition coordinate system (xyz coordinate system) of the three-dimensional image. It is possible to embed.

本実施形態では、前述したように、眼底撮影用光路とOCT用光路(測定アーム)とはダイクロイックミラー46によって結合されている。より具体的には、ダイクロイックミラー46は、眼底撮影用光路と測定アームとを互いに同軸に結合している。すなわち、ダイクロイックミラー46は、眼底撮影用光路の光軸と測定アームの光軸とが交差するように、眼底撮影用光路と測定アームとを結合している。   In the present embodiment, as described above, the fundus imaging light path and the OCT light path (measurement arm) are coupled by the dichroic mirror 46. More specifically, the dichroic mirror 46 coaxially couples the fundus imaging light path and the measurement arm. That is, the dichroic mirror 46 couples the fundus imaging optical path and the measurement arm such that the optical axis of the fundus imaging optical path and the optical axis of the measurement arm intersect.

更に、前述したように、OCTスキャンの寸法は、測定光の最大偏向角で定義される。よって、本実施形態において、3次元スキャン領域は、光スキャナ44による測定光LSの最大偏向角(x方向の最大偏向角及びy方向の最大偏向角)で定義される。   Furthermore, as mentioned above, the dimensions of the OCT scan are defined by the maximum deflection angle of the measuring light. Therefore, in the present embodiment, the three-dimensional scan area is defined by the maximum deflection angle (maximum deflection angle in the x direction and maximum deflection angle in the y direction) of the measurement light LS by the optical scanner 44.

また、本実施形態では、典型的な眼底カメラと同様に、眼底撮影領域の輪郭を定義するための光学部材(撮影野絞り)が配置されるか、或いは、眼底撮影領域の輪郭を定義するためにイメージセンサ35、38に対してデジタル絞りが設定される。   Further, in the present embodiment, as in a typical fundus camera, an optical member (shooting field stop) for defining the contour of the fundus imaging region is disposed, or in order to define the contour of the fundus imaging region The digital aperture is set for the image sensors 35 and 38 in FIG.

眼底撮影領域と3次元スキャン領域との位置関係の例を、図6を参照して説明する。符号300は対物レンズ22の光軸(対物光軸)300を示し、符号310は眼底撮影領域(その輪郭)を示し、符号320は3次元スキャン領域(その輪郭)を示す。眼底撮影領域310は円形であり、その中心が対物光軸300に配置されている。3次元スキャン領域320は正方形であり、その中心が対物光軸300に配置されている。すなわち、本例では、眼底撮影領域310と3次元スキャン領域320とが互いに同軸に配置されている。また、眼底撮影領域310は3次元スキャン領域320を真に含む。   An example of the positional relationship between the fundus imaging region and the three-dimensional scan region will be described with reference to FIG. Reference numeral 300 denotes an optical axis (objective optical axis) 300 of the objective lens 22, reference numeral 310 denotes a fundus imaging region (the outline thereof), and reference numeral 320 denotes a three-dimensional scan region (the outline thereof). The fundus imaging region 310 is circular, and the center thereof is disposed on the objective optical axis 300. The three-dimensional scan area 320 is a square, the center of which is disposed on the objective optical axis 300. That is, in this example, the fundus imaging region 310 and the three-dimensional scan region 320 are arranged coaxially with each other. In addition, the fundus imaging region 310 truly includes a three-dimensional scan region 320.

眼底撮影領域310の形状及び/又は寸法は、固定的であってもよいし、可変であってもよい。眼底撮影領域310の形状及び/又は寸法の変更は、例えば、撮影野絞りの選択、撮影野絞りの開口寸法の制御、又は、デジタル絞りの制御によって実現することが可能である。   The shape and / or size of the fundus imaging region 310 may be fixed or variable. The change of the shape and / or size of the fundus imaging region 310 can be realized, for example, by selection of the imaging field stop, control of the aperture size of the imaging field stop, or control of the digital aperture.

3次元スキャン領域320の形状及び/又は寸法は、固定的であってもよいし、可変であってもよい。3次元スキャン領域320の形状及び/又は寸法の変更は、例えば、光スキャナ44の制御(例えば、最大偏向角の制御、x−スキャナの制御、y−スキャナの制御、x−スキャナとy−スキャナとの連係的制御)によって実現することが可能である。   The shape and / or dimensions of the three-dimensional scan area 320 may be fixed or variable. For example, control of the optical scanner 44 (for example, control of the maximum deflection angle, control of the x-scanner, control of the y-scanner, control of the y-scanner, x-scanner and y-scanner) Can be realized by cooperative control with

眼底撮影領域310と3次元スキャン領域320との間の相対位置は、固定的であってもよいし、可変であってもよい。眼底撮影領域310と3次元スキャン領域320との間の相対位置の変更は、例えば、以下の制御のうちの1つ又は2つ以上の組み合わせによってすることが可能である:眼底撮影領域310の形状及び/寸法の変更;眼底撮影領域310の位置の変更;3次元スキャン領域320の形状及び/又は寸法の変更;3次元スキャン領域320の位置の変更。ここで、眼底撮影領域310の位置の変更は、例えば、撮影野絞りの選択、撮影野絞りの開口位置の制御、又は、デジタル絞りの制御によって実現することが可能である。また、3次元スキャン領域320の位置の変更は、例えば、光スキャナ44の制御によって実現することが可能である。   The relative position between the fundus imaging region 310 and the three-dimensional scan region 320 may be fixed or variable. The change of the relative position between the fundus imaging region 310 and the three-dimensional scan region 320 can be performed, for example, by one or a combination of two or more of the following controls: the shape of the fundus imaging region 310 And / or change of size; change of position of fundus imaging area 310; change of shape and / or size of three-dimensional scan area 320; change of position of three-dimensional scan area 320. Here, the change of the position of the fundus imaging region 310 can be realized, for example, by selection of the imaging field stop, control of the aperture position of the imaging field stop, or control of the digital aperture. In addition, the change of the position of the three-dimensional scan area 320 can be realized, for example, by the control of the optical scanner 44.

眼底撮影領域310と3次元スキャン領域320とが互いに非同軸に配置されている場合、例えば、眼底撮影領域310の中心と3次元スキャン領域320の中心との間の相対変位、及び/又は、眼底撮影領域310の輪郭と3次元スキャン領域320の輪郭との間の相対位置によって、眼底撮影領域310と3次元スキャン領域320との間の相対位置を事前に又は随時に決定することが可能である。   When the fundus imaging region 310 and the three-dimensional scan region 320 are arranged non-coaxially with each other, for example, relative displacement between the center of the fundus imaging region 310 and the center of the three-dimensional scan region 320 and / or the fundus The relative position between the fundus imaging region 310 and the three-dimensional scan region 320 can be determined in advance or at any time by the relative position between the contour of the imaging region 310 and the contour of the three-dimensional scan region 320 .

本実施形態では、上記した例のいずれかにしたがって求められた眼底撮影領域310と3次元スキャン領域320との間の位置関係が、事前に又は随時に、位置関係情報として記憶部212に格納される。このような位置関係情報は、例えば、図6に例示するような眼底撮影領域310と3次元スキャン領域320との間の相対位置情報、眼底撮影領域310に関する設定情報及び/又は制御情報、並びに、3次元スキャン領域320に関する設定情報及び/又は制御情報のうち、少なくとも1つを含んでいてよい。   In the present embodiment, the positional relationship between the fundus imaging region 310 and the three-dimensional scan region 320 obtained according to any of the above examples is stored in the storage unit 212 as positional relationship information in advance or as needed. Ru. Such positional relationship information includes, for example, relative position information between the fundus imaging region 310 and the three-dimensional scan region 320 as illustrated in FIG. 6, setting information and / or control information regarding the fundus imaging region 310, and At least one of setting information and / or control information on the three-dimensional scan area 320 may be included.

〈画像形成部220〉
画像形成部220は、データ収集システム130により収集されたデータに基づいて画像データを形成する。画像形成部220は、プロセッサを含む。画像形成部220は、回路を含むハードウェアと、画像形成ソフトウェアとの協働により実現される。
<Image Forming Unit 220>
The image forming unit 220 forms image data based on the data acquired by the data acquisition system 130. The image forming unit 220 includes a processor. The image forming unit 220 is realized by the cooperation of hardware including a circuit and image forming software.

画像形成部220は、データ収集システム130により収集されたデータに基づいて断面像データを形成する。この処理には、従来のスウェプトソースOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、高速フーリエ変換(FFT)などの信号処理が含まれる。   The image forming unit 220 forms cross-sectional image data based on the data acquired by the data acquisition system 130. This processing includes signal processing such as noise removal (noise reduction), filter processing, and fast Fourier transform (FFT) as in the case of the conventional swept source OCT.

画像形成部220により形成される画像データは、OCTスキャンが適用されたエリアに配列された複数のAライン(z方向に沿うスキャンライン)における反射強度プロファイルを画像化することによって形成された一群の画像データ(一群のAスキャン画像データ)を含むデータセットである。   The image data formed by the image forming unit 220 is a group of images formed by imaging the reflection intensity profile at a plurality of A lines (scan lines along the z direction) arranged in the area to which the OCT scan is applied. It is a data set including image data (a group of A scan image data).

画像形成部220により形成される画像データは、例えば、1以上のBスキャン画像データ、又は、複数のBスキャン画像データを単一の3次元座標系に埋め込んで形成されたスタックデータなどである。画像形成部220は、スタックデータにボクセル化処理を施してボリュームデータ(ボクセルデータ)を形成することも可能である。スタックデータ及びボリュームデータは、3次元座標系により表現された3次元画像データの典型的な例である。   The image data formed by the image forming unit 220 is, for example, one or more B-scan image data or stack data formed by embedding a plurality of B-scan image data in a single three-dimensional coordinate system. The image forming unit 220 can also process the stack data into voxels to form volume data (voxel data). Stack data and volume data are typical examples of 3D image data represented by a 3D coordinate system.

OCT血管造影が実施される場合、主制御部211は、眼底Efの同じ領域を所定回数だけ繰り返しスキャンする。画像形成部220は、この繰り返しスキャンにおいてデータ収集システム130により収集されたデータセットに基づいて、モーションコントラスト画像を形成することができる。このモーションコントラスト画像は、眼底Efの血流に起因する干渉信号の時間的変化を強調して画像化した血管造影画像である。典型的には、眼底Efの3次元領域に対してOCT血管造影が適用され、眼底Efの血管の3次元的な分布を表す画像が得られる。   When OCT angiography is performed, the main control unit 211 repeatedly scans the same region of the fundus oculi Ef a predetermined number of times. The image forming unit 220 can form a motion contrast image based on the data set acquired by the data acquisition system 130 in this repetitive scan. The motion contrast image is an angiographic image imaged by emphasizing a temporal change of the interference signal caused by the blood flow of the fundus oculi Ef. Typically, OCT angiography is applied to a three-dimensional area of the fundus oculi Ef, and an image representing a three-dimensional distribution of blood vessels of the fundus oculi Ef is obtained.

画像形成部220は、3次元画像データを加工することができる。例えば、画像形成部220は、3次元画像データにレンダリングを適用して新たな画像データを構築することができる。レンダリングの手法としては、ボリュームレンダリング、最大値投影(MIP)、最小値投影(MinIP)、サーフェスレンダリング、多断面再構成(MPR)などがある。また、画像形成部220は、3次元画像データをz方向(Aライン方向、深さ方向)に投影してプロジェクションデータを構築することができる。また、画像形成部220は、3次元画像データの一部をz方向に投影してシャドウグラムを構築することができる。なお、シャドウグラムを構築するために投影される3次元画像データの一部は、例えば、後述のセグメンテーションを利用して設定される。   The image forming unit 220 can process three-dimensional image data. For example, the image forming unit 220 can apply rendering to three-dimensional image data to construct new image data. As the rendering method, there are volume rendering, maximum value projection (MIP), minimum value projection (MinIP), surface rendering, multi-section reconstruction (MPR) and the like. Further, the image forming unit 220 can construct projection data by projecting three-dimensional image data in the z direction (A line direction, depth direction). The image forming unit 220 can also construct a shadowgram by projecting a part of three-dimensional image data in the z direction. Note that a part of three-dimensional image data to be projected to construct a shadowgram is set, for example, using segmentation described later.

OCT血管造影が実施された場合、画像形成部220は、3次元血管造影画像データから、任意の2次元血管造影画像データ及び/又は任意の擬似的3次元血管造影画像データを構築することが可能である。例えば、画像形成部220は、3次元血管造影画像データに多断面再構成を適用することにより、眼底Efの任意の断面を表す2次元血管造影画像データを構築することができる。また、3次元血管造影画像データ又はその一部をz方向に投影して正面血管造影画像データを構築することが可能である。   When OCT angiography is performed, the image forming unit 220 can construct arbitrary two-dimensional angiographic image data and / or arbitrary pseudo three-dimensional angiographic image data from three-dimensional angiographic image data It is. For example, the image forming unit 220 can construct two-dimensional angiographic image data representing an arbitrary cross section of the fundus oculi Ef by applying multi-sectional reconstruction to the three-dimensional angiographic image data. In addition, it is possible to construct front angiographic image data by projecting three-dimensional angiographic image data or a part thereof in the z direction.

〈データ処理部230〉
データ処理部230は、各種のデータ処理を実行する。例えば、データ処理部230は、OCT画像データに画像処理や解析処理を適用することや、観察画像データ又は撮影画像データに画像処理や解析処理を適用することが可能である。データ処理部230は、例えば、プロセッサ及び専用回路基板の少なくともいずれかを含む。
<Data processing unit 230>
The data processing unit 230 executes various data processing. For example, the data processing unit 230 can apply image processing and analysis processing to OCT image data, and can apply image processing and analysis processing to observation image data or captured image data. The data processing unit 230 includes, for example, at least one of a processor and a dedicated circuit board.

例示的なデータ処理部230の構成を図5に示す。本例のデータ処理部230は、描出位置判定部231と、固視位置設定部232と、画像処理部233とを含む。なお、固視系250は、被検眼Eに固視標を提示するように構成される。本例の固視系250は、LCD39と、LCD39から出力された光束を眼底Efに投射するための光学系とを含む。また、OCT画像取得部260は、被検眼Eの眼底EfにOCTを適用して画像を取得するように構成される。本例のOCT画像取得部260は、眼底カメラユニット2に設けられた測定アームを構成する要素群と、OCTユニット100に設けられた要素群と、画像形成部220とを含む。また、撮影部270は、眼底Efを撮影するように構成される。本例の撮影部270は、照明光学系10と撮影光学系30とを含む。   The configuration of an exemplary data processing unit 230 is shown in FIG. The data processing unit 230 of this example includes a rendering position determination unit 231, a fixation position setting unit 232, and an image processing unit 233. The fixation system 250 is configured to present a fixation target to the eye E. The fixation system 250 of this example includes an LCD 39 and an optical system for projecting the light flux output from the LCD 39 onto the fundus oculi Ef. Further, the OCT image acquisition unit 260 is configured to apply an OCT to the fundus oculi Ef of the eye to be examined E to acquire an image. The OCT image acquisition unit 260 of this example includes an element group constituting a measurement arm provided in the fundus camera unit 2, an element group provided in the OCT unit 100, and an image forming part 220. The imaging unit 270 is also configured to image the fundus oculi Ef. The imaging unit 270 of this example includes the illumination optical system 10 and the imaging optical system 30.

〈描出位置判定部231〉
描出位置判定部231は、撮影部270により取得された正面画像を解析して、この正面画像の所定領域内に眼底Efの所定部位が描出されているか否か判定する。
<Deposition position determination unit 231>
The depiction position determination unit 231 analyzes the front image acquired by the imaging unit 270, and determines whether a predetermined region of the fundus oculi Ef is depicted in a predetermined region of the front image.

本例において、眼底Efの所定部位は、例えば、黄斑(黄斑中心、中心窩)、視神経乳頭(乳頭中心)、所望の血管位置、又は病変部であってよい。典型的には、黄斑が適用される。   In the present example, the predetermined site of the fundus oculi Ef may be, for example, the macula (macular center, fovea centralis), the optic nerve head (papillary center), a desired blood vessel position, or a lesion. Typically, the macula is applied.

また、本例において、正面画像の所定領域は、例えば、正面画像のフレーム(画像化領域)における1次元部分領域、又は2次元部分領域であってよい。典型的には、2次元部分領域が適用される。本例では、正面画像のフレームにおける2次元部分領域が予め設定される。   Further, in this example, the predetermined area of the front image may be, for example, a one-dimensional partial area or a two-dimensional partial area in a frame (imaging area) of the front image. Typically, two-dimensional subregions are applied. In this example, two-dimensional partial regions in the frame of the front image are set in advance.

第1の例において、描出位置判定部231は、まず、撮影部270により取得された正面画像を解析することで、眼底Efの所定部位(黄斑、視神経乳頭等)に相当する画像領域を特定する。この解析により特定される画像領域は、例えば、眼底Efの所定部位に相当する画像領域、眼底Efの所定部位の輪郭に相当する画像領域、又は、眼底Efの所定位置(黄斑中心、乳頭中心等)に相当する画素であってよい。このような画像領域を特定するための解析は、例えば、画素値に関する閾値処理、エッジ検出、テンプレートマッチング等を含んでいてよい。次に、描出位置判定部231は、特定された画像領域の座標と所定領域の座標とを比較することで、この画像領域が所定領域内に含まれるか否か判定する。   In the first example, the depiction position determination unit 231 first specifies an image area corresponding to a predetermined region (macular, optic nerve head, etc.) of the fundus oculi Ef by analyzing the front image acquired by the imaging unit 270. . The image area specified by this analysis is, for example, an image area corresponding to a predetermined part of the fundus oculi Ef, an image area corresponding to a contour of a predetermined part of the fundus oculi Ef, or a predetermined position of the fundus oculi Ef (macular center, papillary center, etc. It may be a pixel corresponding to. The analysis for specifying such an image area may include, for example, threshold processing on pixel values, edge detection, template matching, and the like. Next, the presentation position determination unit 231 determines whether the image area is included in the predetermined area by comparing the coordinates of the specified image area with the coordinates of the predetermined area.

典型例を説明する。まず、描出位置判定部231は、撮影部270により取得された正面画像を解析して、黄斑に相当する画像領域(黄斑領域)を特定する。次に、描出位置判定部231は、この黄斑領域の中心位置(黄斑中心)の座標を特定する。黄斑中心は、例えば、黄斑領域の重心位置として、又は、黄斑領域の輪郭の近似楕円(又は、近似円)の中心位置として特定される。続いて、描出位置判定部231は、この正面画像が定義された2次元座標系を利用し、特定された黄斑中心の座標と、所定領域に対応する座標の範囲とを比較する。換言すると、描出位置判定部231は、所定領域に対応する座標の範囲に黄斑中心の座標が含まれるか判定する。黄斑中心の座標が所定領域に対応する座標の範囲に含まれる場合、この正面画像の所定領域内に黄斑中心(所定部位)が描出されていると判定する。他方、黄斑中心の座標が所定領域に対応する座標の範囲に含まれない場合、この正面画像の所定領域内に黄斑中心(所定部位)が描出されていないと判定する。   A typical example is described. First, the depiction position determination unit 231 analyzes the front image acquired by the imaging unit 270, and specifies an image region (macular region) corresponding to the macula. Next, the depiction position determination unit 231 specifies the coordinates of the center position (macular center) of the macular region. The macular center is specified, for example, as the barycentric position of the macular region, or as the central position of the approximate ellipse (or approximate circle) of the contour of the macular region. Subsequently, the depicting position determination unit 231 compares the coordinates of the identified macular center with the range of the coordinates corresponding to the predetermined area, using the two-dimensional coordinate system in which the front image is defined. In other words, the depiction position determination unit 231 determines whether the coordinates of the macular center are included in the range of coordinates corresponding to the predetermined area. When the coordinates of the macular center are included in the range of the coordinates corresponding to the predetermined area, it is determined that the macular center (predetermined portion) is drawn in the predetermined area of the front image. On the other hand, when the coordinates of the macular center are not included in the range of the coordinates corresponding to the predetermined area, it is determined that the macular center (predetermined portion) is not depicted in the predetermined area of the front image.

この典型例では、所定部位は一点(黄斑中心)であるが、実施形態はこれに限定されるものではなく、所定部位は1次元的又は2次元的な広がりを有していてもよい。例えば、所定部位は、黄斑全体又は視神経乳頭全体であってよい。所定部位が広がりを有する場合、描出位置判定部231は、例えば、所定部位の少なくとも一部が所定領域内に描出されているか否か判定するように構成されてよい。他の例として、描出位置判定部231は、所定部位の全体が所定領域内に描出されているか否か判定するように構成されてもよい。   In this typical example, the predetermined site is a single point (macular center), but the embodiment is not limited thereto, and the predetermined site may have a one-dimensional or two-dimensional spread. For example, the predetermined site may be the entire macula or the entire optic disc. When the predetermined part has a spread, for example, the drawing position determination unit 231 may be configured to determine whether at least a part of the predetermined part is drawn in the predetermined area. As another example, the depiction position determination unit 231 may be configured to determine whether the entire predetermined site is depicted in the predetermined area.

第2の例を説明する。第2の例において、描出位置判定部231は、撮影部270により取得された正面画像中の所定領域(又は、所定領域及びその近傍領域)を解析することで、眼底Efの所定部位がこの所定領域内に描出されているか判定する。この解析は、例えば、第1の例と同じ要領で実行されてよい。   The second example will be described. In the second example, the depiction position determination unit 231 analyzes a predetermined area (or a predetermined area and its vicinity area) in the front image acquired by the imaging unit 270, so that the predetermined region of the fundus oculi Ef is the predetermined area. It is determined whether it is depicted in the area. This analysis may be performed, for example, in the same manner as the first example.

描出位置判定部231が実行可能な処理は上記の例示に限定されず、撮影部270により取得された正面画像の所定領域内に眼底Efの所定部位が描出されているか否か判定することが可能な任意の処理であってよい。   The processing that can be performed by the imaging position determination unit 231 is not limited to the above example, and it can be determined whether or not a predetermined region of the fundus oculi Ef is visualized in a predetermined area of the front image acquired by the imaging unit 270 May be any process.

描出位置判定部231は、画像処理プロセッサや画像解析プロセッサを含む。画像処理プロセッサは、回路を含むハードウェアと、画像処理ソフトウェアとの協働により実現される。また、画像解析プロセッサは、回路を含むハードウェアと、画像解析ソフトウェアとの協働により実現される。   The rendering position determination unit 231 includes an image processing processor and an image analysis processor. The image processing processor is realized by the cooperation of hardware including a circuit and image processing software. Also, an image analysis processor is realized by the cooperation of hardware including a circuit and image analysis software.

〈固視位置設定部232〉
固視位置設定部232は、眼底EfにOCTを適用するための固視位置を設定する。特に、固視位置設定部232は、撮影部270により取得された眼底Efの正面画像に基づいて、眼底Efにパノラマ撮影(パノラマOCT)を適用するための固視位置を設定することが可能である。本例の固視位置設定部232が実行可能な処理については後述する。
<Fixed position setting unit 232>
The fixation position setting unit 232 sets a fixation position for applying the OCT to the fundus oculi Ef. In particular, the fixation position setting unit 232 can set a fixation position for applying panoramic imaging (panoramic OCT) to the fundus oculi Ef based on the front image of the fundus oculi Ef acquired by the imaging unit 270. is there. The processing that can be executed by the fixation position setting unit 232 of this example will be described later.

固視位置設定部232は、固視位置を設定するプロセッサを含む。このプロセッサは、回路を含むハードウェアと、ソフトウェアとの協働により実現される。   The fixation position setting unit 232 includes a processor that sets a fixation position. The processor is realized by the cooperation of hardware including a circuit and software.

〈画像処理部233〉
画像処理部233は、OCT画像取得部260により取得されたOCT画像を処理する。例えば、画像処理部233は、2次元断面像データ又は3次元画像データにセグメンテーションを適用することができる。セグメンテーションは、画像中の部分領域を特定する処理である。典型的には、セグメンテーションは、眼底Efの所定組織に相当する画像領域を特定するために利用される。
<Image processing unit 233>
The image processing unit 233 processes the OCT image acquired by the OCT image acquisition unit 260. For example, the image processing unit 233 can apply segmentation to two-dimensional cross-sectional image data or three-dimensional image data. Segmentation is a process of identifying partial regions in an image. Typically, segmentation is used to identify an image area corresponding to a predetermined tissue of the fundus oculi Ef.

前述したように、画像形成部220は、セグメンテーションで特定された画像領域をz方向に投影してシャドウグラム(正面血管造影画像データ等)を構築することができる。シャドウグラムの例として、眼底Efの任意の深さ領域(例えば、網膜浅部、網膜深部、脈絡膜毛細血管板、強膜など)に対応するシャドウグラムや、任意の組織(例えば、内境界膜、神経線維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、網膜色素上皮、ブルッフ膜、脈絡膜、脈絡膜強膜境界、強膜、これらのいずれかの一部、これらの少なくとも2以上の組み合わせなど)に対応するシャドウグラムなどがある。   As described above, the image forming unit 220 can construct the shadowgram (front angiographic image data or the like) by projecting the image region specified by the segmentation in the z direction. As an example of a shadowgram, a shadowgram corresponding to an arbitrary depth region of the fundus oculi Ef (for example, shallow retina, deep retina, choroidal capillary plate, sclera, etc.), arbitrary tissue (for example, inner limiting membrane, Nerve fiber layer, ganglion cell layer, inner plexiform layer, inner granular layer, outer plexiform layer, outer granular layer, outer limiting membrane, retinal pigment epithelium, Bruch's membrane, choroid, choroid-scleral border, sclera, any of these Some of them, such as a combination of at least two or more).

画像処理部233は、撮影部270により取得された画像(観察画像、撮影画像等)を処理することや、他の眼科撮影装置により取得された画像を処理することが可能であってもよい。   The image processing unit 233 may be capable of processing an image (an observation image, a photographed image, etc.) acquired by the photographing unit 270 or processing an image acquired by another ophthalmologic photographing apparatus.

画像処理部233は、画像処理プロセッサや画像解析プロセッサを含む。画像処理プロセッサは、回路を含むハードウェアと、画像処理ソフトウェアとの協働により実現される。また、画像解析プロセッサは、回路を含むハードウェアと、画像解析ソフトウェアとの協働により実現される。   The image processing unit 233 includes an image processing processor and an image analysis processor. The image processing processor is realized by the cooperation of hardware including a circuit and image processing software. Also, an image analysis processor is realized by the cooperation of hardware including a circuit and image analysis software.

本例の画像処理部233が実行可能な処理については後述する。   The processing that can be executed by the image processing unit 233 of this example will be described later.

〈合成処理部2331〉
画像処理部233は合成処理部2331を含む。合成処理部2331は、パノラマ撮影において互いに異なる2以上の固視位置に対応して取得された2以上の3次元画像の合成画像を形成する。本例の合成処理部2331が実行可能な処理については後述する。
<Composition processing unit 2331>
The image processing unit 233 includes a combination processing unit 2331. The composition processing unit 2331 forms a composite image of two or more three-dimensional images acquired corresponding to two or more different fixation positions in panoramic imaging. The processing that can be executed by the combining processing unit 2331 of this example will be described later.

〈ユーザインターフェイス240〉
ユーザインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科撮影装置に接続された外部装置であってよい。
<User Interface 240>
The user interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes the display device 3. The operation unit 242 includes various operation devices and input devices. The user interface 240 may include, for example, a device such as a touch panel in which a display function and an operation function are integrated. It is also possible to construct an embodiment that does not include at least a portion of the user interface 240. For example, the display device may be an external device connected to the ophthalmologic imaging device.

〈パノラマ撮影について〉
本例において実行可能なパノラマ撮影について説明する。本例では、パノラマ撮影のための固視位置を設定するために、予備的に眼底撮影が適用される。この予備的眼底撮影は、例えば、固視標の初期位置(初期固視位置)を設定するための第1の予備的眼底撮影と、パノラマ撮影で実施される複数のOCTのための複数の固視位置を設定するための第2の予備的眼底撮影とを含む。第2の予備的眼底撮影では、固視位置を変更しながら眼底撮影が繰り返し実行される。
<About panorama shooting>
The panoramic imaging that can be performed in this example will be described. In this example, fundus imaging is preliminarily applied to set a fixation position for panoramic imaging. The preliminary fundus imaging includes, for example, a first preliminary fundus imaging for setting an initial position (initial fixation position) of a fixation target, and a plurality of solid imagings for a plurality of OCT performed in panoramic imaging. And second preliminary fundus imaging to set the viewing position. In the second preliminary fundus imaging, fundus imaging is repeatedly performed while changing the position of fixation.

第1の予備的眼底撮影の実行は任意的である。第1の予備的眼底撮影を経ずに第2の予備的眼底撮影を実行するようにしてもよい。第1の予備的眼底撮影が実行されない場合には、例えば、第2の予備的眼底撮影において、デフォルトの初期固視位置から固視位置の変更を開始することができる。或いは、第1の予備的眼底撮影が実行されない場合、第2の予備的眼底撮影において、ユーザが設定した初期固視位置から固視位置の変更を開始してもよい。   The execution of the first preliminary fundus imaging is optional. The second preliminary fundus imaging may be performed without the first preliminary fundus imaging. If the first preliminary fundus imaging is not performed, for example, in the second preliminary fundus imaging, changing the fixation position can be started from the default initial fixation position. Alternatively, if the first preliminary fundus imaging is not performed, the change in the fixation position may be started from the initial fixation position set by the user in the second preliminary fundus imaging.

一方、第1の予備的眼底撮影が実行される場合には、例えば、第2の予備的眼底撮影において、第1の予備的眼底撮影で設定された初期固視位置から固視位置の変更を開始することができる。或いは、第1の予備的眼底撮影が実行される場合、第2の予備的眼底撮影において、第1の予備的眼底撮影で設定された初期固視位置をユーザが修正することや、第1の予備的眼底撮影で設定された初期固視位置とデフォルトの初期固視位置とのうちの一方を自動又は手動で選択することが可能であってもよい。   On the other hand, when the first preliminary fundus imaging is performed, for example, in the second preliminary fundus imaging, changing the fixation position from the initial fixation position set in the first preliminary fundus imaging It can start. Alternatively, if the first preliminary fundus imaging is performed, the user may correct the initial fixation position set in the first preliminary fundus imaging in the second preliminary fundus imaging, or It may be possible to automatically or manually select one of the initial fixation position set in preliminary fundus imaging and the default initial fixation position.

〈第1の予備的眼底撮影等について〉
第1の予備的眼底撮影の例を説明する。第1の予備的眼底撮影において、主制御部211は、眼底Efの所定部位を中心とする正面画像を取得するための第1の固視位置に対応する固視標を被検眼Eに提示しつつ眼底Efの正面画像(予備的正面画像と呼ぶ)を取得するように固視系250及び撮影部270を制御する。本例では、この所定部位(つまり、第1の固視位置)の典型例として黄斑(黄斑中心、中心窩)を採用するが、眼底の他の部位(例えば、視神経乳頭又は眼底中心)が所定部位であってもよい。
<About the first preliminary fundus photography etc>
An example of the first preliminary fundus imaging will be described. In the first preliminary fundus imaging, the main control unit 211 presents to the eye E a fixation target corresponding to a first fixation position for acquiring a front image centering on a predetermined region of the fundus oculi Ef. At the same time, the fixation system 250 and the imaging unit 270 are controlled to acquire a front image (referred to as a preliminary front image) of the fundus oculi Ef. In this example, the macula (macular center, fovea centralis) is adopted as a typical example of this predetermined site (that is, the first fixation position), but other sites of the fundus (for example, optic nerve head or fundus center) It may be a site.

画像処理部233は、予備的正面画像の中心位置に対する眼底Efの所定部位の画像の偏位を算出する。   The image processing unit 233 calculates the deviation of the image of the predetermined part of the fundus oculi Ef with respect to the center position of the preliminary front image.

例えば、画像処理部233は、まず、予備的正面画像を解析して黄斑中心に相当する画素の座標を求める。続いて、画像処理部233は、特定された黄斑中心の座標と、予備的正面画像の中心位置の座標との間の差を求める。黄斑中心の座標と予備的正面画像の中心位置の座標との間の差は、第1の予備的眼底撮影で適用された眼底撮影領域(撮影野)の中心位置に対する実際の黄斑中心の偏位に相当する。   For example, the image processing unit 233 first analyzes the preliminary front image to obtain the coordinates of the pixel corresponding to the macular center. Subsequently, the image processing unit 233 obtains a difference between the coordinates of the identified macula center and the coordinates of the center position of the preliminary front image. The difference between the coordinates of the macular center and the coordinates of the center position of the preliminary frontal image is the deviation of the actual macular center with respect to the center position of the fundus imaging area (shooting field) applied in the first preliminary fundus imaging. It corresponds to

画像処理部233により求められた偏位に基づいて、固視位置設定部232は、第1の固視位置を補正することができる。例えば、固視位置設定部232は、画像処理部233により求められた偏位がキャンセルされるように(つまり、当該偏位がゼロになるように)第1の固視位置を補正する。それにより、眼底撮影領域の中心位置(パノラマ撮影の中心位置)が第1の固視位置に対応する部位(黄斑中心)に略一致される。   The fixation position setting unit 232 can correct the first fixation position based on the deviation obtained by the image processing unit 233. For example, the fixation position setting unit 232 corrects the first fixation position so that the deviation obtained by the image processing unit 233 is canceled (that is, the deviation becomes zero). As a result, the central position of the fundus imaging region (the central position of panoramic imaging) is substantially matched with the portion (the macular center) corresponding to the first fixation position.

また、固視位置設定部232は、デフォルトの初期固視位置を補正することができる。具体例として、固視位置設定部232は、第1の固視位置と第2の固視位置(既定の周辺固視位置)との間の相対位置が維持されるように、第1の固視位置の補正量と同じ補正量を第2の固視位置に適用することができる。つまり、固視位置設定部232は、画像処理部233により求められた偏位(ベクトル)の逆ベクトルに相当する補正量を第2の固視位置に適用することができる。本例では、デフォルトの初期固視位置を補正して得られた固視位置を、第2の予備的眼底撮影における初期固視位置として適用することができる。   Further, the fixation position setting unit 232 can correct the default initial fixation position. As a specific example, the fixation position setting unit 232 is configured to maintain the relative position between the first fixation position and the second fixation position (predetermined peripheral fixation position). The same amount of correction as that of the visual position can be applied to the second fixation position. That is, the fixation position setting unit 232 can apply the correction amount corresponding to the inverse vector of the deviation (vector) obtained by the image processing unit 233 to the second fixation position. In this example, the fixation position obtained by correcting the default initial fixation position can be applied as the initial fixation position in the second preliminary fundus imaging.

なお、第2の予備的眼底撮影で適用される初期固視位置を設定するための処理は、本例に限定されない。一例として、撮影部270による眼底撮影領域と眼底Efの黄斑の描出位置とに基づいて初期固視位置を設定することが可能である。例えば、固視位置設定部232は、第1の予備的眼底撮影で取得された予備的正面画像のフレームの所定領域内に眼底Efの黄斑が描出されるような固視位置を算出することができる。この算出処理は、フレームの所定領域と黄斑の描出位置との間の相対位置(偏位)に基づき実行可能である。   The process for setting the initial fixation position applied in the second preliminary fundus imaging is not limited to this example. As an example, the initial fixation position can be set based on the fundus imaging region by the imaging unit 270 and the depiction position of the macula in the fundus oculi Ef. For example, the fixation position setting unit 232 may calculate a fixation position such that the macula of the fundus oculi Ef is drawn within a predetermined area of the frame of the preliminary front image acquired in the first preliminary fundus imaging it can. This calculation process can be performed based on the relative position (deviation) between the predetermined area of the frame and the depiction position of the macula.

このように固視位置設定部232により初期固視位置が設定された場合、この初期固視位置を適用して第2の予備的眼底撮影を実行することが可能である。また、前述したように、この初期固視位置を修正することも可能である。   As described above, when the initial fixation position is set by the fixation position setting unit 232, it is possible to apply the initial fixation position and execute the second preliminary fundus imaging. Moreover, as described above, it is also possible to correct this initial fixation position.

第2の予備的眼底撮影に適用される初期固視位置は、標準的な眼の眼底において黄斑から所定方向に所定距離だけ離れた位置を中心とする正面画像を取得するための固視位置であってもよい。   The initial fixation position applied to the second preliminary fundus imaging is a fixation position for acquiring a front image centered on a position at a predetermined distance from the macula in a predetermined direction on the fundus of a standard eye It may be.

〈第2の予備的眼底撮影等について〉
第2の予備的眼底撮影の例を説明する。第2の予備的眼底撮影において、主制御部211は、まず、第1の予備的眼底撮影で設定された初期固視位置(又は、それを修正した初期固視位置、若しくは、デフォルトの初期固視位置など)に対応する固視標を被検眼Eに提示するように固視系250を制御する。すなわち、主制御部211は、例えば、初期固視位置に対応するLCD39の表示位置(ピクセル)に固視標を表示するように固視系250を制御する。
<About the second preliminary fundus photography etc>
An example of the second preliminary fundus imaging will be described. In the second preliminary fundus imaging, the main control unit 211 first makes an initial fixation position set in the first preliminary fundus imaging (or an initial fixation position obtained by correcting the position or a default initial fixation). The fixation system 250 is controlled to present the fixation target corresponding to the visual position etc. to the eye E to be examined. That is, the main control unit 211 controls the fixation system 250 to display the fixation target at the display position (pixel) of the LCD 39 corresponding to the initial fixation position, for example.

更に、主制御部211は、初期固視位置に最初に提示された固視標を移動しつつ(つまり、初期固視位置を起点として固視位置を変更しつつ)眼底Efの正面画像を繰り返し取得するように、固視系250及び撮影部270を制御する。撮影部270による眼底撮影は、例えば、所定のフレームレートでの観察画像の取得、又は、所定の繰り返しレートでの撮影画像の取得である。これにより、複数の固視位置に対応する複数の正面画像が得られる。また、主制御部211は、撮影部270により取得された各正面画像に対し、この正面画像が取得されたときの固視位置を示す情報を関連付ける。   Furthermore, the main control unit 211 repeats the front image of the fundus oculi Ef while moving the fixation target initially presented to the initial fixation position (that is, changing the fixation position starting from the initial fixation position). The fixation system 250 and the imaging unit 270 are controlled so as to acquire them. The fundus imaging by the imaging unit 270 is, for example, acquisition of an observation image at a predetermined frame rate or acquisition of a photographed image at a predetermined repetition rate. Thereby, a plurality of frontal images corresponding to a plurality of fixation positions are obtained. Further, the main control unit 211 associates, with each front image acquired by the imaging unit 270, information indicating a fixation position when the front image is acquired.

ここで、固視標の移動パターンは、例えば、既定のパターン、又は、逐次に取得される正面画像に基づき決定されるパターンであってよい。後者の場合、例えば、データ処理部230(描出位置判定部231)は、まず、正面画像を解析して眼底Efの黄斑が描出されているか判定する。   Here, the movement pattern of the fixation target may be, for example, a predetermined pattern or a pattern determined based on front images sequentially acquired. In the latter case, for example, the data processing unit 230 (the presentation position determination unit 231) first analyzes the front image to determine whether the macula of the fundus oculi Ef is depicted.

正面画像に黄斑が描出されていないと判定された場合、例えば、データ処理部230(固視位置設定部232)は、黄斑と初期固視位置との相対位置、及び、初期固視位置から当該固視位置までの移動内容(移動方向、移動量)に基づいて、次に取得される正面画像に黄斑が描出されるような次の固視位置を決定することができる。正面画像に黄斑が描出されるまでこの処理を繰り返すことができる。或いは、主制御部211が眼底撮影領域のサイズを拡大するようにしてもよい。   When it is determined that the macula is not depicted in the front image, for example, the data processing unit 230 (the fixation position setting unit 232) determines the relative position between the macula and the initial fixation position and the initial fixation position. Based on the movement content (moving direction, movement amount) to the fixation position, it is possible to determine the next fixation position at which the macula is depicted in the front image to be acquired next. This process can be repeated until the macula is depicted in the frontal image. Alternatively, the main control unit 211 may enlarge the size of the fundus imaging region.

正面画像に黄斑が描出されていると判定された場合、例えば、描出位置判定部231は、この正面画像を解析して、この正面画像の所定領域内に黄斑が描出されているか判定する。この処理は、前述した要領で実行可能である。   If it is determined that the macula is rendered in the front image, for example, the rendering position determination unit 231 analyzes this front image to determine whether the macula is rendered in a predetermined region of the front image. This process can be performed as described above.

正面画像の所定領域内に黄斑が描出されていない場合、例えば、データ処理部230(固視位置設定部232)は、黄斑の描出位置と所定領域との相対位置に基づいて、次に取得される正面画像の所定領域内に黄斑が描出されるような次の固視位置を決定することができる。所定領域内に黄斑が描出されるまでこの処理を繰り返すことができる。   When the macula is not depicted in the predetermined area of the front image, for example, the data processing unit 230 (the fixation position setting unit 232) is acquired next based on the relative position between the visualization position of the macula and the predetermined area. The next fixation position can be determined such that the macula is depicted within a predetermined area of the frontal image. This process can be repeated until the macula is visualized in the predetermined area.

正面画像の所定領域内に黄斑が描出されている場合、固視位置設定部232は、この正面画像が取得されたときの固視標の位置に基づいて、パノラマ撮影のための1以上の固視位置を設定することができる。   When the macula is drawn in a predetermined area of the front image, the fixation position setting unit 232 determines one or more solid images for panoramic imaging based on the position of the fixation target when the front image is acquired. The viewing position can be set.

このような処理の具体例を説明する。図7に示す符号Mcは、眼底Efの黄斑(黄斑中心)の位置を示す。符号400は、固視標の位置(固視位置)を示す。符号401は、固視位置400を中心とする眼底撮影領域を示す。符号402は、眼底撮影領域401における所定領域を示す。   A specific example of such processing will be described. The code Mc shown in FIG. 7 indicates the position of the macula (macular center) of the fundus oculi Ef. Reference numeral 400 indicates the position of the fixation target (the fixation position). Reference numeral 401 denotes a fundus imaging region centered on the fixation position 400. Reference numeral 402 denotes a predetermined area in the fundus imaging area 401.

図7に示す例では、黄斑Mcが眼底撮影領域401の外部に配置されており、眼底撮影領域401を撮影して得られた正面画像には黄斑が描出されていない。この場合、例えば、固視位置設定部232は、第1の予備的眼底撮影で得られた情報や、第2の予備的眼底撮影における現段階までの固視標の移動内容に基づいて、固視位置400よりも黄斑Mcに近い新たな固視位置を設定することができる。この新たな固視位置が適用された状態で新たな眼底撮影を実行して新たな正面画像を取得し、同様の処理を実行する。   In the example shown in FIG. 7, the macula Mc is disposed outside the fundus imaging region 401, and the macula is not depicted in the front image obtained by imaging the fundus imaging region 401. In this case, for example, the fixation position setting unit 232 may fix the fixation target based on the information obtained in the first preliminary fundus imaging and the movement of the fixation target up to the present stage in the second preliminary fundus imaging. A new fixation position closer to the macula Mc than the visual position 400 can be set. While the new fixation position is applied, new fundus imaging is performed to acquire a new front image, and the same processing is performed.

黄斑が描出された正面画像が得られるまで上記の一連の処理を繰り返し実行することで、黄斑Mcが描出された正面画像が得られる。このような正面画像の例を図8に示す。図8に示す符号Mcは、図7と同様に黄斑を示す。符号410は、このときの固視標の位置(固視位置)を示す。符号411は、固視位置410を中心とする眼底撮影領域を示す。符号412は、眼底撮影領域411における所定領域を示す。   By repeatedly executing the above-described series of processes until the frontal image in which the macula is drawn is obtained, a frontal image in which the macula Mc is drawn is obtained. An example of such a front image is shown in FIG. The code Mc shown in FIG. 8 indicates the macula lutea similarly to FIG. Reference numeral 410 indicates the position of the fixation target at this time (fixation position). Reference numeral 411 denotes a fundus imaging region centered on the fixation position 410. Reference numeral 412 denotes a predetermined area in the fundus imaging area 411.

図8に示す例では、黄斑Mcが所定領域412の外部に描出されている。この場合、例えば、固視位置設定部232は、黄斑Mcの描出位置と所定領域412との間の相対位置に基づいて、正面画像の所定領域内に黄斑Mcが描出されるような新たな固視位置を設定することができる。この新たな固視位置が適用された状態で新たな眼底撮影領域を実行して新たな正面画像を取得し、同様の処理を実行する。   In the example shown in FIG. 8, the macula Mc is depicted outside the predetermined area 412. In this case, for example, the fixation position setting unit 232 sets a new solid such that the macular Mc is drawn in the predetermined area of the front image based on the relative position between the drawing position of the macula Mc and the predetermined area 412. The viewing position can be set. With the new fixation position applied, a new fundus imaging area is executed to acquire a new front image, and the same processing is performed.

所定領域内に黄斑が描出された正面画像が得られるまで上記の一連の処理を繰り返し実行される。それにより、図9に例示するように、所定領域422内に黄斑Mcが描出された正面画像421が得られる。符号420は、このときの固視位置を示す。固視位置設定部232は、この固視位置420を、パノラマ撮影のための複数の固視位置の1つとして設定することができる。   The above-described series of processing is repeatedly performed until a frontal image in which the macula is depicted in the predetermined area is obtained. Thereby, as illustrated in FIG. 9, a front image 421 in which the macula Mc is drawn in the predetermined area 422 is obtained. Reference numeral 420 indicates the fixation position at this time. The fixation position setting unit 232 can set the fixation position 420 as one of a plurality of fixation positions for panoramic imaging.

なお、眼底撮影領域内の所定領域の位置は、固視位置に対して黄斑に近い側に設定される。また、所定領域のサイズは、例えば、パノラマ撮影において複数の画像を合成するための重複領域(のりしろ)のサイズに応じて設定される。また、所定領域の形状は、任意に設定されてよい。   The position of the predetermined area in the fundus imaging area is set to the side closer to the macula with respect to the fixation position. Further, the size of the predetermined area is set, for example, in accordance with the size of an overlapping area (margin area) for combining a plurality of images in panoramic imaging. Also, the shape of the predetermined area may be set arbitrarily.

固視位置設定部232は、パノラマ撮影のための複数の固視位置のうちの2つ以上を設定することが可能である。例えば、図9に例示した固視位置420がパノラマ撮影のための固視位置として設定された場合、固視位置設定部232は、固視位置420と黄斑Mcとの間の相対位置に基づいて、パノラマ撮影のための他の固視位置を設定することができる。   The fixation position setting unit 232 can set two or more of a plurality of fixation positions for panoramic imaging. For example, when the fixation position 420 illustrated in FIG. 9 is set as a fixation position for panoramic imaging, the fixation position setting unit 232 determines the relative position between the fixation position 420 and the macula Mc. Other fixation positions for panoramic imaging can be set.

その典型例として、固視位置設定部232は、固視位置420と黄斑Mcとを通る第1の直線上において、黄斑Mcに対して固視位置420と対称な位置に、パノラマ撮影のための固視位置を設定することができる。また、固視位置設定部232は、黄斑Mcの位置において第1の直線に直交する第2の直線上において、黄斑Mcと固視位置420との間の距離と同じ距離だけ黄斑Mcから離れた2つの位置の少なくとも一方の位置に、パノラマ撮影のための固視位置を設定することができる。   As a typical example, the fixation position setting unit 232 is for panoramic imaging at a position symmetrical to the fixation position 420 with respect to the macula Mc on a first straight line passing through the fixation position 420 and the macula Mc. The fixation position can be set. Further, the fixation position setting unit 232 is separated from the macula Mc by the same distance as the distance between the macula Mc and the fixation position 420 on the second straight line orthogonal to the first straight line at the position of the macula Mc A fixation position for panoramic imaging can be set at at least one of the two positions.

また、パノラマ撮影のための固視位置をユーザが任意に設定できるように構成することも可能である。   It is also possible to configure the user to arbitrarily set the fixation position for panoramic imaging.

〈動作〉
本実施形態に係る眼科撮影装置1の動作について説明する。眼科撮影装置1の動作の例を図10に示す。なお、患者情報入力、アライメント、フォーカス調整など、眼底撮影のための一般的な準備処理は既に完了しているとする。また、干渉感度調整、z位置調整など、OCTのための一般的な準備処理は任意のタイミングで実行されるものとする。
<Operation>
The operation of the ophthalmologic imaging apparatus 1 according to the present embodiment will be described. An example of the operation of the ophthalmologic imaging apparatus 1 is shown in FIG. It is assumed that general preparation processing for fundus imaging, such as patient information input, alignment, and focus adjustment, has already been completed. In addition, general preparation processing for OCT, such as interference sensitivity adjustment and z position adjustment, is performed at any timing.

(S1:第1の予備的眼底撮影を実行)
まず、眼科撮影装置1は、前述した第1の予備的眼底撮影を実行する。第1の予備的眼底撮影は、第2の予備的眼底撮影で適用される固視移動の初期位置(初期固視位置)を設定するために行われる。本例の第1の予備的眼底撮影では、主制御部211が、デフォルトの黄斑撮影用固視標を被検眼Eに提示するように固視系250を制御し、且つ、この黄斑撮影用固視標が提示されている被検眼Eの眼底Efを撮影するように撮影部270を制御する。それにより、予備的正面画像が得られる。
(S1: Perform the first preliminary fundus imaging)
First, the ophthalmologic imaging apparatus 1 executes the first preliminary fundus imaging described above. The first preliminary fundus imaging is performed to set an initial position (initial fixation position) of fixation movement applied in the second preliminary fundus imaging. In the first preliminary fundus imaging in this example, the main control unit 211 controls the fixation system 250 so as to present a default macular fixation target for the eye E to be examined, and the solid imaging for the macular fixation is performed. The imaging unit 270 is controlled to capture the fundus oculi Ef of the subject eye E on which the target is presented. Thereby, a preliminary frontal image is obtained.

ここで、デフォルトの黄斑撮影用固視標は、典型的には、LCD39の表示画面の中心位置(つまり、ハーフミラー33Aにより分岐された光路の光軸上の位置)に表示された可視輝点である。ただし、デフォルトの黄斑撮影用固視標はこれに限定されない。   Here, the default macular fixation target is a visible bright spot typically displayed at the center position of the display screen of the LCD 39 (that is, the position on the optical axis of the light path branched by the half mirror 33A). It is. However, the default macular fixation target is not limited to this.

(S2:初期固視位置を設定)
主制御部211は、ステップS1の第1の予備的眼底撮影で取得された予備的正面画像をデータ処理部230に送る。画像処理部233は、予備的正面画像の中心位置に対する眼底Efの黄斑の画像の偏位を算出する。例えば、画像処理部233は、予備的正面画像を解析することで黄斑中心に相当する画素の位置を特定し、予備的正面画像の中心位置に対するこの画素の偏位を算出する。
(S2: Set initial fixation position)
The main control unit 211 sends the preliminary front image acquired in the first preliminary fundus imaging in step S1 to the data processing unit 230. The image processing unit 233 calculates the displacement of the macular image of the fundus oculi Ef with respect to the center position of the preliminary front image. For example, the image processing unit 233 identifies the position of the pixel corresponding to the macular center by analyzing the preliminary front image, and calculates the displacement of this pixel with respect to the central position of the preliminary front image.

固視位置設定部232は、画像処理部233により算出された偏位に基づいて、デフォルトの黄斑撮影用固視標に対応する固視位置(つまり、LCD39の表示画面における可視輝点の表示位置)を補正する。補正された黄斑撮影用固視標に対応する眼底Efの位置(黄斑)は、後段で実行されるパノラマ撮影の中心位置にほぼ一致する。すなわち、偏位が表すベクトルの逆ベクトルに相当する方向及び距離の平行移動をデフォルトの黄斑撮影用固視標に適用することで、正面画像の中心位置に黄斑が描出されるようにデフォルトの黄斑撮影用固視標の位置が補正される。   The fixation position setting unit 232 determines the fixation position corresponding to the default fixation target for macular imaging based on the displacement calculated by the image processing unit 233 (that is, the display position of the visible bright spot on the display screen of the LCD 39). ) To correct. The position (macular) of the fundus oculi Ef corresponding to the corrected macular imaging fixation target substantially coincides with the central position of the panoramic imaging performed in the subsequent stage. That is, by applying the parallel movement of the direction and distance corresponding to the inverse vector of the vector represented by the deviation to the default fixation target for macular photography, the default macular is depicted so that the macular is depicted at the center position of the front image. The position of the fixation target for imaging is corrected.

更に、固視位置設定部232は、デフォルトの周辺固視位置(第2の固視位置)についても同様の補正を行う。例えば、固視位置設定部232は、画像処理部233により算出された偏位に基づいて、デフォルトの周辺固視位置(つまり、LCD39の表示画面における可視輝点の表示位置)を補正する。すなわち、偏位が表すベクトルの逆ベクトルに相当する方向及び距離の平行移動をデフォルトの周辺固視位置に適用することで、この周辺固視位置が補正される。補正されたデフォルトの周辺固視位置は、第2の予備的眼底撮影のための初期固視位置に設定される。   Furthermore, the fixation position setting unit 232 performs the same correction on the default peripheral fixation position (second fixation position). For example, the fixation position setting unit 232 corrects the default peripheral fixation position (that is, the display position of the visible bright spot on the display screen of the LCD 39) based on the deviation calculated by the image processing unit 233. That is, the peripheral fixation position is corrected by applying the parallel movement of the direction and distance corresponding to the inverse vector of the vector represented by the deviation to the default peripheral fixation position. The corrected default peripheral fixation position is set to the initial fixation position for the second preliminary fundus imaging.

(S3:第2の予備的眼底撮影を開始)
初期固視位置の設定(例えば、周辺固視位置の補正)が完了すると、処理は第2の予備的眼底撮影に移行する。第2の予備的眼底撮影は、パノラマ撮影のための複数の固視位置を設定するために実行される。
(S3: Start the second preliminary fundus imaging)
When the setting of the initial fixation position (for example, correction of the peripheral fixation position) is completed, the process proceeds to the second preliminary fundus imaging. The second preliminary fundus imaging is performed to set a plurality of fixation positions for panoramic imaging.

主制御部211は、ステップS2で補正された周辺固視位置に対応するLCD39の表示画面の位置(ピクセル)に可視輝点を表示させる。   The main control unit 211 displays the visible bright spot on the position (pixel) of the display screen of the LCD 39 corresponding to the peripheral fixation position corrected in step S2.

(S4:正面画像を取得)
更に、主制御部211は、眼底Efを撮影して正面画像を取得するように撮影部270を制御する。
(S4: Acquire the front image)
Furthermore, the main control unit 211 controls the imaging unit 270 so as to image the fundus oculi Ef and acquire a front image.

(S5:黄斑が描出されているか?)
描出位置判定部231は、ステップS4で取得された正面画像を解析して、この正面画像に眼底Efの黄斑が描出されているか判定する。正面画像に黄斑が描出されていないと判定された場合(S5:No)、処理はステップS6に移行する。他方、正面画像に黄斑が描出されていると判定された場合(S5:Yes)、処理はステップS7に移行する。
(S5: Is the macula drawn?)
The depiction position determination unit 231 analyzes the front image acquired in step S4 and determines whether the macula of the fundus oculi Ef is depicted in the front image. If it is determined that the macula has not been depicted in the front image (S5: No), the process proceeds to step S6. On the other hand, when it is determined that the macula is depicted in the front image (S5: Yes), the process proceeds to step S7.

(S6:固視位置を変更)
ステップS5において正面画像に黄斑が描出されていないと判定された場合(S5:No)、固視位置設定部232は、次に取得される正面画像に黄斑が描出されるように固視位置を変更する。
(S6: Change fixation position)
If it is determined in step S5 that the macula is not depicted in the front image (S5: No), the fixation position setting unit 232 sets the fixation position so as to render the macula in the front image to be acquired next change.

ステップS4〜S6の一連の処理は、例えば、ステップS5で「Yes」と判定されるまで繰り返し実行される。ここで、この一連の処理が所定回数だけ繰り返された場合、又は、この一連の処理が所定時間にわたり繰り返された場合、エラー判定を行うことができる。   A series of processes of steps S4 to S6 are repeatedly executed until it is determined “Yes” in step S5, for example. Here, if the series of processes is repeated a predetermined number of times, or if the series of processes is repeated for a predetermined time, error determination can be performed.

(S7:所定領域内に黄斑が描出されているか?)
ステップS5において正面画像に黄斑が描出されていると判定された場合(S5:Yes)、描出位置判定部231は、この正面画像の所定領域内に黄斑が描出されているか判定する。正面画像の所定領域内に黄斑が描出されていると判定された場合(S7:Yes)、処理はステップS8に移行する。
(S7: Is the macula within the given area drawn?)
If it is determined in step S5 that the macula is rendered in the front image (S5: Yes), the rendering position determination unit 231 determines whether the macula is rendered in the predetermined area of the front image. If it is determined that the macula is depicted in the predetermined area of the front image (S7: Yes), the process proceeds to step S8.

他方、正面画像の所定領域内に黄斑が描出されていないと判定された場合(S7:No)、処理はステップS6に移行する。ステップS4〜S7の一連の処理は、例えば、ステップS7で「Yes」と判定されるまで繰り返し実行される。ここで、この一連の処理が所定回数だけ繰り返された場合、又は、この一連の処理が所定時間にわたり繰り返された場合、エラー判定を行うことができる。   On the other hand, when it is determined that the macula has not been depicted in the predetermined region of the front image (S7: No), the process proceeds to step S6. A series of processes of steps S4 to S7 are repeatedly executed, for example, until "Yes" is determined in step S7. Here, if the series of processes is repeated a predetermined number of times, or if the series of processes is repeated for a predetermined time, error determination can be performed.

(S8:パノラマ撮影のための複数の固視位置を設定)
正面画像の所定領域内に黄斑が描出されていると判定されたら(S7:Yes)、処理は、パノラマ撮影のための固視位置の設定に移行する。固視位置設定部232は、所定領域内に黄斑が描出されていると判定された正面画像が撮影部270により取得されたときの固視位置に基づいて、パノラマ撮影のための複数の固視位置を設定する。
(S8: Set multiple fixation positions for panoramic shooting)
If it is determined that the macula is depicted in the predetermined area of the front image (S7: Yes), the processing shifts to setting of a fixation position for panoramic imaging. The fixation position setting unit 232 sets a plurality of fixations for panoramic imaging based on the fixation position when the imaging unit 270 acquires the front image determined that the macula is depicted in the predetermined area. Set the position.

例えば、図11に示すように、黄斑500(黄斑撮影用固視位置)の左下に位置する第1の周辺固視位置501が、初期固視位置を起点とする固視標の移動から設定されたとする。第1の周辺固視位置501は、黄斑500から左下方向に距離Tだけ離れた位置に設定されている。この場合、固視位置設定部232は、(1)黄斑500から左上方向に距離Tだけ離れた位置に第2の周辺固視位置502を設定し、(2)黄斑500から右上方向に距離Tだけ離れた位置に第3の周辺固視位置503を設定し、(3)黄斑500から右下方向に距離Tだけ離れた位置に第4の周辺固視位置504を設定することができる。   For example, as shown in FIG. 11, the first peripheral fixation position 501 located at the lower left of the macula 500 (the fixation position for macular photography) is set from the movement of the fixation target starting from the initial fixation position. I suppose. The first peripheral fixation position 501 is set at a distance T away from the macula 500 in the lower left direction. In this case, the fixation position setting unit 232 sets (1) the second peripheral fixation position 502 at a position separated by a distance T in the upper left direction from the macula 500, and (2) the distance T in the upper right direction from the macula 500 The third peripheral fixation position 503 can be set at a position away from the macular 500, and the fourth peripheral fixation position 504 can be set at a position separated by a distance T in the lower right direction from the macula 500 (3).

なお、複数の周辺固視位置の個数は4つに限定されず、また、複数の周辺固視位置の配列は図11に示す配列に限定されない。一般に、予め設定された複数の周辺固視位置の配列(例えば、デフォルトの配列、ユーザ又は眼科撮影装置1により指定された配列)に応じて、複数の周辺固視位置を設定(補正)することが可能である。   The number of peripheral fixation positions is not limited to four, and the arrangement of the peripheral fixation positions is not limited to the arrangement shown in FIG. In general, setting (correcting) a plurality of peripheral fixation positions in accordance with an arrangement of a plurality of peripheral fixation positions set in advance (for example, an arrangement of a default, an arrangement designated by the user or the ophthalmologic imaging apparatus 1) Is possible.

(S9:パノラマ撮影を実行して複数の3次元画像を取得)
主制御部211は、ステップS8で設定された複数の(周辺)固視位置に対応する複数の固視標を順次に被検眼Eに提示するように固視系250を制御し、且つ、これらの固視標のそれぞれが被検眼Eに提示されているときに眼底Efの3次元画像を取得するようにOCT画像取得部260を制御する。なお、ここで適用される3次元OCTは、3次元OCT血管造影であってもよい。
(S9: Perform panoramic shooting and acquire multiple 3D images)
The main control unit 211 controls the fixation system 250 so that the plurality of fixation targets corresponding to the plurality of (peripheral) fixation positions set in step S8 are sequentially presented to the eye to be examined E, and The OCT image acquisition unit 260 is controlled to acquire a three-dimensional image of the fundus oculi Ef when each of the fixation targets is presented to the eye E to be examined. The three-dimensional OCT applied here may be three-dimensional OCT angiography.

一例として、図11に示す4つの周辺固視位置501〜504がパノラマ撮影に適用される場合について説明する。   As an example, the case where four peripheral fixation positions 501 to 504 shown in FIG. 11 are applied to panoramic imaging will be described.

まず、主制御部211は、第1の周辺固視位置501に対応する第1の周辺固視標を提示するように固視系250を制御し、更に、第1の周辺固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第1の周辺スキャン範囲511に対応する第1の周辺3次元画像が取得される。第1の周辺3次元画像(第1の周辺スキャン範囲511)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。   First, the main control unit 211 controls the fixation system 250 to present the first peripheral fixation target corresponding to the first peripheral fixation position 501, and the first peripheral fixation target is further presented. The OCT image acquisition unit 260 is controlled to execute a three-dimensional scan in the above state. Thereby, a first peripheral three-dimensional image corresponding to the first peripheral scan range 511 shown in FIG. 11 is acquired. The dimensions of the first peripheral three-dimensional image (first peripheral scan range 511) are W (mm) in both the length in the x direction and the length in the y direction.

次に、主制御部211は、第2の周辺固視位置502に対応する第2の周辺固視標を提示するように固視系250を制御し、更に、第2の周辺固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第2の周辺スキャン範囲512に対応する第2の周辺3次元画像が取得される。第2の周辺3次元画像(第2の周辺スキャン範囲512)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。   Next, the main control unit 211 controls the fixation system 250 to present a second peripheral fixation target corresponding to the second peripheral fixation position 502, and further, the second peripheral fixation target is The OCT image acquisition unit 260 is controlled to execute a three-dimensional scan in the presented state. Thereby, a second peripheral three-dimensional image corresponding to the second peripheral scan range 512 shown in FIG. 11 is acquired. The dimensions of the second peripheral three-dimensional image (the second peripheral scan range 512) are W (mm) in both the length in the x direction and the length in the y direction.

続いて、主制御部211は、第3の周辺固視位置503に対応する第3の周辺固視標を提示するように固視系250を制御し、更に、第3の周辺固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第3の周辺スキャン範囲513に対応する第3の周辺3次元画像が取得される。第3の周辺3次元画像(第3の周辺スキャン範囲513)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。   Subsequently, the main control unit 211 controls the fixation system 250 so as to present the third peripheral fixation target corresponding to the third peripheral fixation position 503, and further, the third peripheral fixation target is The OCT image acquisition unit 260 is controlled to execute a three-dimensional scan in the presented state. Thereby, a third peripheral three-dimensional image corresponding to the third peripheral scan range 513 shown in FIG. 11 is acquired. The dimensions of the third peripheral three-dimensional image (third peripheral scan range 513) are W (mm) in both the length in the x direction and the length in the y direction.

最後に、主制御部211は、第4の周辺固視位置504に対応する第4の周辺固視標を提示するように固視系250を制御し、更に、第4の周辺固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第4の周辺スキャン範囲514に対応する第4の周辺3次元画像が取得される。第4の周辺3次元画像(第4の周辺スキャン範囲514)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。   Finally, the main control unit 211 controls the fixation system 250 to present a fourth peripheral fixation target corresponding to the fourth peripheral fixation position 504, and further, the fourth peripheral fixation target is The OCT image acquisition unit 260 is controlled to execute a three-dimensional scan in the presented state. Thereby, a fourth peripheral three-dimensional image corresponding to the fourth peripheral scan range 514 shown in FIG. 11 is acquired. The dimensions of the fourth peripheral three-dimensional image (the fourth peripheral scan range 514) are W (mm) in both the length in the x direction and the length in the y direction.

また、互いに隣接する2つの周辺3次元画像は、これらを合成するために好適な幅の重複領域(のりしろ)を持つ。例えば、図11に示す例では、第1の周辺スキャン範囲511と第2の周辺スキャン範囲512とは幅ΔWの重複領域を有し、第2の周辺スキャン範囲512と第3の周辺スキャン範囲513とは幅ΔWの重複領域を有し、第3の周辺スキャン範囲513と第4の周辺スキャン範囲514とは幅ΔWの重複領域を有し、第4の周辺スキャン範囲514と第1の周辺スキャン範囲511とは幅ΔWの重複領域を有する。   Also, two neighboring three-dimensional images adjacent to each other have overlapping regions (margins) of a suitable width for combining them. For example, in the example illustrated in FIG. 11, the first peripheral scan range 511 and the second peripheral scan range 512 have overlapping regions of width ΔW, and the second peripheral scan range 512 and the third peripheral scan range 513 Has an overlapping area of width ΔW, and the third peripheral scan area 513 and the fourth peripheral scan area 514 have an overlapping area of width ΔW, and a fourth peripheral scan area 514 and a first peripheral scan The range 511 has an overlapping area of width ΔW.

(S10:合成画像を形成)
合成処理部2331は、ステップS9で取得された複数の3次元画像の合成画像(モザイク画像)を形成する。一例として、図11に示す例では、合成処理部2331は、第1〜第4の周辺3次元画像を合成して単一の3次元画像を形成する。なお、ステップS9で取得された複数の3次元画像のうちの任意の2以上の3次元画像を合成することも可能である。
(S10: form a composite image)
The composition processing unit 2331 forms a composite image (mosaic image) of the plurality of three-dimensional images acquired in step S9. As an example, in the example illustrated in FIG. 11, the combining processing unit 2331 combines the first to fourth peripheral three-dimensional images to form a single three-dimensional image. In addition, it is also possible to combine two or more arbitrary three-dimensional images of the plurality of three-dimensional images acquired in step S9.

複数の3次元画像を合成する処理は、例えば、従来の画像合成技術と同様に、画像相関等を用いた重複領域同士のマッチングと、このマッチングの結果を利用した周辺3次元画像同士の位置決めと、これら周辺3次元画像との合成処理とを含む。   The process of combining a plurality of three-dimensional images is, for example, as in the conventional image combining technique, matching of overlapping areas using image correlation or the like, positioning of surrounding three-dimensional images using the matching result, and , And combining with these peripheral three-dimensional images.

(S11:合成画像を表示・保存)
主制御部211は、ステップS10で形成された合成画像を表示部241に表示させることができる。また、主制御部211は、記憶部212に合成画像を保存することや、外部装置に合成画像を送信するための制御を行うことや、記録媒体に合成画像を記録するための制御を行うことが可能である。
(S11: Display and save composite image)
The main control unit 211 can cause the display unit 241 to display the composite image formed in step S10. Further, the main control unit 211 stores the composite image in the storage unit 212, performs control for transmitting the composite image to an external device, and performs control for recording the composite image on the recording medium. Is possible.

また、主制御部211は、ステップS9で形成された複数の3次元画像の一部又は全部を表示部241に表示させることや、記憶部212に合成画像を保存することや、外部装置に合成画像を送信するための制御を行うことや、記録媒体に合成画像を記録するための制御を行うことが可能である。以上で、本例に係る処理は終了となる。   In addition, the main control unit 211 causes the display unit 241 to display a part or all of the plurality of three-dimensional images formed in step S9, stores the composite image in the storage unit 212, or combines the images in the external device. It is possible to perform control for transmitting an image, and control for recording a composite image on a recording medium. This is the end of the process according to this example.

〈作用・効果〉
本実施形態に係る眼科撮影装置1の作用及び効果について説明する。
<Operation / Effect>
The operation and effects of the ophthalmologic imaging apparatus 1 according to the present embodiment will be described.

本実施形態に係る眼科撮影装置(1)は、固視系(250)と、撮影部(270)と、OCT画像取得部(260)と、制御部(主制御部211)と、描出位置判定部(231)と、固視位置設定部(232)と、画像処理部(233)とを含む。   The ophthalmologic imaging apparatus (1) according to the present embodiment includes a fixation system (250), an imaging unit (270), an OCT image acquisition unit (260), a control unit (main control unit 211), and a drawing position determination A unit (231), a fixation position setting unit (232), and an image processing unit (233).

固視系(250)は、被検眼(E)に固視標を提示する。撮影部(270)は、被検眼(E)の眼底(Ef)を撮影する。OCT画像取得部(260)は、眼底(Ef)に光コヒーレンストモグラフィ(OCT)を適用して画像を取得する。   The fixation system (250) presents a fixation target to the eye to be examined (E). The photographing unit (270) photographs the fundus (Ef) of the eye to be examined (E). The OCT image acquisition unit (260) applies an optical coherence tomography (OCT) to the fundus (Ef) to acquire an image.

制御部(211)は、固視標を移動しつつ眼底(Ef)の正面画像を繰り返し取得するように固視系(250)及び撮影部(270)を制御する。この制御を眼底撮影制御と呼ぶ。   The control unit (211) controls the fixation system (250) and the imaging unit (270) so as to repeatedly acquire a front image of the fundus (Ef) while moving the fixation target. This control is called fundus imaging control.

描出位置判定部(231)は、眼底撮影制御により逐次に取得される正面画像を解析して、その正面画像の所定領域内に眼底(Ef)の所定部位が描出されているか判定する。   The visualization position determination unit (231) analyzes the front image sequentially acquired by the fundus imaging control, and determines whether a predetermined region of the fundus oculi (Ef) is visualized in a predetermined area of the front image.

固視位置設定部(232)は、正面画像の所定領域内に眼底(Ef)の所定部位が描出されていると描出位置判定部(231)により判定されたとき、この正面画像が撮影部(270)により取得されたときの固視標の位置に基づいて、パノラマ撮影のための1以上の固視位置を設定する。なお、固視位置設定部(232)は、パノラマ撮影のための2以上の固視位置を設定することも可能である。例えば、固視位置設定部(232)は、第1の周辺固視位置501と、第2〜第4の周辺固視位置502〜504のいずれか1以上とからなる2以上の周辺固視位置を設定することができる。また、ユーザがパノラマ撮影のための複数の固視位置のうちの少なくとも1つを設定できるように構成することも可能である。   The fixation position setting unit (232) determines that the predetermined position of the fundus (Ef) is drawn in the predetermined area of the front image by the drawing position determination unit (231), the front image is taken by the photographing unit ( Based on the position of the fixation target when acquired in 270), one or more fixation positions for panoramic imaging are set. The fixation position setting unit (232) can also set two or more fixation positions for panoramic imaging. For example, the fixation position setting unit (232) may set two or more peripheral fixation positions including the first peripheral fixation position 501 and any one or more of the second to fourth peripheral fixation positions 502 to 504. Can be set. It is also possible to configure so that the user can set at least one of a plurality of fixation positions for panoramic imaging.

画像処理部(233)は、OCT画像取得部(260)により取得された画像を処理する。画像処理部(233)は、合成処理部(2331)を含む。   The image processing unit (233) processes the image acquired by the OCT image acquisition unit (260). The image processing unit (233) includes a combination processing unit (2331).

制御部(211)は、パノラマ撮影(OCT制御)として、固視位置設定部(232)により設定された1以上の固視位置を含む2以上の固視位置(第1〜第4の周辺固視位置501〜504)に対応する2以上の固視標(第1〜第4の周辺固視標)を順次に被検眼(E)に提示するように固視系(250)を制御し、且つ、2以上の固視標(第1〜第4の周辺固視標)のそれぞれが被検眼(E)に提示されているときに眼底(Ef)の3次元画像を取得するようにOCT画像取得部(260)を制御する。   The control unit (211) performs two or more fixation positions (first to fourth peripheral fixations) including one or more fixation positions set by the fixation position setting unit (232) as panoramic imaging (OCT control). The fixation system (250) is controlled so that two or more fixation targets (first to fourth peripheral fixation targets) corresponding to the visual positions 501 to 504) are sequentially presented to the eye to be examined (E), And, when each of two or more fixation targets (first to fourth peripheral fixation targets) is presented to the eye to be examined (E), an OCT image is acquired so as to acquire a three-dimensional image of the fundus oculi (Ef) The acquisition unit (260) is controlled.

合成処理部(2331)は、パノラマ撮影により取得された2以上の固視位置(第1〜第4の周辺固視位置501〜504)に対応する2以上の3次元画像(第1〜第4の周辺3次元画像)の合成画像(モザイク画像)を形成する。   The composition processing unit (2331) generates two or more three-dimensional images (first to fourth) corresponding to two or more fixation positions (first to fourth peripheral fixation positions 501 to 504) acquired by panoramic imaging. Form a composite image (mosaic image) of the surrounding three-dimensional image).

このような実施形態によれば、眼底撮影制御(第2の予備的眼底撮影)を実際に行うことでパノラマ撮影のための複数の固視位置を設定することができる。それにより、眼軸長等の眼球サイズ情報や視度等の眼球特性情報などの個人差にかかわらず、OCTを用いてモザイク画像を取得するための複数の固視位置の設定を好適に行うことが可能となる。   According to such an embodiment, a plurality of fixation positions for panoramic imaging can be set by actually performing fundus imaging control (second preliminary fundus imaging). Thereby, regardless of individual differences such as eyeball size information such as eye axial length and eyeball characteristic information such as diopter, preferably, setting of a plurality of fixation positions for acquiring a mosaic image using OCT is suitably performed. Is possible.

本実施形態において、制御部(211)は、眼底撮影制御(第2の予備的眼底撮影)において、予め設定された初期固視位置から固視標の移動を開始するように構成されていてよい。   In the present embodiment, the control unit (211) may be configured to start movement of the fixation target from a preset initial fixation position in the fundus imaging control (second preliminary fundus imaging). .

更に、本実施形態において、初期固視位置は、標準的な眼の眼底の所定部位から所定方向に所定距離だけ離れた位置を中心とする正面画像を取得するための固視位置であってよい。   Furthermore, in the present embodiment, the initial fixation position may be a fixation position for acquiring a front image centered on a position separated by a predetermined distance in a predetermined direction from a predetermined region of a standard eye fundus. .

また、本実施形態において、眼底撮影制御(第2の予備的眼底撮影)の前に、制御部(211)は、眼底(Ef)の所定部位を中心とする正面画像を取得するための既定の固視位置に対応する固視標を被検眼(E)に提示しつつ眼底(Ef)の予備的正面画像を取得するように固視系(250)及び撮影部(270)を制御する予備的制御(第1の予備的眼底撮影)を実行するように構成されていてよい。更に、画像処理部(233)は、この予備的正面画像の中心位置に対する、眼底(Ef)の所定部位の画像の偏位を算出するように構成されていてよい。加えて、固視位置設定部(232)は、この偏位に基づいて初期固視位置を設定するように構成されていてよい。   Further, in the present embodiment, before the fundus imaging control (second preliminary fundus imaging), the control unit (211) is a default for acquiring a front image centered on a predetermined region of the fundus (Ef). Preliminary control of the fixation system (250) and the imaging unit (270) to obtain a preliminary frontal image of the fundus (Ef) while presenting a fixation target corresponding to the fixation position to the eye to be examined (E) The control (first preliminary fundus imaging) may be configured to be performed. Furthermore, the image processing unit (233) may be configured to calculate deviation of the image of the predetermined part of the fundus (Ef) with respect to the center position of the preliminary front image. In addition, the fixation position setting unit (232) may be configured to set an initial fixation position based on this deviation.

このような構成によれば、予備的制御(第1の予備的眼底撮影)で得られた予備的正面画像を利用して初期固視位置を設定して眼底撮影制御(第2の予備的眼底撮影)を実行することができる。それにより、被検眼の眼球パラメータの個人差にかかわらず、好適な初期固視位置を設定することが可能である。好適な初期固視位置とは、例えば、初期固視位置が適用された状態で眼底撮影を行って得られた正面画像における所定領域の内部又は近傍に、被検眼の眼底の所定部位が描出されるような固視位置である。   According to such a configuration, the fundus imaging control (second preparatory fundus) is performed by setting the initial fixation position using the preliminary frontal image obtained by the preliminary control (first preparatory fundus photography). Shooting) can be performed. Thereby, it is possible to set a suitable initial fixation position regardless of individual differences in eye parameters of the eye to be examined. With a suitable initial fixation position, for example, a predetermined region of the fundus of the eye to be examined is depicted within or in the vicinity of a predetermined area in a front image obtained by performing fundus imaging with the initial fixation position applied. Fixation position.

本実施形態において、制御部(211)は、OCT制御(パノラマ撮影)において、眼底(Ef)の3次元血管造影画像を取得するようにOCT画像取得部(260)を制御してもよい。   In the present embodiment, the control unit (211) may control the OCT image acquisition unit (260) to acquire a three-dimensional angiographic image of the fundus oculi (Ef) in OCT control (panoramic imaging).

このような構成によれば、眼底の広い範囲にわたる3次元血管造影画像(モザイク画像)を好適に取得することが可能である。   According to such a configuration, it is possible to preferably acquire a three-dimensional angiographic image (mosaic image) over a wide range of the fundus.

本実施形態に係る眼科撮影装置の制御方法は、被検眼(E)の眼底(Ef)に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置(1)を制御する方法であって、撮影ステップと、描出位置判定ステップと、固視位置設定ステップと、OCTステップと、合成ステップとを含む。   A control method of an ophthalmologic imaging apparatus according to the present embodiment controls an ophthalmologic imaging apparatus (1) capable of applying imaging and optical coherence tomography (OCT) to a fundus (Ef) of an eye to be examined (E) The method includes an imaging step, a drawing position determination step, a fixation position setting step, an OCT step, and a combining step.

撮影ステップは、固視標を移動しつつ眼底(Ef)の正面画像を繰り返し取得する。撮影ステップは、本実施形態において説明された第2の予備的眼底撮影に関する任意の処理を含んでいてもよい。   The imaging step repeatedly acquires a front image of the fundus (Ef) while moving the fixation target. The imaging step may include any process relating to the second preliminary fundus imaging described in the present embodiment.

描出位置判定ステップは、撮影ステップにより逐次に取得される正面画像を解析して、その正面画像の所定領域内に眼底(Ef)の所定部位が描出されているか判定する。描出位置判定ステップは、本実施形態において説明された描出位置判定に関する任意の処理を含んでいてもよい。   The depiction position determination step analyzes the front image sequentially acquired by the imaging step, and determines whether a predetermined region of the fundus oculi (Ef) is depicted within a predetermined region of the front image. The depiction position determination step may include any process related to the depiction position determination described in the present embodiment.

固視位置設定ステップは、正面画像の所定領域内に眼底(Ef)の所定部位が描出されていると描出位置判定ステップにより判定されたとき、この正面画像が取得されたときの固視標の位置に基づいて1以上の固視位置を設定する。固視位置設定ステップは、本実施形態において説明された固視位置設定に関する任意の処理を含んでいてもよい。   In the fixation position setting step, when it is determined by the delineation position determination step that the predetermined region of the fundus (Ef) is delineated in the predetermined area of the front image, the fixation target when the front image is acquired Set one or more fixation positions based on the position. The fixation position setting step may include any process regarding fixation position setting described in the present embodiment.

OCTステップは、固視位置設定ステップで設定された1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に被検眼(E)に提示し、且つ、これら2以上の固視標のそれぞれが被検眼(E)に提示されているときに眼底(Ef)の3次元画像を取得するようにOCTを実行する。OCTステップは、本実施形態において説明されたパノラマ撮影に関する任意の処理を含んでいてもよい。   The OCT step sequentially presents two or more fixation targets corresponding to two or more fixation positions including the one or more fixation positions set in the fixation position setting step to the eye to be examined (E), and The OCT is performed to acquire a three-dimensional image of the fundus (Ef) when each of the two or more fixation targets is presented to the eye to be examined (E). The OCT step may include any process regarding panoramic imaging described in the present embodiment.

合成ステップは、OCTステップで取得された2以上の固視位置に対応する2以上の3次元画像の合成画像(モザイク画像)を形成する。合成ステップは、本実施形態において説明された画像合成に関する任意の処理を含んでいてもよい。   The combining step forms a combined image (mosaic image) of two or more three-dimensional images corresponding to the two or more fixation positions acquired in the OCT step. The combining step may include any process related to image combining described in the present embodiment.

このような制御方法を、被検眼(E)の眼底(Ef)に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置(1)に実行させるプログラムを作成することが可能である。また、このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。   To create a program for causing an ophthalmologic imaging apparatus (1) capable of applying such a control method to imaging and optical coherence tomography (OCT) to the fundus (Ef) of an eye (E) to be examined Is possible. Moreover, it is possible to create a computer readable non-transitory recording medium recording such a program. This non-transitory recording medium may be in any form, and examples thereof include magnetic disks, optical disks, magneto-optical disks, semiconductor memories and the like.

以上に説明した実施形態は本発明の一例に過ぎない。本発明を実施しようとする者は、本発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。   The embodiment described above is merely an example of the present invention. Those who intend to practice the present invention can optionally make modifications (omission, substitution, addition, etc.) within the scope of the present invention.

1 眼科撮影装置
210 制御部
211 主制御部
230 データ処理部
231 描出位置判定部
232 固視位置設定部
233 画像処理部
2331 合成処理部
250 固視系
260 OCT画像取得部
270 撮影部

1 ophthalmologic imaging apparatus 210 control unit 211 main control unit 230 data processing unit 231 depiction position determination unit 232 fixation position setting unit 233 image processing unit 2331 composition processing unit 250 fixation system 260 OCT image acquisition unit 270 imaging unit

Claims (8)

被検眼に固視標を提示する固視系と、
前記被検眼の眼底を撮影する撮影部と、
前記眼底に光コヒーレンストモグラフィ(OCT)を適用して画像を取得するOCT画像取得部と、
前記固視標を移動しつつ前記眼底の正面画像を繰り返し取得するように前記固視系及び前記撮影部を制御する眼底撮影制御を実行する制御部と、
前記眼底撮影制御により逐次に取得される正面画像を解析して、当該正面画像の所定領域内に前記眼底の所定部位が描出されているか判定する描出位置判定部と、
前記所定領域内に前記所定部位が描出されていると前記描出位置判定部により判定されたとき、対応する正面画像が前記撮影部により取得されたときの前記固視標の位置に基づいて1以上の固視位置を設定する固視位置設定部と、
前記OCT画像取得部により取得された画像を処理する画像処理部と
を含み、
前記制御部は、前記1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に前記被検眼に提示するように前記固視系を制御し、且つ、前記2以上の固視標のそれぞれが前記被検眼に提示されているときに前記眼底の3次元画像を取得するように前記OCT画像取得部を制御するOCT制御を実行し、
前記画像処理部は、前記OCT制御により取得された前記2以上の固視位置に対応する2以上の3次元画像の合成画像を形成する合成処理部を含む
ことを特徴とする眼科撮影装置。
A fixation system for presenting a fixation target to an eye to be examined;
An imaging unit configured to image the fundus of the eye to be examined;
An OCT image acquisition unit that acquires an image by applying optical coherence tomography (OCT) to the fundus;
A control unit that executes fundus imaging control that controls the fixation system and the imaging unit to repeatedly acquire a front image of the fundus while moving the fixation target;
A depiction position determination unit that analyzes a front image sequentially acquired by the fundus imaging control, and determines whether a predetermined region of the fundus is depicted within a predetermined region of the front image;
When it is determined by the depiction position determination unit that the predetermined part is depicted in the predetermined area, one or more of the position of the fixation target when the corresponding front image is acquired by the imaging unit A fixation position setting unit that sets a fixation position of
An image processing unit that processes an image acquired by the OCT image acquisition unit;
The control unit controls the fixation system to sequentially present two or more fixation targets corresponding to two or more fixation positions including the one or more fixation positions to the subject's eye, and Performing OCT control to control the OCT image acquisition unit to acquire a three-dimensional image of the fundus when each of the two or more fixation targets is presented to the eye;
An ophthalmologic imaging apparatus, wherein the image processing unit includes a combination processing unit that forms a combined image of two or more three-dimensional images corresponding to the two or more fixation positions acquired by the OCT control.
前記制御部は、前記眼底撮影制御において、予め設定された初期固視位置から前記固視標の移動を開始する
ことを特徴とする請求項1に記載の眼科撮影装置。
The ophthalmologic photographing apparatus according to claim 1, wherein the control unit starts movement of the fixation target from a preset initial fixation position in the fundus photographing control.
前記初期固視位置は、標準的な眼の眼底の所定部位から所定方向に所定距離だけ離れた位置を中心とする正面画像を取得するための固視位置である
ことを特徴とする請求項2に記載の眼科撮影装置。
The initial fixation position is a fixation position for acquiring a front image centered on a position separated by a predetermined distance in a predetermined direction from a predetermined region of a standard eye fundus. The ophthalmologic photographing apparatus described in.
前記制御部は、前記所定部位を中心とする正面画像を取得するための既定の固視位置に対応する固視標を前記被検眼に提示しつつ前記眼底の予備的正面画像を取得するように前記固視系及び前記撮影部を制御する予備的制御を実行し、
前記画像処理部は、前記予備的正面画像の中心位置に対する前記眼底の前記所定部位の画像の偏位を算出し、
前記固視位置設定部は、前記偏位に基づいて前記初期固視位置を設定する
ことを特徴とする請求項2に記載の眼科撮影装置。
The control unit is configured to obtain a preliminary front image of the fundus while presenting a fixation target corresponding to a predetermined fixation position for obtaining a front image centered on the predetermined region to the subject's eye. Execute preliminary control to control the fixation system and the imaging unit;
The image processing unit calculates a deviation of the image of the predetermined part of the fundus with respect to the center position of the preliminary front image;
The ophthalmologic photographing apparatus according to claim 2, wherein the fixation position setting unit sets the initial fixation position based on the deviation.
前記制御部は、前記OCT制御において、前記眼底の3次元血管造影画像を取得するように前記OCT画像取得部を制御する
ことを特徴とする請求項1〜4のいずれかに記載の眼科撮影装置。
The ophthalmologic imaging apparatus according to any one of claims 1 to 4, wherein the control unit controls the OCT image acquisition unit to acquire a three-dimensional angiographic image of the fundus in the OCT control. .
被検眼の眼底に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置を制御する方法であって、
固視標を移動しつつ前記眼底の正面画像を繰り返し取得する撮影ステップと、
前記撮影ステップにより逐次に取得される正面画像を解析して、当該正面画像の所定領域内に前記眼底の所定部位が描出されているか判定する描出位置判定ステップと、
前記所定領域内に前記所定部位が描出されていると前記描出位置判定ステップにより判定されたとき、対応する正面画像が取得されたときの前記固視標の位置に基づいて1以上の固視位置を設定する固視位置設定ステップと、
前記1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に前記被検眼に提示し、且つ、前記2以上の固視標のそれぞれが前記被検眼に提示されているときに前記眼底の3次元画像を取得するOCTステップと、
前記OCTステップにより取得された前記2以上の固視位置に対応する2以上の3次元画像の合成画像を形成する合成ステップと
を含む、眼科撮影装置の制御方法。
A method of controlling an ophthalmologic imaging apparatus capable of applying imaging and optical coherence tomography (OCT) to a fundus of an eye to be examined, comprising:
An imaging step of repeatedly acquiring a front image of the fundus while moving a fixation target;
A depiction position determination step of analyzing a frontal image sequentially acquired in the imaging step to determine whether a predetermined region of the fundus is depicted within a predetermined region of the frontal image;
One or more fixation positions based on the position of the fixation target when the corresponding front image is acquired when it is determined in the delineation position determination step that the predetermined part is delineated in the predetermined area Fixation position setting step to set
Two or more fixation targets corresponding to two or more fixation positions including the one or more fixation positions are sequentially presented to the subject's eye, and each of the two or more fixation targets corresponds to the subject's eye An OCT step of acquiring a three-dimensional image of the fundus when being presented;
A control step of forming a composite image of two or more three-dimensional images corresponding to the two or more fixation positions acquired by the OCT step.
被検眼の眼底に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置に請求項6に記載の制御方法を実行させるプログラム。   A program that causes an ophthalmologic imaging apparatus capable of applying imaging and optical coherence tomography (OCT) to the fundus of a subject's eye to execute the control method according to claim 6. 請求項7に記載のプログラムを記録したコンピュータ可読な非一時的記録媒体。

A non-transitory computer-readable storage medium storing the program according to claim 7.

JP2017253044A 2017-12-28 2017-12-28 Ophthalmologic imaging equipment, its control method, programs, and recording media Active JP6954831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017253044A JP6954831B2 (en) 2017-12-28 2017-12-28 Ophthalmologic imaging equipment, its control method, programs, and recording media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017253044A JP6954831B2 (en) 2017-12-28 2017-12-28 Ophthalmologic imaging equipment, its control method, programs, and recording media

Publications (2)

Publication Number Publication Date
JP2019118422A true JP2019118422A (en) 2019-07-22
JP6954831B2 JP6954831B2 (en) 2021-10-27

Family

ID=67305695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017253044A Active JP6954831B2 (en) 2017-12-28 2017-12-28 Ophthalmologic imaging equipment, its control method, programs, and recording media

Country Status (1)

Country Link
JP (1) JP6954831B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115578A (en) * 2010-12-02 2012-06-21 Nidek Co Ltd Ophthalmologic photographing apparatus
JP2013031527A (en) * 2011-08-01 2013-02-14 Canon Inc Ophthalmic diagnosis support apparatus and method
JP2014200678A (en) * 2013-04-03 2014-10-27 株式会社トプコン Ophthalmologic apparatus
US20160227999A1 (en) * 2015-02-05 2016-08-11 Carl Zeiss Meditec, Inc. Acquisition and analysis techniques for improved outcomes in optical coherence tomography angiography
JP2017047113A (en) * 2015-09-04 2017-03-09 株式会社ニデック Ophthalmic imaging apparatus and ophthalmic imaging program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115578A (en) * 2010-12-02 2012-06-21 Nidek Co Ltd Ophthalmologic photographing apparatus
JP2013031527A (en) * 2011-08-01 2013-02-14 Canon Inc Ophthalmic diagnosis support apparatus and method
JP2014200678A (en) * 2013-04-03 2014-10-27 株式会社トプコン Ophthalmologic apparatus
US20160227999A1 (en) * 2015-02-05 2016-08-11 Carl Zeiss Meditec, Inc. Acquisition and analysis techniques for improved outcomes in optical coherence tomography angiography
JP2017047113A (en) * 2015-09-04 2017-03-09 株式会社ニデック Ophthalmic imaging apparatus and ophthalmic imaging program

Also Published As

Publication number Publication date
JP6954831B2 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
JP2023076659A (en) Ophthalmologic device
JP7134324B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP2022162141A (en) Ophthalmologic apparatus
JP7090438B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7096116B2 (en) Blood flow measuring device
US11311189B2 (en) Ophthalmic imaging apparatus, controlling method thereof, ophthalmic imaging method, and recording medium
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
JP7117873B2 (en) ophthalmic equipment
JP2023014190A (en) Ophthalmology imaging apparatus
JP2022189963A (en) Ophthalmologic apparatus
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7281906B2 (en) Ophthalmic device, its control method, program, and recording medium
JP7286283B2 (en) ophthalmic equipment
JP7106311B2 (en) Ophthalmic device, its control method, program, and recording medium
JP7325675B2 (en) ophthalmic imaging equipment
JP6954831B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6942626B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7201852B2 (en) Ophthalmic device, its control method, program, and recording medium
JP7236832B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP2019154987A (en) Ophthalmologic apparatus, control method therefor, program, and storage medium
JP7288110B2 (en) ophthalmic equipment
JP6959158B2 (en) Ophthalmic equipment
JP2022162128A (en) Ophthalmologic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210930

R150 Certificate of patent or registration of utility model

Ref document number: 6954831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150