JP7134324B2 - OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF - Google Patents

OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF Download PDF

Info

Publication number
JP7134324B2
JP7134324B2 JP2021202146A JP2021202146A JP7134324B2 JP 7134324 B2 JP7134324 B2 JP 7134324B2 JP 2021202146 A JP2021202146 A JP 2021202146A JP 2021202146 A JP2021202146 A JP 2021202146A JP 7134324 B2 JP7134324 B2 JP 7134324B2
Authority
JP
Japan
Prior art keywords
fixation
image
fundus
imaging
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021202146A
Other languages
Japanese (ja)
Other versions
JP2022027879A (en
Inventor
俊輔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017253043A external-priority patent/JP7050488B2/en
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2021202146A priority Critical patent/JP7134324B2/en
Publication of JP2022027879A publication Critical patent/JP2022027879A/en
Application granted granted Critical
Publication of JP7134324B2 publication Critical patent/JP7134324B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、眼科撮影装置、その制御方法、プログラム、及び記録媒体に関する。 The present invention relates to an ophthalmologic imaging apparatus, its control method, program, and recording medium.

眼科分野において画像診断は重要な位置を占める。近年では光コヒーレンストモグラフィ(OCT)の活用が進んでいる。OCTは、被検眼のBスキャン画像や3次元画像の取得だけでなく、Cスキャン画像やシャドウグラムなどの正面画像(en-face画像)の取得にも利用されるようになってきている。 Image diagnosis occupies an important position in the field of ophthalmology. In recent years, utilization of optical coherence tomography (OCT) is progressing. OCT has come to be used not only for acquiring B-scan images and three-dimensional images of an eye to be inspected, but also for acquiring front images (en-face images) such as C-scan images and shadowgrams.

また、被検眼の特定部位を強調した画像を取得するモダリティも実用化されている。例えば、網膜血管や脈絡膜血管が強調された画像を形成するOCT血管造影(OCT-Angiography)が注目を集めている(例えば、特許文献1を参照)。一般に、スキャン部位の組織(構造)は時間的に不変であるが、血管内部の血流部分は時間的に変化する。OCT血管造影では、このような時間的変化が存在する部分(血流信号)を強調して画像を形成する。なお、OCT血管造影は、OCTモーションコントラスト撮影(motion contrast imaging)などとも呼ばれる。また、OCT血管造影により取得される画像は、血管造影画像、アンジオグラム、モーションコントラスト画像などと呼ばれる。 In addition, a modality that obtains an image in which a specific portion of the subject's eye is emphasized has also been put to practical use. For example, OCT-angiography, which forms an image in which retinal vessels and choroidal vessels are emphasized, has attracted attention (see, for example, Patent Document 1). In general, the tissue (structure) of the scan site does not change over time, but the blood flow portion inside the blood vessel changes over time. In OCT angiography, an image is formed by emphasizing a portion (blood flow signal) where such temporal changes exist. OCT angiography is also called OCT motion contrast imaging. Images obtained by OCT angiography are called angiographic images, angiograms, motion contrast images, and the like.

典型的な従来のOCT血管造影では、既定サイズ(例えば、9mm×9mm)の3次元スキャンが適用され、眼底血管の3次元的分布を表現した画像が得られる。一方、より広範囲の血管造影画像を取得することが望まれている。眼底の広い範囲のOCTデータを取得するための技術としてパノラマ撮影が知られている(例えば、特許文献2を参照)。 In a typical conventional OCT angiography, a three-dimensional scan of predetermined size (eg, 9 mm×9 mm) is applied to obtain an image representing the three-dimensional distribution of the fundus blood vessels. On the other hand, it is desired to acquire an angiographic image of a wider range. Panoramic imaging is known as a technique for acquiring OCT data of a wide range of the fundus (see Patent Document 2, for example).

パノラマ撮影は、異なる複数の領域に3次元スキャンをそれぞれ適用し、それにより得られた複数の3次元画像を合成して広域画像を構築する画像化手法である。互いに隣接する領域には重複領域が設定され、この重複領域を基準として隣接する画像の間の相対位置が決定される。また、異なる複数の領域に対する順次的な3次元スキャンは、典型的には、固視位置の移動によって実現される。パノラマ撮影によって取得された広域画像は、パノラマ画像、モザイク画像などと呼ばれる。 Panorama imaging is an imaging technique that applies three-dimensional scanning to a plurality of different regions and synthesizes the resulting three-dimensional images to construct a wide-area image. An overlapping area is set in areas adjacent to each other, and relative positions between adjacent images are determined based on this overlapping area. In addition, sequential three-dimensional scanning of different regions is typically achieved by moving the fixation position. A wide-area image obtained by panoramic photography is called a panoramic image, a mosaic image, or the like.

ところで、眼球のサイズや特性には個人差があり、例えば眼軸長や視度(眼屈折力)は個々人で異なる。前述したように既定サイズの3次元スキャンを適用する場合であっても、実際にスキャンされる眼底の範囲は眼軸長や視度によって変化する。 By the way, there are individual differences in the size and characteristics of the eyeball. For example, the axial length of the eye and the diopter (eye refractive power) differ from person to person. As described above, even when three-dimensional scanning of a predetermined size is applied, the range of the fundus that is actually scanned varies depending on the axial length of the eye and the diopter.

例えば、図1に示すように、眼軸長L1の被検眼E1と眼軸長L2(>L1)の被検眼E2に対してOCT測定光が同じ角度θで入射した場合、被検眼E1の眼底における測定光の投射位置の高さY1よりも、被検眼E2の眼底における測定光の投射位置の高さY2の方が大きくなる(Y2>Y1)。すなわち、眼軸長が長いほど、眼底における測定光の投射位置の高さが大きくなる。一方、OCTスキャンのサイズは、測定光の最大偏向角で定義される。したがって、OCTスキャンのサイズの条件が同じであっても、実際にスキャンされる眼底の範囲は、眼軸長の値に応じて変化してしまう。視度についても同様である。 For example, as shown in FIG. 1, when the OCT measurement light is incident at the same angle θ on the subject eye E1 with an axial length L1 and the subject eye E2 with an axial length L2 (>L1), the fundus of the subject eye E1 The height Y2 of the projection position of the measurement light on the fundus of the subject's eye E2 is larger than the height Y1 of the projection position of the measurement light on (Y2>Y1). That is, the longer the axial length of the eye, the higher the projection position of the measurement light on the fundus. On the other hand, the OCT scan size is defined by the maximum deflection angle of the measurement light. Therefore, even if the OCT scan size condition is the same, the range of the fundus that is actually scanned changes according to the value of the axial length of the eye. Diopter is also the same.

このように実際のスキャン範囲が眼球パラメータに影響を受けるため、パノラマ撮影における重複領域の大きさも眼球パラメータに応じて変化する。例えば、被検眼の眼軸長が長い場合には実際のスキャン範囲が広くなるため、重複領域も広くなる。重複領域が必要以上に広くなると、モザイク画像により実際に描出される範囲が狭くなり、パノラマ撮影の効率が低下する。 Since the actual scan range is affected by the eyeball parameters in this way, the size of the overlapping region in panoramic photography also changes according to the eyeball parameters. For example, when the axial length of the eye to be examined is long, the actual scan range is widened, so the overlapping area is also widened. If the overlapping area becomes wider than necessary, the range actually rendered by the mosaic image will become narrower, and the efficiency of panorama photography will decrease.

逆に、被検眼の眼軸長が短い場合には実際のスキャン範囲が狭くなるため、重複領域も狭くなり、場合によっては重複領域が無くなる。重複領域が狭くなると、隣接する画像の間の相対位置を十分な精度で求められないおそれがある。また、重複領域が存在しない場合には、隣接する画像の間の相対位置を決定することができず、モザイク画像を構築することができない。 Conversely, when the axial length of the subject's eye is short, the actual scan range is narrow, so the overlapping area is also narrow, and in some cases the overlapping area is eliminated. If the overlapping area becomes narrow, there is a possibility that relative positions between adjacent images cannot be obtained with sufficient accuracy. Also, if there is no overlap region, the relative positions between adjacent images cannot be determined and a mosaic image cannot be constructed.

また、モザイク画像の中心領域に描出したい注目部位(例えば、黄斑中心)が、そのように配置されない事態も生じ得る。 In addition, a situation may arise in which a site of interest (for example, the center of the macula) desired to be rendered in the central region of the mosaic image is not arranged as such.

特表2015-515894号公報Japanese translation of PCT publication No. 2015-515894 特開2009-183332号公報JP 2009-183332 A

本発明の目的は、OCTを用いてモザイク画像を取得するための複数の固視位置の設定を、眼球のサイズや特性の個人差にかかわらず好適に行うことを可能とする技術を提供することにある。 An object of the present invention is to provide a technique that enables setting of a plurality of fixation positions for obtaining a mosaic image using OCT, regardless of individual differences in eyeball size and characteristics. It is in.

実施形態の眼科撮影装置は、被検眼に固視標を提示する固視系と、前記被検眼の眼底を撮影する撮影部と、所定の固視位置に対応する固視標を前記被検眼に提示しつつ前記眼底の正面画像を取得するように前記固視系及び前記撮影部を制御する眼底撮影制御を実行する制御部と、前記眼底撮影制御により取得された前記正面画像に基づいて、1以上の固視位置を設定する固視位置設定部と、前記眼底に光コヒーレンストモグラフィ(OCT)を適用して画像を取得するOCT画像取得部と、前記OCT画像取得部により取得された画像を処理する画像処理部とを含み、前記制御部は、前記固視位置設定部により設定された前記1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に前記被検眼に提示するように前記固視系を制御し、且つ、前記2以上の固視標のそれぞれが前記被検眼に提示されているときに前記眼底の3次元画像を取得するように前記OCT画像取得部を制御するOCT制御を実行し、前記画像処理部は、前記OCT制御により取得された前記2以上の固視位置に対応する2以上の3次元画像の合成画像を形成する合成処理部を含み、前記固視位置設定部は、前記眼底撮影制御により取得された前記正面画像と、前記眼底撮影制御における撮影領域と前記OCT制御における3次元スキャン領域との間の位置関係とに基づいて、前記1以上の固視位置の設定を実行し、前記制御部は、前記OCT制御よりも前に実行される前記眼底撮影制御において第1の制御及び第2の制御の双方を実行し、前記第1の制御は、第1の固視位置に対応する第1の固視標を前記被検眼に提示しつつ前記眼底の第1の正面画像を取得するように前記固視系及び前記撮影部を制御し、前記第2の制御は、第2の固視位置に対応する第2の固視標を前記被検眼に提示しつつ前記眼底の第2の正面画像を取得するように前記固視系及び前記撮影部を制御し、前記固視位置設定部は、前記第1の正面画像と前記第2の正面画像とに基づいて、前記1以上の固視位置の設定を実行することを特徴とする。 An ophthalmologic imaging apparatus according to an embodiment includes a fixation system that presents a fixation target to an eye to be examined, an imaging unit that photographs the fundus of the eye to be examined, and a fixation target corresponding to a predetermined fixation position to the eye to be examined. a control unit that executes fundus imaging control that controls the fixation system and the imaging unit so as to acquire a front image of the fundus while presenting; A fixation position setting unit that sets the above fixation position, an OCT image acquisition unit that acquires an image by applying optical coherence tomography (OCT) to the fundus, and an image acquired by the OCT image acquisition unit. and an image processing unit for processing, wherein the control unit sequentially selects two or more fixation targets corresponding to two or more fixation positions including the one or more fixation positions set by the fixation position setting unit. and acquiring a three-dimensional image of the fundus when each of the two or more fixation targets is presented to the eye to be examined. performing OCT control for controlling the OCT image acquisition unit, and combining the image processing unit to form a combined image of two or more three-dimensional images corresponding to the two or more fixation positions acquired by the OCT control; The fixation position setting unit includes a processing unit, and the fixation position setting unit adjusts the positional relationship between the front image acquired by the fundus imaging control and the imaging area in the fundus imaging control and the three-dimensional scanning area in the OCT control. The one or more fixation positions are set based on the control unit, and the control unit performs both the first control and the second control in the fundus imaging control performed prior to the OCT control. , the first control is performed by controlling the fixation system and the The imaging unit is controlled, and the second control acquires a second front image of the fundus while presenting a second fixation target corresponding to a second fixation position to the eye to be examined. Controlling a fixation system and the imaging unit, the fixation position setting unit setting the one or more fixation positions based on the first front image and the second front image. characterized by

実施形態によれば、OCTを用いてモザイク画像を取得するための複数の固視位置の設定を、眼球のサイズや特性の個人差にかかわらず好適に行うことが可能である。 According to the embodiment, it is possible to suitably set a plurality of fixation positions for acquiring a mosaic image using OCT regardless of individual differences in eyeball size and characteristics.

背景技術を説明するための概略図である。1 is a schematic diagram for explaining background art; FIG. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic imaging apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic imaging apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic imaging apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example configuration of an ophthalmic imaging apparatus according to an exemplary embodiment; FIG. 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment; 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment; 例示的な実施形態に係る眼科撮影装置の動作の一例を表すフローチャートである。4 is a flow chart representing an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment; 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment; 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment; 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment; 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment; 例示的な実施形態に係る眼科撮影装置の動作の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of the operation of an ophthalmic imaging apparatus according to an exemplary embodiment;

例示的な実施形態に係る眼科撮影装置、その制御方法、プログラム、及び記録媒体について、図面を参照しながら詳細に説明する。実施形態の眼科撮影装置は、光コヒーレンストモグラフィ(OCT)を実行する機能を備えた眼科装置である。実施形態の眼科撮影装置は、眼底のOCT血管造影を実行可能であってよい。 An ophthalmologic imaging apparatus, its control method, program, and recording medium according to exemplary embodiments will be described in detail with reference to the drawings. The ophthalmologic imaging apparatus of the embodiment is an ophthalmologic apparatus having a function of executing optical coherence tomography (OCT). The ophthalmic imaging apparatus of the embodiment may be capable of performing OCT angiography of the fundus.

以下、スウェプトソースOCTと眼底カメラとを組み合わせた眼科撮影装置について説明するが、実施形態はこれに限定されない。OCTの種別はスウェプトソースOCTには限定されず、例えばスペクトラルドメインOCTであってもよい。 An ophthalmologic imaging apparatus combining a swept-source OCT and a fundus camera will be described below, but embodiments are not limited to this. The type of OCT is not limited to swept source OCT, and may be spectral domain OCT, for example.

スウェプトソースOCTは、波長可変光源(波長掃引光源)からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。 Swept source OCT divides light from a wavelength tunable light source (wavelength swept light source) into measurement light and reference light, and generates interference light by superimposing return light of the measurement light from the object on the reference light, This interference light is detected by a balanced photodiode or the like, and Fourier transform or the like is performed on the detection data collected according to the wavelength sweep and measurement light scanning to form an image.

スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。 Spectral domain OCT divides light from a low coherence light source into measurement light and reference light, generates interference light by superimposing the return light of the measurement light from the object on the reference light, and generates the interference light spectrum In this method, the distribution is detected by a spectrometer, and the detected spectral distribution is subjected to Fourier transform or the like to form an image.

このように、スウェプトソースOCTは時分割でスペクトル分布を取得するOCT手法であり、スペクトラルドメインOCTは空間分割でスペクトル分布を取得するOCT手法である。なお、実施形態に利用することが可能なOCT手法はこれらに限定されず、これらと異なる任意のOCT手法(例えば、タイムドメインOCT)を利用した実施形態を採用することも可能である。 Thus, the swept-source OCT is an OCT technique that acquires a spectral distribution by time division, and the spectral domain OCT is an OCT technique that acquires a spectral distribution by space division. Note that the OCT techniques that can be used in the embodiments are not limited to these, and embodiments that use arbitrary OCT techniques different from these (for example, time domain OCT) can also be adopted.

実施形態に係る眼科撮影装置は、被検眼の眼底を撮影して正面画像を取得する機能を備えている。眼底撮影に使用可能な眼科モダリティの例として、以下に説明する眼底カメラに加え、走査型レーザー検眼鏡(SLO)、スリットランプ顕微鏡、手術用顕微鏡などがある。なお、実施形態に利用可能な眼科モダリティはこれらに限定されず、また、眼科以外のモダリティを利用した実施形態を採用することも可能である。 An ophthalmologic imaging apparatus according to an embodiment has a function of imaging the fundus of an eye to be examined to acquire a front image. Examples of ophthalmic modalities that can be used for fundus imaging include scanning laser ophthalmoscopes (SLOs), slit lamp microscopes, surgical microscopes, as well as fundus cameras as described below. Note that the ophthalmic modalities that can be used in the embodiments are not limited to these, and embodiments using modalities other than ophthalmic modalities can also be adopted.

本明細書においては、特に言及しない限り、「画像データ」と、それに基づく「画像」とを区別しない。また、特に言及しない限り、被検眼の部位又は組織と、それを表す画像とを区別しない。 In this specification, "image data" and "images" based thereon are not distinguished unless otherwise specified. In addition, unless otherwise specified, the site or tissue of the subject's eye is not distinguished from the image representing it.

〈構成〉
図2に示す例示的な眼科撮影装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構と、OCTを実行するための光学系や機構とが設けられている。OCTユニット100には、OCTを実行するための光学系や機構が設けられている。演算制御ユニット200は、各種の処理(演算、制御等)を実行するように構成された1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTが適用される部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科撮影装置1に設けられてもよい。
<Constitution>
The exemplary ophthalmic imaging apparatus 1 shown in FIG. 2 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic and control unit 200. As shown in FIG. The fundus camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye to be examined E and an optical system and a mechanism for executing OCT. The OCT unit 100 is provided with an optical system and a mechanism for performing OCT. The arithmetic control unit 200 includes one or more processors configured to perform various types of processing (calculation, control, etc.). In addition to these, optional parts such as a member for supporting the subject's face (chin rest, forehead rest, etc.) and a lens unit for switching the site to which OCT is applied (for example, attachment for anterior segment OCT) elements or units may be provided in the ophthalmologic imaging apparatus 1 .

本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。 In this specification, the "processor" includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (e.g., SPLD (Simple Programmable Logic Device (CPLD) Programmable Logic Device), FPGA (Field Programmable Gate Array)) or the like. The processor implements the functions according to the embodiment by, for example, reading and executing a program stored in a storage circuit or storage device.

〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efのデジタル画像(眼底像、眼底写真等と呼ばれる)は、一般に、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、可視領域のフラッシュ光を用いた静止画像である。
<Fundus camera unit 2>
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined. The acquired digital image of the fundus oculi Ef (called a fundus image, a fundus photograph, etc.) is generally a front image such as an observed image or a photographed image. Observation images are obtained by moving image shooting using near-infrared light. The photographed image is a still image using flash light in the visible region.

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は、被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eに照射された照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれる。被検眼E(例えば、眼底Ef)に投射された測定光の戻り光は、眼底カメラユニット2内の同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and an imaging optical system 30 . The illumination optical system 10 irradiates the eye E to be inspected with illumination light. The imaging optical system 30 detects return light of the illumination light with which the eye E to be examined is irradiated. Measurement light from the OCT unit 100 is guided to the subject's eye E through an optical path in the fundus camera unit 2 . Return light of the measurement light projected onto the eye E (for example, the fundus oculi Ef) is guided to the OCT unit 100 through the same optical path in the fundus camera unit 2 .

照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由して孔開きミラー21に導かれる。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef)を照明する。観察照明光の被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部に合致するように調整される。 Light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the concave mirror 12, passes through the condenser lens 13, passes through the visible cut filter 14, and becomes near-infrared light. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, passed through the relay lens system 17, the relay lens 18, the diaphragm 19, and the relay lens system 20, to the perforated mirror 21. be guided. The observation illumination light is reflected by the periphery of the perforated mirror 21 (area around the perforation), passes through the dichroic mirror 46, is refracted by the objective lens 22, and illuminates the eye E (fundus oculi Ef). do. The return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the apertured mirror 21, and passes through the dichroic mirror 55. , through a focusing lens 31 and reflected by a mirror 32 . Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the imaging lens . The image sensor 35 detects returned light at a predetermined frame rate. Note that the focus of the imaging optical system 30 is adjusted so as to match the fundus oculi Ef or the anterior segment of the eye.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。 The light (imaging illumination light) output from the imaging light source 15 irradiates the fundus oculi Ef through the same path as the observation illumination light. The return light of the imaging illumination light from the subject's eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33 , is reflected by the mirror 36 , is reflected by the imaging lens 37 . An image is formed on the light receiving surface of the image sensor 38 .

液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。固視標は、典型的には、視線の誘導及び固定に利用される。被検眼Eの視線が誘導(及び固定)される方向、つまり被検眼Eの固視が促される方向は、固視位置と呼ばれる。 A liquid crystal display (LCD) 39 displays a fixation target (fixation target image). A part of the light beam output from the LCD 39 is reflected by the half mirror 33 A, reflected by the mirror 32 , passes through the focusing lens 31 and the dichroic mirror 55 , and passes through the aperture of the apertured mirror 21 . The luminous flux that has passed through the aperture of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus oculi Ef. A fixation target is typically used for eye guidance and fixation. The direction in which the line of sight of the subject's eye E is guided (and fixed), that is, the direction in which fixation of the subject's eye E is encouraged is called a fixation position.

LCD39の画面上における固視標画像の表示位置を変更することにより、固視標による被検眼Eの固視位置を変更することができる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の位置(眼底中心)を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。 By changing the display position of the fixation target image on the screen of the LCD 39, the fixation position of the subject's eye E by the fixation target can be changed. Examples of fixation positions include a fixation position for acquiring an image centered on the macula, a fixation position for acquiring an image centered on the optic disc, and a position between the macula and the optic disc ( There is a fixation position for acquiring an image centered on the center of the eye fundus, and a fixation position for acquiring an image of a site far away from the macula (eye fundus periphery).

このような典型的な固視位置の少なくとも1つを指定するためのグラフィカルユーザーインターフェース(GUI)等を設けることができる。また、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を設けることができる。また、固視位置を自動で設定する構成を適用することも可能である。 A graphical user interface (GUI) or the like may be provided for specifying at least one such exemplary fixation position. Further, a GUI or the like for manually moving the fixation position (the display position of the fixation target) can be provided. It is also possible to apply a configuration that automatically sets the fixation position.

固視位置の変更が可能な固視標を被検眼Eに提示するための構成は、LCD等の表示デバイスには限定されない。例えば、複数の発光部(発光ダイオード等)がマトリクス状に配列されたデバイス(固視マトリクス)を、表示デバイスの代わりに採用することができる。この場合、複数の発光部を選択的に点灯させることにより、固視標による被検眼Eの固視位置を変更することができる。他の例として、移動可能な1以上の発光部を備えたデバイスによって、固視位置の変更が可能な固視標を生成することができる。 A configuration for presenting a fixation target whose fixation position is changeable to the eye to be examined E is not limited to a display device such as an LCD. For example, a device (fixation matrix) in which a plurality of light-emitting units (light-emitting diodes, etc.) are arranged in a matrix can be employed instead of the display device. In this case, the fixation position of the subject's eye E by the fixation target can be changed by selectively lighting a plurality of light emitting units. As another example, a device with one or more movable light emitters can generate a fixation target whose fixation position can be changed.

アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光(角膜反射光等)は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行することができる。 The alignment optical system 50 generates an alignment index used for alignment of the optical system with respect to the eye E to be examined. Alignment light output from a light-emitting diode (LED) 51 passes through a diaphragm 52, a diaphragm 53, and a relay lens 54, is reflected by a dichroic mirror 55, passes through the hole of the perforated mirror 21, and passes through the dichroic mirror 46. It is transmitted and projected onto the subject's eye E via the objective lens 22 . Return light of the alignment light from the subject's eye E (corneal reflected light, etc.) is guided to the image sensor 35 through the same path as return light of the observation illumination light. Manual alignment or automatic alignment can be performed based on the received light image (alignment index image).

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱される。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光(眼底反射光等)は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。 The focus optical system 60 generates a split index used for focus adjustment of the eye E to be examined. The focus optical system 60 is moved along the optical path of the illumination optical system 10 (illumination optical path) in conjunction with the movement of the imaging focusing lens 31 along the optical path of the imaging optical system 30 (imaging optical path). The reflecting bar 67 is inserted into and removed from the illumination optical path. When performing focus adjustment, the reflecting surface of the reflecting bar 67 is arranged at an angle in the illumination optical path. Focus light output from the LED 61 passes through a relay lens 62, is split into two light beams by a split index plate 63, passes through a two-hole diaphragm 64, is reflected by a mirror 65, and is reflected by a condenser lens 66 onto a reflecting rod 67. is once imaged on the reflective surface of , and then reflected. Further, the focused light passes through the relay lens 20 , is reflected by the perforated mirror 21 , passes through the dichroic mirror 46 , and is projected onto the subject's eye E via the objective lens 22 . The return light of the focus light from the subject's eye E (reflected light from the fundus, etc.) is guided to the image sensor 35 through the same path as the return light of the alignment light. Manual focusing and autofocusing can be performed based on the received light image (split index image).

孔開きミラー21とダイクロイックミラー55との間の撮影光路に、視度補正レンズ70及び71を選択的に挿入することができる。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。 Diopter correction lenses 70 and 71 can be selectively inserted in the imaging optical path between the apertured mirror 21 and the dichroic mirror 55 . The dioptric correction lens 70 is a plus lens (convex lens) for correcting high hyperopia. The dioptric correction lens 71 is a minus lens (concave lens) for correcting strong myopia.

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路(測定アーム)とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 synthesizes the fundus imaging optical path and the OCT optical path (measurement arm). The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus imaging. The measurement arm is provided with a collimator lens unit 40, a retroreflector 41, a dispersion compensation member 42, an OCT focusing lens 43, an optical scanner 44, and a relay lens 45 in order from the OCT unit 100 side.

リトロリフレクタ41は、図2に示す矢印の方向に移動可能とされ、それにより測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The retroreflector 41 is movable in the direction of the arrow shown in FIG. 2, thereby changing the length of the measuring arm. The change in measurement arm length is used, for example, for optical path length correction according to the axial length of the eye, adjustment of the interference state, and the like.

分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。 The dispersion compensating member 42 works together with a dispersion compensating member 113 (described later) arranged on the reference arm to match the dispersion characteristics of the measurement light LS and the reference light LR.

OCT合焦レンズ43は、測定アームのフォーカス調整を行うために測定アームに沿って移動される。なお、撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 An OCT focusing lens 43 is moved along the measuring arm to focus the measuring arm. In addition, the movement of the imaging focusing lens 31, the movement of the focusing optical system 60, and the movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSを偏向する。光スキャナ44は、例えば、2次元走査が可能なガルバノスキャナである。典型的には、光スキャナ44は、測定光を±x方向に偏向するための1次元スキャナ(x-スキャナ)と、測定光を±y方向に偏向するための1次元スキャナ(y-スキャナ)とを含む。この場合、例えば、これら1次元スキャナのいずれか一方が瞳孔と光学的に共役な位置に配置されるか、或いは、瞳孔と光学的に共役な位置がこれら1次元スキャナの間に配置される。 The optical scanner 44 is substantially arranged at a position optically conjugate with the pupil of the eye E to be examined. A light scanner 44 deflects the measuring light LS guided by the measuring arm. The optical scanner 44 is, for example, a galvanometer scanner capable of two-dimensional scanning. Typically, the optical scanner 44 includes a one-dimensional scanner (x-scanner) for deflecting the measurement light in the ±x directions and a one-dimensional scanner (y-scanner) for deflecting the measurement light in the ±y directions. including. In this case, for example, either one of these one-dimensional scanners is placed at a position optically conjugate with the pupil, or a position optically conjugate with the pupil is placed between these one-dimensional scanners.

〈OCTユニット100〉
図3に示す例示的なOCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源からの光を測定光と参照光とに分割し、被検眼Eに投射された測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光の検出により得られたデータ(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
<OCT unit 100>
The exemplary OCT unit 100 shown in FIG. 3 is provided with optics for performing swept-source OCT. This optical system includes interference optics. This interference optical system divides the light from the wavelength tunable light source into measurement light and reference light, and superimposes the return light of the measurement light projected on the subject's eye E and the reference light that has passed through the reference optical path to obtain interference light. and detect this interference light. Data (detection signal) obtained by detecting the interference light is a signal representing the spectrum of the interference light and is sent to the arithmetic control unit 200 .

光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームなどと呼ばれ、参照光LRの光路は参照アームなどと呼ばれる。 The light source unit 101 includes, for example, a near-infrared tunable laser that changes the wavelength of emitted light at high speed. The light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102, and the polarization state is adjusted. Further, the light L0 is guided by the optical fiber 104 to the fiber coupler 105 and split into the measurement light LS and the reference light LR. The optical path of the measurement light LS is called a measurement arm or the like, and the optical path of the reference light LR is called a reference arm or the like.

ファイバカプラ105により生成された参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The reference light LR generated by the fiber coupler 105 is guided by the optical fiber 110 to the collimator 111 , converted into a parallel beam, and guided to the retroreflector 114 via the optical path length correction member 112 and the dispersion compensation member 113 . The optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 works together with the dispersion compensation member 42 arranged on the measurement arm to match the dispersion characteristics between the reference light LR and the measurement light LS. The retroreflector 114 is movable along the optical path of the reference beam LR incident on it, thereby changing the length of the reference arm. A change in the reference arm length is used, for example, for optical path length correction according to the axial length of the eye, adjustment of the interference state, and the like.

リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。 The reference light LR that has passed through the retroreflector 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112 , is converted by the collimator 116 from a parallel beam into a focused beam, and enters the optical fiber 117 . The reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 to have its polarization state adjusted, guided to the attenuator 120 through the optical fiber 119 to have its light amount adjusted, and passed through the optical fiber 121 to the fiber coupler 122. be guided.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127を通じてコリメータレンズユニット40に導かれて平行光束に変換され、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光は、測定アームを逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided to the collimator lens unit 40 through the optical fiber 127 and converted into a parallel light beam, which is then converted into a parallel light beam by the retroreflector 41, the dispersion compensating member 42, the OCT focusing lens 43, and the optical scanner 44. , and a relay lens 45, reflected by a dichroic mirror 46, refracted by an objective lens 22, and projected onto an eye E to be examined. The measurement light LS is scattered and reflected at various depth positions of the eye E to be examined. The return light of the measurement light LS from the subject's eye E travels in the opposite direction through the measurement arm, is guided to the fiber coupler 105 , and reaches the fiber coupler 122 via the optical fiber 128 .

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分岐比(例えば1:1)で分岐することで一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 superimposes the measurement light LS input via the optical fiber 128 and the reference light LR input via the optical fiber 121 to generate interference light. The fiber coupler 122 splits the generated interference light at a predetermined splitting ratio (for example, 1:1) to generate a pair of interference lights LC. A pair of interference lights LC are guided to detector 125 through optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、これらにより得られた一対の検出信号の差分を出力する。検出器125は、この出力(差分信号等の検出信号)をデータ収集システム(DAQ)130に送る。 Detector 125 includes, for example, a balanced photodiode. A balanced photodiode includes a pair of photodetectors that respectively detect a pair of interference lights LC, and outputs a difference between a pair of detection signals obtained by these. Detector 125 sends this output (a detected signal such as a differential signal) to data acquisition system (DAQ) 130 .

データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、これら分岐光の一方を光学的に遅延させ、これら分岐光を合成し、得られた合成光を検出し、その検出信号に基づいてクロックKCを生成する。データ収集システム130は、検出器125から入力される検出信号(差分信号)のサンプリングをクロックKCに基づいて実行する。データ収集システム130は、このサンプリングで得られたデータを演算制御ユニット200に送る。 A clock KC is supplied from the light source unit 101 to the data collection system 130 . The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the wavelength tunable light source. The light source unit 101, for example, splits the light L0 of each output wavelength to generate two split lights, optically delays one of these split lights, combines these split lights, and produces the resulting combined light. A clock KC is generated based on the detection signal. The data acquisition system 130 samples the detection signal (difference signal) input from the detector 125 based on the clock KC. Data collection system 130 sends the data obtained by this sampling to arithmetic and control unit 200 .

本例では、測定アーム長を変更するための要素(例えば、リトロリフレクタ41)と、参照アーム長を変更するための要素(例えば、リトロリフレクタ114、又は参照ミラー)との双方が設けられているが、これら要素のうちの一方のみが設けられていてもよい。また、測定アーム長と参照アーム長との間の差(光路長差)を変更するための要素はこれらに限定されず、任意の要素(光学部材、機構など)を採用することが可能である。 In this example, both an element for changing the measurement arm length (eg retroreflector 41) and an element for changing the reference arm length (eg retroreflector 114 or reference mirror) are provided. However, only one of these elements may be provided. Also, the elements for changing the difference (optical path length difference) between the measurement arm length and the reference arm length are not limited to these, and arbitrary elements (optical members, mechanisms, etc.) can be adopted. .

〈演算制御ユニット200〉
演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。また、演算制御ユニット200は、各種の演算処理を実行する。例えば、演算制御ユニット200は、一連の波長走査毎に(Aライン毎に)、データ収集システム130により得られたサンプリングデータ群に基づくスペクトル分布にフーリエ変換等の信号処理を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。そのための演算処理は、従来のスウェプトソースOCTと同様である。
<Arithmetic control unit 200>
The arithmetic control unit 200 controls each part of the retinal camera unit 2 , the display device 3 and the OCT unit 100 . Further, the arithmetic control unit 200 executes various kinds of arithmetic processing. For example, the arithmetic and control unit 200 performs signal processing such as Fourier transform on the spectral distribution based on the group of sampling data obtained by the data acquisition system 130 for each series of wavelength scans (for each A line), so that each A Form a reflection intensity profile in the line. Furthermore, the arithmetic and control unit 200 forms image data by imaging the reflection intensity profile of each A line. Arithmetic processing therefor is the same as in conventional swept source OCT.

演算制御ユニット200は、例えば、プロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含む。ハードディスクドライブ等の記憶装置には各種のコンピュータプログラムが格納されている。演算制御ユニット200は、操作デバイス、入力デバイス、表示デバイスなどを含んでいてもよい。 The arithmetic control unit 200 includes, for example, a processor, RAM (Random Access Memory), ROM (Read Only Memory), hard disk drive, communication interface, and the like. Various computer programs are stored in a storage device such as a hard disk drive. The arithmetic and control unit 200 may include an operation device, an input device, a display device, and the like.

〈制御系〉
眼科撮影装置1の制御系(処理系)の構成の例を図4及び図5に示す。制御部210、画像形成部220及びデータ処理部230は、例えば演算制御ユニット200に設けられる。
<Control system>
An example of the configuration of the control system (processing system) of the ophthalmologic imaging apparatus 1 is shown in FIGS. 4 and 5. FIG. The control section 210, the image forming section 220 and the data processing section 230 are provided in the arithmetic control unit 200, for example.

〈制御部210〉
制御部210は、プロセッサを含み、眼科撮影装置1の各部を制御する。制御部210は、主制御部211と記憶部212とを含む。
<Control unit 210>
The control unit 210 includes a processor and controls each unit of the ophthalmologic imaging apparatus 1 . Control unit 210 includes main control unit 211 and storage unit 212 .

〈主制御部211〉
主制御部211は、プロセッサを含み、眼科撮影装置1の各要素(図2~図5に示された要素を含む)を制御する。主制御部211は、回路を含むハードウェアと、制御ソフトウェアとの協働により実現される。
<Main control unit 211>
The main control unit 211 includes a processor and controls each element of the ophthalmologic imaging apparatus 1 (including the elements shown in FIGS. 2 to 5). The main control unit 211 is implemented by cooperation of hardware including circuits and control software.

撮影光路に配置された撮影合焦レンズ31と照明光路に配置されたフォーカス光学系60とは、主制御部211の制御の下に、図示しない撮影合焦駆動部によって移動される。測定アームに設けられたリトロリフレクタ41は、主制御部211の制御の下に、リトロリフレクタ(RR)駆動部41Aによって移動される。測定アームに配置されたOCT合焦レンズ43は、主制御部211の制御の下に、OCT合焦駆動部43Aによって移動される。測定アームに設けられた光スキャナ44は、主制御部211の制御の下に動作する。参照アームに配置されたリトロリフレクタ114は、主制御部211の制御の下に、リトロリフレクタ(RR)駆動部114Aによって移動される。これら駆動部のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。 The photographic focusing lens 31 arranged in the photographic optical path and the focusing optical system 60 arranged in the illumination optical path are moved by a photographic focusing driving section (not shown) under the control of the main control section 211 . A retroreflector 41 provided on the measurement arm is moved by a retroreflector (RR) driving section 41A under the control of the main control section 211 . The OCT focus lens 43 placed on the measurement arm is moved by the OCT focus driver 43A under control of the main controller 211 . The optical scanner 44 provided on the measurement arm operates under the control of the main controller 211 . A retroreflector 114 located on the reference arm is moved by a retroreflector (RR) driver 114A under the control of the main controller 211 . Each of these drive units includes an actuator such as a pulse motor that operates under control of the main control unit 211 .

移動機構150は、例えば、少なくとも眼底カメラユニット2を3次元的に移動する。典型的な例において、移動機構150は、±x方向(左右方向)に移動可能なxステージと、xステージを移動するx移動機構と、±y方向(上下方向)に移動可能なyステージと、yステージを移動するy移動機構と、±z方向(奥行き方向)に移動可能なzステージと、zステージを移動するz移動機構とを含む。これら移動機構のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。 The moving mechanism 150 moves, for example, at least the retinal camera unit 2 three-dimensionally. In a typical example, the moving mechanism 150 includes an x stage that can move in ±x directions (horizontal direction), an x moving mechanism that moves the x stage, and a y stage that can move in ±y directions (vertical direction). , a y-moving mechanism for moving the y-stage, a z-stage movable in the ±z direction (depth direction), and a z-moving mechanism for moving the z-stage. Each of these moving mechanisms includes an actuator such as a pulse motor that operates under control of the main control section 211 .

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
<Storage unit 212>
The storage unit 212 stores various data. The data stored in the storage unit 212 includes, for example, image data of an OCT image, image data of a fundus image, information on an eye to be examined, and the like. The eye information to be examined includes subject information such as a patient ID and name, left/right eye identification information, electronic medical record information, and the like.

記憶部212は、眼底撮影における画像化範囲(眼底撮影領域)と、3次元OCTスキャンが適用される範囲(3次元スキャン領域)との間の位置関係を示す位置関係情報を記憶してもよい。眼底撮影領域は、例えば、眼科撮影装置1の眼底撮影機能により正面画像として描出される領域の特徴(例えば、形状、寸法)によって定義されてよい。また、3次元スキャン領域は、例えば、眼科撮影装置1のOCT機能により3次元画像として描出される領域の特徴(例えば、形状、寸法)によって定義されてよい。 The storage unit 212 may store positional relationship information indicating a positional relationship between an imaging range (fundus imaging region) in fundus photography and a range (three-dimensional scanning region) to which three-dimensional OCT scanning is applied. . The fundus photographing area may be defined, for example, by the features (for example, shape and size) of the area rendered as the front image by the fundus photographing function of the ophthalmic photographing apparatus 1 . Also, the three-dimensional scan area may be defined, for example, by the features (eg, shape and size) of the area rendered as a three-dimensional image by the OCT function of the ophthalmologic imaging apparatus 1 .

ここで、3次元画像として描出される領域の特徴は、この3次元画像のレンダリング画像として描出される領域の特徴であってもよい。その具体例として、3次元画像として描出される領域の特徴は、3次元画像をz方向に投影して得られるプロジェクション画像に描出される領域の特徴、又は、3次元画像の一部をz方向に投影して得られるシャドウグラムに描出される領域の特徴であってよい(例えば、2次元的形状、面積、周長、径)。 Here, the feature of the area rendered as the 3D image may be the feature of the area rendered as the rendered image of the 3D image. As a specific example, the feature of the area rendered as a 3D image is the feature of the area rendered in the projection image obtained by projecting the 3D image in the z direction, or the feature of the area rendered in the projection image obtained by projecting the 3D image in the z direction. (eg, two-dimensional shape, area, perimeter, diameter).

プロジェクション画像やシャドウグラムは正面画像であり、眼底撮影機能により得られる正面画像と同じ2次元座標系(xy座標系)で定義することが可能である。このような2次元画像ではなく3次元画像が考慮される場合には、眼底撮影機能により得られる正面画像の定義座標系(xy座標系)を3次元画像の定義座標系(xyz座標系)に埋め込むことが可能である。 A projection image and a shadowgram are front images, and can be defined in the same two-dimensional coordinate system (xy coordinate system) as the front image obtained by the fundus imaging function. When considering a three-dimensional image instead of such a two-dimensional image, the defining coordinate system (xy coordinate system) of the front image obtained by the fundus imaging function is changed to the defining coordinate system (xyz coordinate system) of the three-dimensional image. It can be embedded.

本実施形態では、前述したように、眼底撮影用光路とOCT用光路(測定アーム)とはダイクロイックミラー46によって結合されている。より具体的には、ダイクロイックミラー46は、眼底撮影用光路と測定アームとを互いに同軸に結合している。すなわち、ダイクロイックミラー46は、眼底撮影用光路の光軸と測定アームの光軸とが交差するように、眼底撮影用光路と測定アームとを結合している。 In this embodiment, the fundus imaging optical path and the OCT optical path (measurement arm) are coupled by the dichroic mirror 46, as described above. More specifically, the dichroic mirror 46 coaxially couples the fundus imaging optical path and the measurement arm. That is, the dichroic mirror 46 couples the fundus imaging optical path and the measurement arm so that the optical axis of the fundus imaging optical path and the optical axis of the measurement arm intersect.

更に、前述したように、OCTスキャンの寸法は、測定光の最大偏向角で定義される。よって、本実施形態において、3次元スキャン領域は、光スキャナ44による測定光LSの最大偏向角(x方向の最大偏向角及びy方向の最大偏向角)で定義される。 Furthermore, as mentioned above, the dimensions of the OCT scan are defined by the maximum deflection angle of the measurement light. Therefore, in the present embodiment, the three-dimensional scan area is defined by the maximum deflection angles (maximum deflection angle in the x direction and maximum deflection angle in the y direction) of the measurement light LS by the optical scanner 44 .

また、本実施形態では、典型的な眼底カメラと同様に、眼底撮影領域の輪郭を定義するための光学部材(撮影野絞り)が配置されるか、或いは、眼底撮影領域の輪郭を定義するためにイメージセンサ35、38に対してデジタル絞りが設定される。 In addition, in this embodiment, as in a typical fundus camera, an optical member (field diaphragm) for defining the contour of the fundus imaging area is arranged, or A digital aperture is set for the image sensors 35 and 38 at .

眼底撮影領域と3次元スキャン領域との位置関係の例を、図6を参照して説明する。符号300は対物レンズ22の光軸(対物光軸)300を示し、符号310は眼底撮影領域(その輪郭)を示し、符号320は3次元スキャン領域(その輪郭)を示す。眼底撮影領域310は円形であり、その中心が対物光軸300に配置されている。3次元スキャン領域320は正方形であり、その中心が対物光軸300に配置されている。すなわち、本例では、眼底撮影領域310と3次元スキャン領域320とが互いに同軸に配置されている。また、眼底撮影領域310は3次元スキャン領域320を真に含む。 An example of the positional relationship between the fundus imaging area and the three-dimensional scanning area will be described with reference to FIG. Reference numeral 300 indicates the optical axis (objective optical axis) 300 of the objective lens 22, reference numeral 310 indicates the fundus imaging area (its contour), and reference numeral 320 indicates the three-dimensional scanning area (its contour). The fundus imaging area 310 is circular and its center is located on the objective optical axis 300 . The three-dimensional scan area 320 is square and its center is located on the objective optical axis 300 . That is, in this example, the fundus imaging area 310 and the three-dimensional scanning area 320 are arranged coaxially with each other. Also, the fundus imaging area 310 truly includes the three-dimensional scan area 320 .

眼底撮影領域310の形状及び/又は寸法は、固定的であってもよいし、可変であってもよい。眼底撮影領域310の形状及び/又は寸法の変更は、例えば、撮影野絞りの選択、撮影野絞りの開口寸法の制御、又は、デジタル絞りの制御によって実現することが可能である。 The shape and/or size of the fundus imaging area 310 may be fixed or variable. Changing the shape and/or size of the fundus imaging region 310 can be accomplished, for example, by selecting a field diaphragm, controlling the aperture size of the field diaphragm, or controlling a digital diaphragm.

3次元スキャン領域320の形状及び/又は寸法は、固定的であってもよいし、可変であってもよい。3次元スキャン領域320の形状及び/又は寸法の変更は、例えば、光スキャナ44の制御(例えば、最大偏向角の制御、x-スキャナの制御、y-スキャナの制御、x-スキャナとy-スキャナとの連係的制御)によって実現することが可能である。 The shape and/or dimensions of the three-dimensional scan area 320 may be fixed or variable. Changing the shape and/or dimensions of the three-dimensional scan area 320 can be achieved, for example, by controlling the optical scanner 44 (eg, controlling the maximum deflection angle, controlling the x-scanner, controlling the y-scanner, controlling the x-scanner and y-scanner linked control).

眼底撮影領域310と3次元スキャン領域320との間の相対位置は、固定的であってもよいし、可変であってもよい。眼底撮影領域310と3次元スキャン領域320との間の相対位置の変更は、例えば、以下の制御のうちの1つ又は2つ以上の組み合わせによってすることが可能である:眼底撮影領域310の形状及び/寸法の変更;眼底撮影領域310の位置の変更;3次元スキャン領域320の形状及び/又は寸法の変更;3次元スキャン領域320の位置の変更。ここで、眼底撮影領域310の位置の変更は、例えば、撮影野絞りの選択、撮影野絞りの開口位置の制御、又は、デジタル絞りの制御によって実現することが可能である。また、3次元スキャン領域320の位置の変更は、例えば、光スキャナ44の制御によって実現することが可能である。 The relative position between the fundus imaging area 310 and the three-dimensional scanning area 320 may be fixed or variable. Changing the relative position between the fundus imaging area 310 and the 3D scanning area 320 can be done, for example, by one or a combination of two or more of the following controls: the shape of the fundus imaging area 310; change the position of the fundus imaging area 310; change the shape and/or size of the three-dimensional scan area 320; change the position of the three-dimensional scan area 320. Here, changing the position of the fundus imaging region 310 can be realized by, for example, selecting the imaging field diaphragm, controlling the opening position of the imaging field diaphragm, or controlling the digital diaphragm. Further, the change of the position of the three-dimensional scan area 320 can be realized by controlling the optical scanner 44, for example.

眼底撮影領域310と3次元スキャン領域320とが互いに非同軸に配置されている場合、例えば、眼底撮影領域310の中心と3次元スキャン領域320の中心との間の相対変位、及び/又は、眼底撮影領域310の輪郭と3次元スキャン領域320の輪郭との間の相対位置によって、眼底撮影領域310と3次元スキャン領域320との間の相対位置を事前に又は随時に決定することが可能である。 When the fundus imaging region 310 and the 3D scanning region 320 are arranged non-coaxially with each other, for example, the relative displacement between the center of the fundus imaging region 310 and the center of the 3D scanning region 320 and/or the fundus The relative position between the contour of the imaging region 310 and the contour of the 3D scanning region 320 allows the relative position between the fundus imaging region 310 and the 3D scanning region 320 to be determined in advance or at any time. .

本実施形態では、上記した例のいずれかにしたがって求められた眼底撮影領域310と3次元スキャン領域320との間の位置関係が、事前に又は随時に、位置関係情報として記憶部212に格納される。このような位置関係情報は、例えば、図6に例示するような眼底撮影領域310と3次元スキャン領域320との間の相対位置情報、眼底撮影領域310に関する設定情報及び/又は制御情報、並びに、3次元スキャン領域320に関する設定情報及び/又は制御情報のうち、少なくとも1つを含んでいてよい。 In the present embodiment, the positional relationship between the fundus imaging region 310 and the three-dimensional scanning region 320 obtained according to any of the above examples is stored as positional relationship information in the storage unit 212 in advance or at any time. be. Such positional relationship information includes, for example, relative position information between the fundus imaging region 310 and the three-dimensional scan region 320 as illustrated in FIG. 6, setting information and/or control information regarding the fundus imaging region 310, and At least one of setting information and/or control information regarding the 3D scan area 320 may be included.

〈画像形成部220〉
画像形成部220は、データ収集システム130により収集されたデータに基づいて画像データを形成する。画像形成部220は、プロセッサを含む。画像形成部220は、回路を含むハードウェアと、画像形成ソフトウェアとの協働により実現される。
<Image forming unit 220>
The image forming section 220 forms image data based on the data collected by the data collection system 130 . Image forming unit 220 includes a processor. The image forming unit 220 is implemented by cooperation of hardware including circuits and image forming software.

画像形成部220は、データ収集システム130により収集されたデータに基づいて断面像データを形成する。この処理には、従来のスウェプトソースOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、高速フーリエ変換(FFT)などの信号処理が含まれる。 The image forming section 220 forms cross-sectional image data based on the data collected by the data collection system 130 . This processing includes signal processing such as denoising (noise reduction), filtering, and fast Fourier transform (FFT), similar to conventional swept-source OCT.

画像形成部220により形成される画像データは、OCTスキャンが適用されたエリアに配列された複数のAライン(z方向に沿うスキャンライン)における反射強度プロファイルを画像化することによって形成された一群の画像データ(一群のAスキャン画像データ)を含むデータセットである。 The image data formed by the image forming unit 220 is a group of images formed by imaging reflection intensity profiles in a plurality of A-lines (scan lines along the z-direction) arranged in the area to which the OCT scan is applied. 1 is a data set containing image data (a group of A-scan image data);

画像形成部220により形成される画像データは、例えば、1以上のBスキャン画像データ、又は、複数のBスキャン画像データを単一の3次元座標系に埋め込んで形成されたスタックデータなどである。画像形成部220は、スタックデータにボクセル化処理を施してボリュームデータ(ボクセルデータ)を形成することも可能である。スタックデータ及びボリュームデータは、3次元座標系により表現された3次元画像データの典型的な例である。 The image data formed by the image forming unit 220 is, for example, one or more B-scan image data, or stack data formed by embedding a plurality of B-scan image data in a single three-dimensional coordinate system. The image forming unit 220 can also form volume data (voxel data) by voxelizing the stack data. Stack data and volume data are typical examples of three-dimensional image data represented by a three-dimensional coordinate system.

OCT血管造影が実施される場合、主制御部211は、眼底Efの同じ領域を所定回数だけ繰り返しスキャンする。画像形成部220は、この繰り返しスキャンにおいてデータ収集システム130により収集されたデータセットに基づいて、モーションコントラスト画像を形成することができる。このモーションコントラスト画像は、眼底Efの血流に起因する干渉信号の時間的変化を強調して画像化した血管造影画像である。典型的には、眼底Efの3次元領域に対してOCT血管造影が適用され、眼底Efの血管の3次元的な分布を表す画像が得られる。 When OCT angiography is performed, the main controller 211 repeatedly scans the same region of the fundus oculi Ef a predetermined number of times. Imager 220 may form motion contrast images based on the data sets collected by data collection system 130 in this repeated scan. This motion contrast image is an angiographic image obtained by emphasizing temporal changes in interference signals caused by blood flow in the fundus oculi Ef. Typically, OCT angiography is applied to a three-dimensional region of the fundus oculi Ef to obtain an image representing the three-dimensional distribution of blood vessels in the fundus oculi Ef.

画像形成部220は、3次元画像データを加工することができる。例えば、画像形成部220は、3次元画像データにレンダリングを適用して新たな画像データを構築することができる。レンダリングの手法としては、ボリュームレンダリング、最大値投影(MIP)、最小値投影(MinIP)、サーフェスレンダリング、多断面再構成(MPR)などがある。また、画像形成部220は、3次元画像データをz方向(Aライン方向、深さ方向)に投影してプロジェクションデータを構築することができる。また、画像形成部220は、3次元画像データの一部をz方向に投影してシャドウグラムを構築することができる。なお、シャドウグラムを構築するために投影される3次元画像データの一部は、例えば、後述のセグメンテーションを利用して設定される。 The image forming section 220 can process three-dimensional image data. For example, the image forming unit 220 can construct new image data by applying rendering to the 3D image data. Rendering techniques include volume rendering, maximum intensity projection (MIP), minimum intensity projection (MinIP), surface rendering, and multiplanar reconstruction (MPR). Further, the image forming unit 220 can construct projection data by projecting the three-dimensional image data in the z direction (A-line direction, depth direction). Also, the image forming unit 220 can construct a shadowgram by projecting a portion of the three-dimensional image data in the z-direction. A part of the three-dimensional image data projected to construct the shadowgram is set using, for example, segmentation, which will be described later.

OCT血管造影が実施された場合、画像形成部220は、3次元血管造影画像データから、任意の2次元血管造影画像データ及び/又は任意の擬似的3次元血管造影画像データを構築することが可能である。例えば、画像形成部220は、3次元血管造影画像データに多断面再構成を適用することにより、眼底Efの任意の断面を表す2次元血管造影画像データを構築することができる。また、3次元血管造影画像データ又はその一部をz方向に投影して正面血管造影画像データを構築することが可能である。 When OCT angiography is performed, the image forming unit 220 can construct arbitrary two-dimensional angiographic image data and/or arbitrary pseudo three-dimensional angiographic image data from the three-dimensional angiographic image data. is. For example, the image forming unit 220 can construct two-dimensional angiographic image data representing an arbitrary section of the fundus oculi Ef by applying multi-planar reconstruction to the three-dimensional angiographic image data. It is also possible to project the 3D angiographic image data or a portion thereof in the z-direction to construct frontal angiographic image data.

〈データ処理部230〉
データ処理部230は、各種のデータ処理を実行する。例えば、データ処理部230は、OCT画像データに画像処理や解析処理を適用することや、観察画像データ又は撮影画像データに画像処理や解析処理を適用することが可能である。データ処理部230は、例えば、プロセッサ及び専用回路基板の少なくともいずれかを含む。
<Data processing unit 230>
The data processing unit 230 executes various data processing. For example, the data processing unit 230 can apply image processing or analysis processing to OCT image data, or apply image processing or analysis processing to observed image data or photographed image data. The data processing unit 230 includes, for example, at least one of a processor and a dedicated circuit board.

例示的なデータ処理部230の構成を図5に示す。本例のデータ処理部230は、固視位置設定部231と画像処理部232とを含む。なお、固視系250は、被検眼Eに固視標を提示するように構成される。本例の固視系250は、LCD39と、LCD39から出力された光束を眼底Efに投射するための光学系とを含む。また、OCT画像取得部260は、被検眼Eの眼底EfにOCTを適用して画像を取得するように構成される。本例のOCT画像取得部260は、眼底カメラユニット2に設けられた測定アームを構成する要素群と、OCTユニット100に設けられた要素群と、画像形成部220とを含む。また、撮影部270は、眼底Efを撮影するように構成される。本例の撮影部270は、照明光学系10と撮影光学系30とを含む。 A configuration of an exemplary data processing unit 230 is shown in FIG. The data processing section 230 of this example includes a fixation position setting section 231 and an image processing section 232 . The fixation system 250 is configured to present a fixation target to the eye E to be examined. The fixation system 250 of this example includes the LCD 39 and an optical system for projecting the light flux output from the LCD 39 onto the fundus oculi Ef. Further, the OCT image acquisition unit 260 is configured to acquire an image by applying OCT to the fundus Ef of the eye E to be examined. The OCT image acquisition section 260 of this example includes a group of elements forming a measurement arm provided in the retinal camera unit 2 , a group of elements provided in the OCT unit 100 , and an image forming section 220 . Further, the photographing unit 270 is configured to photograph the fundus oculi Ef. The imaging unit 270 of this example includes the illumination optical system 10 and the imaging optical system 30 .

〈固視位置設定部231〉
固視位置設定部231は、眼底EfにOCTを適用するための固視位置を設定する。特に、固視位置設定部231は、撮影部270により取得された眼底Efの正面画像に基づいて、眼底Efにパノラマ撮影(パノラマOCT)を適用するための固視位置を設定することが可能である。本例の固視位置設定部231が実行可能な処理については後述する。
<Fixation position setting unit 231>
The fixation position setting unit 231 sets a fixation position for applying OCT to the fundus oculi Ef. In particular, the fixation position setting unit 231 can set a fixation position for applying panoramic imaging (panoramic OCT) to the fundus oculi Ef based on the front image of the fundus oculi Ef acquired by the imaging unit 270. be. Processing that can be executed by the fixation position setting unit 231 of this example will be described later.

〈画像処理部232〉
画像処理部232は、OCT画像取得部260により取得されたOCT画像を処理する。例えば、画像処理部232は、2次元断面像データ又は3次元画像データにセグメンテーションを適用することができる。セグメンテーションは、画像中の部分領域を特定する処理である。典型的には、セグメンテーションは、眼底Efの所定組織に相当する画像領域を特定するために利用される。
<Image processing unit 232>
The image processing section 232 processes the OCT images acquired by the OCT image acquisition section 260 . For example, the image processor 232 can apply segmentation to two-dimensional cross-sectional image data or three-dimensional image data. Segmentation is the process of identifying subregions in an image. Typically, segmentation is used to identify image regions corresponding to predetermined tissues of the fundus oculi Ef.

前述したように、画像形成部220は、セグメンテーションで特定された画像領域をz方向に投影してシャドウグラム(正面血管造影画像データ等)を構築することができる。シャドウグラムの例として、眼底Efの任意の深さ領域(例えば、網膜浅部、網膜深部、脈絡膜毛細血管板、強膜など)に対応するシャドウグラムや、任意の組織(例えば、内境界膜、神経線維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、網膜色素上皮、ブルッフ膜、脈絡膜、脈絡膜強膜境界、強膜、これらのいずれかの一部、これらの少なくとも2以上の組み合わせなど)に対応するシャドウグラムなどがある。 As described above, the imaging unit 220 can project the image regions identified by the segmentation in the z-direction to construct a shadowgram (such as frontal angiography image data). Examples of shadowgrams include shadowgrams corresponding to arbitrary depth regions of the fundus oculi Ef (e.g., superficial retina, deep retina, choroidal capillary plate, sclera, etc.) and arbitrary tissues (e.g., internal limiting membrane, Nerve fiber layer, ganglion cell layer, inner reticular layer, inner nuclear layer, outer reticular layer, outer nuclear layer, outer limiting membrane, retinal pigment epithelium, Bruch's membrane, choroid, choroid-scleral junction, sclera, any of these , a combination of at least two of these, etc.).

画像処理部232は、撮影部270により取得された画像(観察画像、撮影画像等)を処理することや、他の眼科撮影装置により取得された画像を処理することが可能であってもよい。例えば、画像処理部232は、撮影部270により取得された眼底Efの正面画像を解析して、眼底Efの所定部位(黄斑、視神経乳頭等)に相当する画像領域を特定することや、眼底Efの所定部位の輪郭に相当する画像領域を特定することや、眼底Efの所定位置(黄斑中心、乳頭中心等)に相当する画素を特定することが可能である。この処理は、画素値に関する閾値処理、エッジ検出、テンプレートマッチング等を含んでいてよい。 The image processing unit 232 may be capable of processing images (observed images, captured images, etc.) acquired by the imaging unit 270 and processing images acquired by other ophthalmologic imaging devices. For example, the image processing unit 232 analyzes the front image of the fundus oculi Ef acquired by the imaging unit 270 to specify an image region corresponding to a predetermined portion (macula, optic papilla, etc.) of the fundus oculi Ef, or It is possible to specify an image region corresponding to the contour of a predetermined portion of the eye fundus Ef, and to specify pixels corresponding to predetermined positions (macular center, papilla center, etc.) of the fundus oculi Ef. This processing may include thresholding of pixel values, edge detection, template matching, and the like.

画像処理部232は、画像処理プロセッサや画像解析プロセッサを含む。画像処理プロセッサは、回路を含むハードウェアと、画像処理ソフトウェアとの協働により実現される。また、画像解析プロセッサは、回路を含むハードウェアと、画像解析ソフトウェアとの協働により実現される。 The image processing unit 232 includes an image processing processor and an image analysis processor. The image processor is implemented by cooperation of hardware including circuits and image processing software. Also, the image analysis processor is realized by cooperation of hardware including a circuit and image analysis software.

本例の画像処理部232が実行可能な処理については後述する。 Processing that can be executed by the image processing unit 232 of this example will be described later.

〈合成処理部2321〉
画像処理部232は合成処理部2321を含む。合成処理部2321は、パノラマ撮影において互いに異なる2以上の固視位置に対応して取得された2以上の3次元画像の合成画像を形成する。本例の合成処理部2321が実行可能な処理については後述する。
<Synthesis processing unit 2321>
The image processing section 232 includes a composition processing section 2321 . The composition processing unit 2321 forms a composite image of two or more three-dimensional images acquired corresponding to two or more different fixation positions in panoramic photography. Processing that can be executed by the composition processing unit 2321 of this example will be described later.

〈ユーザインターフェイス240〉
ユーザインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科撮影装置に接続された外部装置であってよい。
<User Interface 240>
User interface 240 includes display unit 241 and operation unit 242 . Display unit 241 includes display device 3 . The operation unit 242 includes various operation devices and input devices. The user interface 240 may include a device, such as a touch panel, that combines a display function and an operation function. It is also possible to construct embodiments that do not include at least a portion of user interface 240 . For example, the display device may be an external device connected to the ophthalmic imaging equipment.

〈パノラマ撮影について〉
本例において実行可能なパノラマ撮影について説明する。本例では、撮影部270により取得された眼底Efの正面画像を利用して、パノラマ撮影のための固視位置が設定される。この予備的な眼底撮影は、例えば、パノラマ撮影の中心位置を設定するための第1の予備的眼底撮影と、パノラマ撮影で実施される複数のOCTのための複数の固視位置を設定するための第2の予備的眼底撮影とを含む。なお、第1の予備的眼底撮影の実行は任意的である。第1の予備的眼底撮影を経ずに第2の予備的眼底撮影を実行するようにしてもよい。
<About panorama shooting>
Panoramic photography that can be performed in this example will be described. In this example, the front image of the fundus oculi Ef acquired by the imaging unit 270 is used to set the fixation position for panoramic imaging. This preliminary fundus photography includes, for example, a first preliminary fundus photography for setting the central position of panoramic photography and a plurality of fixation positions for multiple OCT performed in panoramic photography. and a second preliminary fundus photography. Note that execution of the first preliminary fundus photographing is optional. The second preliminary fundus photography may be performed without the first preliminary fundus photography.

〈第1の予備的眼底撮影等について〉
第1の予備的眼底撮影の例を説明する。第1の予備的眼底撮影において、主制御部211は、眼底Efの所定部位を中心とする正面画像を取得するための第1の固視標を被検眼Eに提示しつつ眼底Efの正面画像(予備的正面画像と呼ぶ)を取得するように固視系250及び撮影部270を制御する。本例では、この所定部位(つまり、第1の固視位置)の典型例として黄斑(黄斑中心、中心窩)を採用するが、眼底の他の部位(例えば、視神経乳頭又は眼底中心)が所定部位であってもよい。
<Regarding the first preliminary fundus photography, etc.>
A first example of preliminary fundus photography will be described. In the first preliminary fundus photography, the main control unit 211 presents the eye E to be examined with a first fixation target for obtaining a front image centering on a predetermined portion of the fundus oculi Ef. The fixation system 250 and the imaging unit 270 are controlled to acquire a front image (referred to as a preliminary front image). In this example, the macula (macular center, fovea centralis) is used as a typical example of the predetermined site (that is, the first fixation position), but other sites of the fundus (eg, the optic papilla or the fundus center) are used as the predetermined sites. It may be a part.

画像処理部232は、予備的正面画像の中心位置に対する眼底Efの所定部位の画像の偏位を算出する。 The image processing unit 232 calculates the deviation of the image of the predetermined portion of the fundus oculi Ef with respect to the central position of the preliminary front image.

例えば、画像処理部232は、まず、予備的正面画像を解析して黄斑中心に相当する画素の座標を求める。続いて、画像処理部232は、特定された黄斑中心の座標と、予備的正面画像の中心位置の座標との間の差を求める。黄斑中心の座標と予備的正面画像の中心位置の座標との間の差は、第1の予備的眼底撮影で適用された眼底撮影領域(撮影野)の中心位置に対する実際の黄斑中心の偏位に相当する。 For example, the image processing unit 232 first analyzes the preliminary front image to obtain the coordinates of the pixel corresponding to the center of the macula. Subsequently, the image processing unit 232 obtains the difference between the specified coordinates of the center of the macula and the coordinates of the center position of the preliminary front image. The difference between the coordinates of the macula center and the coordinates of the center position of the preliminary frontal image is the deviation of the actual macula center relative to the center position of the fundus imaging area (field) applied in the first preliminary fundus photography. corresponds to

画像処理部232により求められた偏位に基づいて、固視位置設定部231は、第1の固視位置を補正することができる。例えば、固視位置設定部231は、画像処理部232により求められた偏位がキャンセルされるように(つまり、当該偏位がゼロになるように)第1の固視位置を補正する。それにより、眼底撮影領域の中心位置(パノラマ撮影の中心位置)が第1の固視位置に対応する部位(黄斑中心)に略一致される。 Based on the deviation obtained by the image processing unit 232, the fixation position setting unit 231 can correct the first fixation position. For example, the fixation position setting unit 231 corrects the first fixation position so that the deviation obtained by the image processing unit 232 is canceled (that is, the deviation becomes zero). As a result, the central position of the fundus imaging region (the central position of the panorama imaging) substantially coincides with the site (macular center) corresponding to the first fixation position.

更に、固視位置設定部231は、既定の第2の固視位置を補正することができる。具体例として、固視位置設定部231は、第1の固視位置と第2の固視位置との間の相対位置が維持されるように、第1の固視位置の補正量と同じ補正量を第2の固視位置に適用する。つまり、固視位置設定部231は、画像処理部232により求められた偏位(ベクトル)の逆ベクトルに相当する補正量を第2の固視位置に適用する。 Furthermore, the fixation position setting section 231 can correct the default second fixation position. As a specific example, the fixation position setting unit 231 sets the same correction amount as the first fixation position so that the relative position between the first fixation position and the second fixation position is maintained. Quantity is applied to the second fixation position. That is, the fixation position setting section 231 applies a correction amount corresponding to the inverse vector of the deflection (vector) obtained by the image processing section 232 to the second fixation position.

主制御部211は、固視位置設定部231により補正された第1の固視位置及び第2の固視位置を適用して第2の予備的眼底撮影を実行することが可能である。 The main control unit 211 can apply the first fixation position and the second fixation position corrected by the fixation position setting unit 231 to perform second preliminary fundus photography.

〈第2の予備的眼底撮影等について〉
第2の予備的眼底撮影の例を説明する。第2の予備的眼底撮影において、主制御部211は、第1の制御と、第2の制御とを実行する。第1の制御において、主制御部211は、第1の固視位置に対応する第1の固視標を被検眼Eに提示しつつ眼底Efの正面画像(第1の正面画像と呼ぶ)を取得するように固視系250及び撮影部270を制御する。同様に、第2の制御において、主制御部211は、第2の固視位置に対応する第2の固視標を被検眼Eに提示しつつ眼底Efの正面画像(第2の正面画像と呼ぶ)を取得するように固視系250及び撮影部270を制御する。
<Second preliminary fundus photography, etc.>
A second example of preliminary fundus photography will be described. In the second preliminary fundus imaging, the main controller 211 executes first control and second control. In the first control, the main control unit 211 presents the first fixation target corresponding to the first fixation position to the eye E to be examined, and displays a front image of the fundus oculi Ef (referred to as a first front image). The fixation system 250 and the imaging unit 270 are controlled so as to acquire. Similarly, in the second control, the main control unit 211 presents the second fixation target corresponding to the second fixation position to the subject's eye E, and presents the front image of the fundus oculi Ef (the second front image). control the fixation system 250 and the imaging unit 270 so as to acquire the

第1の制御において、主制御部211は、例えば、第1の固視位置に対応するLCD39の表示位置(ピクセル)に固視標を表示するように固視系250を制御し、且つ、その状態で眼底Efの撮影を行うように撮影部270を制御する。それにより、第1の固視位置に対応する第1の正面画像が得られる。 In the first control, the main control unit 211 controls the fixation system 250 to display the fixation target at the display position (pixel) of the LCD 39 corresponding to the first fixation position, and The photographing unit 270 is controlled so as to photograph the fundus oculi Ef in this state. Thereby, a first frontal image corresponding to the first fixation position is obtained.

同様に、第2の制御において、主制御部211は、例えば、第2の固視位置に対応するLCD39の表示位置(ピクセル)に固視標を表示するように固視系250を制御し、且つ、その状態で眼底Efの撮影を行うように撮影部270を制御する。それにより、第2の固視位置に対応する第2の正面画像が得られる。 Similarly, in the second control, the main control unit 211 controls the fixation system 250 to display the fixation target at the display position (pixel) of the LCD 39 corresponding to the second fixation position, In addition, the photographing unit 270 is controlled so as to photograph the fundus oculi Ef in that state. A second frontal image corresponding to the second fixation position is thereby obtained.

ここで、第1の固視位置は、眼底の所定部位を中心とする正面画像を取得するための既定の固視位置であり、例えば、前述したように、黄斑を中心とする正面画像を取得するための固視位置であってよい。また、第2の固視位置は、例えば、標準的な眼の眼底において当該所定部位から所定方向に所定距離だけ離れた位置を中心とする正面画像を取得するための既定の固視位置であってよい。 Here, the first fixation position is a default fixation position for acquiring a front image centered on a predetermined site of the fundus. It may be a fixation position for Also, the second fixation position is, for example, a default fixation position for acquiring a frontal image centered at a position a predetermined distance away from the predetermined site in a predetermined direction in the fundus of a standard eye. you can

第1の固視位置及び第2の固視位置の例を図7に示す。符号411は、第1の固視位置(黄斑中心)に対応する第1の固視標(黄斑用固視標)を示す。符号412は、第1の固視位置を中心とする眼底撮影領域(黄斑用撮影範囲)を示す。符号413は、第1の固視位置を中心とする3次元スキャン領域(黄斑用スキャン範囲)を示す。本例において、黄斑用撮影範囲412と黄斑用スキャン範囲413との位置関係は、記憶部212に記憶されている位置関係情報に相当する(図6を参照)。 An example of a first fixation position and a second fixation position is shown in FIG. Reference numeral 411 denotes a first fixation target (macular fixation target) corresponding to the first fixation position (macular center). Reference numeral 412 denotes a fundus imaging area (macula imaging area) centered on the first fixation position. Reference numeral 413 denotes a three-dimensional scanning area (macula scanning area) centered on the first fixation position. In this example, the positional relationship between the macular imaging range 412 and the macular scanning range 413 corresponds to the positional relationship information stored in the storage unit 212 (see FIG. 6).

また、符号421は、第2の固視位置(黄斑中心から左下方向に所定距離だけ離れた位置)に対応する第2の固視標(周辺用固視標)を示す。符号422は、第2の固視位置を中心とする眼底撮影領域(周辺用撮影範囲)を示す。符号423は、第2の固視位置を中心とする3次元スキャン領域(周辺用スキャン範囲)を示す。本例において、周辺用撮影範囲422と周辺用スキャン範囲423との位置関係は、黄斑用撮影範囲412と黄斑用スキャン範囲413との位置関係と同じく、記憶部212に記憶されている位置関係情報に相当する。 Reference numeral 421 denotes a second fixation target (peripheral fixation target) corresponding to the second fixation position (a position a predetermined distance away from the center of the macula in the lower left direction). Reference numeral 422 denotes a fundus imaging area (peripheral imaging range) centered on the second fixation position. Reference numeral 423 indicates a three-dimensional scan area (peripheral scan range) centered on the second fixation position. In this example, the positional relationship between the peripheral imaging range 422 and the peripheral scanning range 423 is the same as the positional relationship between the macular imaging range 412 and the macular scanning range 413, and the positional relationship information stored in the storage unit 212 is corresponds to

図7において、符号432は、黄斑用撮影範囲412と周辺用撮影範囲422との重複領域(重複撮影範囲)を示し、符号433は、黄斑用スキャン範囲413と周辺用スキャン範囲423との重複領域(重複スキャン範囲)を示す。前述したように、黄斑用撮影範囲412と黄斑用スキャン範囲413との位置関係は位置関係情報に相当するので、この位置関係は実質的に固定的である。同様に、周辺用撮影範囲422と周辺用スキャン範囲423との位置関係は位置関係情報に相当するので、この位置関係も実質的に固定的である。したがって、重複撮影範囲432及び重複スキャン範囲433の一方が決定されれば、他方も決定される。 In FIG. 7, reference numeral 432 denotes an overlapping region (overlapping imaging range) between the macular imaging range 412 and the peripheral imaging range 422, and reference numeral 433 denotes an overlapping region between the macular scanning range 413 and the peripheral scanning range 423. (overlapping scan range) is shown. As described above, since the positional relationship between the macular imaging range 412 and the macular scanning range 413 corresponds to the positional relationship information, this positional relationship is substantially fixed. Similarly, since the positional relationship between the peripheral imaging range 422 and the peripheral scanning range 423 corresponds to positional relationship information, this positional relationship is also substantially fixed. Therefore, if one of the overlapping imaging range 432 and the overlapping scanning range 433 is determined, the other is also determined.

図7に示すように、第1の固視位置(黄斑用固視標411)の左下に第2の固視位置(周辺用固視標421)が配置されているとする。被検眼Eが標準的な眼である場合、図7に示すように、重複スキャン範囲433の右上隅に黄斑用固視標411が配置され、左下隅に周辺用固視標421が配置される。すなわち、被検眼Eが標準的な眼である場合にこのような配置が実現されるように、第1の固視位置(黄斑用固視標411)と第2の固視位置(周辺用固視標421)との位置関係が予め設定される。典型的には、被検眼Eが標準的な眼である場合、右上隅の所定の許容範囲に黄斑用固視標411が配置され、且つ、左下隅の所定の許容範囲に周辺用固視標421が配置されるような寸法を有する重複スキャン範囲433が得られる。前述したように、重複撮影範囲432と重複スキャン範囲433との間には一定の関係が存在するので、被検眼Eが標準的な眼である場合に得られる重複スキャン範囲433の寸法を予め決定することが可能である。 As shown in FIG. 7, it is assumed that the second fixation position (periphery fixation target 421) is arranged at the lower left of the first fixation position (macula fixation target 411). When the subject's eye E is a standard eye, as shown in FIG. 7, the macular fixation target 411 is arranged at the upper right corner of the overlapping scan range 433, and the peripheral fixation target 421 is arranged at the lower left corner. . That is, the first fixation position (macular fixation target 411) and the second fixation position (peripheral fixation target 411) are arranged so that such an arrangement is realized when the subject's eye E is a standard eye. The positional relationship with the visual target 421) is set in advance. Typically, when the eye to be examined E is a standard eye, the macular fixation target 411 is arranged in a predetermined allowable range in the upper right corner, and the peripheral fixation target is arranged in a predetermined allowable range in the lower left corner. An overlapping scan range 433 is obtained having dimensions such that 421 is located. As described above, since there is a certain relationship between the overlapping imaging range 432 and the overlapping scanning range 433, the dimensions of the overlapping scanning range 433 obtained when the subject's eye E is a standard eye are determined in advance. It is possible to

ここで、標準的な眼とは、典型的には、眼軸長が標準的範囲に属する眼(例えば、長眼軸長眼でも短眼軸長眼でもない眼)、及び/又は、視度が標準的範囲に属する眼(例えば、近視眼でも遠視眼でもない眼)である。 Here, a standard eye typically means an eye whose axial length falls within a standard range (for example, an eye that is neither long-axis long eye nor short-axis long eye), and/or diopter is an eye in the standard range (eg, an eye that is neither myopic nor hyperopic).

これに対し、例えば被検眼Eの眼軸長が標準よりも短い場合には、黄斑用撮影範囲の寸法が、標準的な眼の場合の黄斑用撮影範囲412の寸法よりも小さくなり、且つ、周辺用撮影範囲の寸法も標準的な眼の場合の周辺用撮影範囲422よりも小さくなる。したがって、被検眼Eの眼軸長が標準よりも短い場合の重複撮影範囲の寸法は、標準的な眼の場合の重複撮影範囲432と比較して小さくなる。この場合、重複スキャン範囲の右上隅の所定の許容範囲に黄斑用固視標411が配置されず、及び/又は、左下隅の所定の許容範囲に周辺用固視標421が配置されない。 On the other hand, for example, when the axial length of the eye to be examined E is shorter than the standard, the dimension of the macular imaging range is smaller than the dimension of the macular imaging range 412 for a standard eye, and The size of the peripheral field of view is also smaller than the peripheral field of view 422 for a standard eye. Therefore, the dimensions of the overlapping imaging range when the axial length of the subject's eye E is shorter than the standard are smaller than the overlapping imaging range 432 for the standard eye. In this case, the macular fixation target 411 is not placed in the predetermined allowable range of the upper right corner of the overlapping scan range, and/or the peripheral fixation target 421 is not placed in the predetermined allowable range of the lower left corner.

逆に、被検眼Eの眼軸長が標準よりも長い場合には、黄斑用撮影範囲の寸法が、標準的な眼の場合の黄斑用撮影範囲412の寸法よりも大きくなり、且つ、周辺用撮影範囲の寸法も標準的な眼の場合の周辺用撮影範囲422よりも大きくなる。したがって、被検眼Eの眼軸長が標準よりも長い場合の重複撮影範囲の寸法は、標準的な眼の場合の重複撮影範囲432と比較して大きくなる。この場合においても、重複スキャン範囲の右上隅の所定の許容範囲に黄斑用固視標411が配置されず、及び/又は、左下隅の所定の許容範囲に周辺用固視標421が配置されない。 Conversely, when the axial length of the eye to be examined E is longer than the standard, the dimension of the macular imaging range is larger than the dimension of the macular imaging range 412 for a standard eye, and The size of the field of view is also larger than the peripheral field of view 422 for a standard eye. Therefore, the dimensions of the overlapped imaging range when the axial length of the subject's eye E is longer than the standard are larger than the overlapped imaging range 432 for a standard eye. Also in this case, the macular fixation target 411 is not placed in the predetermined allowable range of the upper right corner of the overlapping scan range, and/or the peripheral fixation target 421 is not placed in the predetermined allowable range of the lower left corner.

このように、被検眼Eの眼軸長の値に応じて、第1の正面画像と第2の正面画像との重複領域の寸法が変化する。より具体的には、被検眼Eの眼軸長が短いほど重複領域の寸法は小さくなり、被検眼Eの眼軸長が長いほど重複領域の寸法は大きくなる。なお、視度等の眼球パラメータについても同様である。本実施形態では、このような関係を利用してパノラマ撮影のための複数の固視標を設定することができる。 In this manner, the dimension of the overlapping region between the first front image and the second front image changes according to the value of the axial length of the eye E to be examined. More specifically, the shorter the axial length of the eye E to be examined, the smaller the size of the overlapping region, and the longer the axial length of the eye E to be examined, the larger the size of the overlapping region. The same applies to eyeball parameters such as diopter. In this embodiment, it is possible to set a plurality of fixation targets for panorama imaging using such a relationship.

より一般に、本実施形態の固視位置設定部231は、第1の正面画像と第2の正面画像とに基づいて、パノラマ撮影のための固視位置を設定することが可能である。 More generally, the fixation position setting unit 231 of the present embodiment can set the fixation position for panorama imaging based on the first front image and the second front image.

一例において、固視位置設定部231は、第1の正面画像と第2の正面画像との間の重複領域を特定することができる。この処理は、例えば、第1の正面画像中の第1の部分領域及び第2の正面画像中の第2の部分領域であって、一致の程度(画像相関等)が高い第1の部分領域及び第2の部分領域を特定することによって実現される。本例では、更に、固視位置設定部231は、特定された重複領域に基づいて、パノラマ撮影のための固視位置を設定することができる。 In one example, the fixation position setting section 231 can identify an overlapping region between the first front image and the second front image. This process is performed, for example, on the first partial area in the first front image and the second partial area in the second front image, where the degree of matching (image correlation, etc.) is high. and a second partial area. In this example, the fixation position setting section 231 can further set the fixation position for panoramic imaging based on the identified overlapping region.

例えば、固視位置設定部231は、第1の正面画像と第2の正面画像との間の重複領域の寸法を算出し、この寸法に基づいてパノラマ撮影のための固視位置を設定してもよい。ここで、重複領域の寸法を示すパラメータは、x方向における長さ、y方向における長さ、周長、面積などのうちの少なくとも1つを含んでいてよい。 For example, the fixation position setting unit 231 calculates the size of the overlapping region between the first front image and the second front image, and sets the fixation position for panorama imaging based on this size. good too. Here, the parameters indicating the dimensions of the overlapping region may include at least one of the length in the x direction, the length in the y direction, the perimeter, the area, and the like.

例えば、固視位置設定部231は、第1の正面画像と第2の正面画像との間の重複領域の寸法が既定値に略等しくなるように(又は、既定の許容範囲に含まれるように)パノラマ撮影のための固視位置を設定してもよい。この既定値(又は、許容範囲)は、例えば、被検眼Eが標準的な眼である場合に得られるべき重複領域の寸法(又は、寸法の値の許容範囲)を示す。 For example, the fixation position setting unit 231 sets the dimension of the overlapping region between the first front image and the second front image so that it is substantially equal to the default value (or is included in the default allowable range). ) You may set the fixation position for panoramic photography. This default value (or allowable range) indicates, for example, the size of the overlapping region to be obtained when the eye to be examined E is a standard eye (or the allowable range of dimensional values).

また、固視位置設定部231は、第1の正面画像と第2の正面画像とに基づいて第1の固視位置に対する第2の固視位置の偏位を補正することにより、パノラマ撮影のための固視位置を設定してもよい。典型的には、第1の固視位置が黄斑に対応する場合において、第2の予備的眼底撮影における第1の固視位置に対する第2の固視位置の偏位を、第1の正面画像と第2の正面画像とに基づき補正することにより、第2の固視位置の近傍に位置する周辺固視位置をパノラマ撮影のための固視位置の1つとして設定することができる。 In addition, the fixation position setting unit 231 corrects the deviation of the second fixation position with respect to the first fixation position based on the first front image and the second front image, thereby performing panoramic imaging. You may set the fixation position for Typically, when the first fixation position corresponds to the macula, the deviation of the second fixation position with respect to the first fixation position in the second preliminary fundus photography is represented by the first front image. and the second front image, a peripheral fixation position located near the second fixation position can be set as one of the fixation positions for panorama imaging.

〈動作〉
本実施形態に係る眼科撮影装置1の動作について説明する。眼科撮影装置1の動作の例を図8に示す。なお、患者情報入力、アライメント、フォーカス調整など、眼底撮影のための一般的な準備処理は既に完了しているとする。また、干渉感度調整、z位置調整など、OCTのための一般的な準備処理は任意のタイミングで実行されるものとする。
<motion>
The operation of the ophthalmologic imaging apparatus 1 according to this embodiment will be described. An example of the operation of the ophthalmologic imaging apparatus 1 is shown in FIG. It is assumed that general preparatory processes for fundus imaging, such as patient information input, alignment, and focus adjustment, have already been completed. It is also assumed that general preparatory processing for OCT, such as interference sensitivity adjustment and z-position adjustment, is executed at arbitrary timing.

(S1:第1の予備的眼底撮影を実行)
まず、眼科撮影装置1は、前述した第1の予備的眼底撮影を実行する。第1の予備的眼底撮影は、パノラマ撮影の中心位置を設定するために行われる。本例の第1の予備的眼底撮影では、主制御部211が、デフォルトの黄斑用固視標を被検眼Eに提示するように固視系250を制御し、且つ、この黄斑用固視標が提示されている被検眼Eの眼底Efを撮影するように撮影部270を制御する。それにより、予備的正面画像が得られる。
(S1: Execute first preliminary fundus photography)
First, the ophthalmologic photographing apparatus 1 executes the above-described first preliminary fundus photographing. The first preliminary fundus photography is performed to set the central position of panoramic photography. In the first preliminary fundus imaging of this example, the main control unit 211 controls the fixation system 250 to present the default macular fixation target to the eye E to be examined, and The photographing unit 270 is controlled to photograph the fundus Ef of the subject's eye E for which is presented. A preliminary frontal image is thereby obtained.

ここで、デフォルトの黄斑用固視標は、典型的には、LCD39の表示画面の中心位置(つまり、ハーフミラー33Aにより分岐された光路の光軸上の位置)に表示された可視輝点である。ただし、デフォルトの黄斑用固視標はこれに限定されない。 Here, the default macular fixation target is typically a visible bright point displayed at the center position of the display screen of the LCD 39 (that is, the position on the optical axis of the optical path split by the half mirror 33A). be. However, the default macular fixation target is not limited to this.

(S2:パノラマ撮影の中心位置を設定)
主制御部211は、ステップS1の第1の予備的眼底撮影で取得された予備的正面画像をデータ処理部230に送る。画像処理部232は、予備的正面画像の中心位置に対する眼底Efの黄斑の画像の偏位を算出する。
(S2: Set the center position of panorama shooting)
The main control unit 211 sends to the data processing unit 230 the preliminary front image acquired in the first preliminary fundus imaging in step S1. The image processing unit 232 calculates the displacement of the macular image of the fundus oculi Ef with respect to the central position of the preliminary front image.

ここで、図9Aを参照する。符号500は、予備的正面画像を示す。予備的正面画像500の輪郭は円形である。符号501は、予備的正面画像500の中心位置(xy面における中心位置)を示す。符号502は、予備的正面画像に描出された黄斑(黄斑中心)の位置を示す。符号503は、予備的正面画像500の中心位置501に対する黄斑中心502の偏位を示す。本例では、画像処理部232は、予備的正面画像500を解析することで、その中心位置501に対する黄斑中心502の偏位503を算出する。 Reference is now made to FIG. 9A. Reference numeral 500 indicates a preliminary frontal image. The outline of the preliminary frontal image 500 is circular. A reference numeral 501 indicates the center position of the preliminary front image 500 (the center position in the xy plane). Reference numeral 502 indicates the position of the macula (macular center) drawn on the preliminary front image. Reference numeral 503 indicates the displacement of the macular center 502 with respect to the center position 501 of the preliminary frontal image 500 . In this example, the image processing unit 232 analyzes the preliminary front image 500 to calculate the displacement 503 of the macular center 502 with respect to its center position 501 .

固視位置設定部231は、算出された偏位503に基づいて、デフォルトの黄斑用固視標に対応する固視位置(つまり、LCD39の表示画面における可視輝点の表示位置)を補正する。補正された黄斑用固視標に対応する眼底Efの位置(黄斑)が、パノラマ撮影の中心位置に設定される。すなわち、偏位503が表すベクトルの逆ベクトルに相当する方向及び距離の平行移動をデフォルトの黄斑用固視標に適用することで、図9Bに示すように、(仮想的な)正面画像550の中心位置に黄斑中心551が描出されるようにデフォルトの黄斑用固視標の位置が補正される。更に、固視位置設定部231は、デフォルトの周辺固視位置(第2の固視位置)についても同様の補正を行う。 The fixation position setting unit 231 corrects the fixation position corresponding to the default macular fixation target (that is, the display position of the visible bright spot on the display screen of the LCD 39) based on the calculated deviation 503. FIG. The position of the fundus oculi Ef (macula) corresponding to the corrected macular fixation target is set as the central position of the panorama imaging. That is, by applying the translation of the direction and distance corresponding to the inverse vector of the vector represented by the displacement 503 to the default macular fixation target, a (virtual) front image 550 is obtained as shown in FIG. 9B. The position of the default macular fixation target is corrected so that the macular center 551 is rendered at the center position. Furthermore, the fixation position setting section 231 performs similar corrections on the default peripheral fixation position (second fixation position).

(S3:第2の予備的眼底撮影を開始)
パノラマ撮影の中心位置の設定(黄斑用固視標の位置補正、更には、周辺用固視標の位置補正)が完了すると、処理は第2の予備的眼底撮影に移行する。本例の第2の予備的眼底撮影では、ステップS2で補正された第1の固視位置を適用して前述の第1の制御が実行され、且つ、ステップS2で補正された第2の固視位置を適用して前述の第2の制御が実行される。
(S3: Start second preliminary fundus photography)
When the setting of the central position of panoramic photography (correction of the position of the fixation target for the macula and further correction of the position of the fixation target for the periphery) is completed, the process shifts to second preliminary fundus photography. In the second preliminary fundus photography of this example, the above-described first control is executed by applying the first fixation position corrected in step S2, and the second fixation position corrected in step S2 is applied. Applying the viewing position, the aforementioned second control is executed.

(S4:第1の制御を実行して第1の正面画像を取得)
第1の制御において、主制御部211は、ステップS2で補正された第1の固視位置に対応する第1の固視標を被検眼Eに提示しつつ眼底Efの第1の正面画像を取得するように固視系250及び撮影部270を制御する。
(S4: Execute first control to acquire first front image)
In the first control, the main control unit 211 displays the first front image of the fundus oculi Ef while presenting the first fixation target corresponding to the first fixation position corrected in step S2 to the subject's eye E. The fixation system 250 and the imaging unit 270 are controlled so as to acquire.

本例では、主制御部211は、ステップS2で補正された黄斑用固視標の固視位置に対応するLCD39の表示画面の位置(ピクセル)に可視輝点を表示させる。更に、主制御部211は、眼底Efを撮影して第1の正面画像を取得するように撮影部270を制御する。 In this example, the main control unit 211 displays a visible bright spot at a position (pixel) on the display screen of the LCD 39 corresponding to the fixation position of the macular fixation target corrected in step S2. Furthermore, the main control unit 211 controls the photographing unit 270 to photograph the fundus oculi Ef and acquire the first front image.

(S5:第2の制御を実行して第2の正面画像を取得)
ステップS4における第1の制御の完了後、処理は第2の制御に移行する。第2の制御において、主制御部211は、ステップS2で補正された第2の固視位置に対応する第2の固視標を被検眼Eに提示しつつ眼底Efの第2の正面画像を取得するように固視系250及び撮影部270を制御する。
(S5: Execute second control to acquire second front image)
After completion of the first control in step S4, the process shifts to the second control. In the second control, the main control unit 211 displays the second front image of the fundus oculi Ef while presenting the second fixation target corresponding to the second fixation position corrected in step S2 to the subject's eye E. The fixation system 250 and the imaging unit 270 are controlled so as to acquire.

本例では、主制御部211は、ステップS2で補正された周辺用固視標の固視位置に対応するLCD39の表示画面の位置(ピクセル)に可視輝点を表示させる。更に、主制御部211は、眼底Efを撮影して第2の正面画像を取得するように撮影部270を制御する。 In this example, the main control unit 211 displays a visible bright spot at a position (pixel) on the display screen of the LCD 39 corresponding to the fixation position of the peripheral fixation target corrected in step S2. Furthermore, the main control unit 211 controls the photographing unit 270 to photograph the fundus oculi Ef and acquire a second front image.

なお、本例では、第1の制御の後に第2の制御を実行しているが、これとは逆に、第2の制御の後に第1の制御を実行するようにしてもよい。 In this example, the second control is executed after the first control, but conversely, the first control may be executed after the second control.

(S6:パノラマ撮影のための複数の固視位置を設定)
第1の制御及び第2の制御が完了したら、処理は、パノラマ撮影のための固視位置の設定に移行する。固視位置設定部231は、ステップS4で取得された第1の正面画像と、ステップS5で取得された第2の正面画像とに基づいて、パノラマ撮影のための複数の固視位置を設定する。
(S6: Set multiple fixation positions for panoramic photography)
When the first control and the second control are completed, the process shifts to setting the fixation position for panorama imaging. The fixation position setting unit 231 sets a plurality of fixation positions for panorama imaging based on the first front image acquired in step S4 and the second front image acquired in step S5. .

例えば、図10Aに示す第1の正面画像601と第2の正面画像602とが取得されたとする。第1の正面画像601及び第2の正面画像602は、それぞれ、予備的正面画像500と同様の形状及び寸法を有するものとする。 For example, assume that a first front image 601 and a second front image 602 shown in FIG. 10A are acquired. The first front image 601 and the second front image 602 are each assumed to have the same shape and dimensions as the preliminary front image 500 .

固視位置設定部231は、まず、第1の正面画像601と第2の正面画像602との間の重複領域603を特定する(図10Bを参照)。 The fixation position setting unit 231 first identifies an overlap region 603 between the first front image 601 and the second front image 602 (see FIG. 10B).

次に、固視位置設定部231は、特定された重複領域603の寸法を算出する。本例では、固視位置設定部231は、重複領域603のx方向における長さRx(mm)とy方向における長さRy(mm)とを、重複領域603の寸法として算出するものとする。 Next, the fixation position setting unit 231 calculates the dimensions of the identified overlapping region 603 . In this example, the fixation position setting unit 231 calculates the length Rx (mm) in the x direction and the length Ry (mm) in the y direction of the overlapping region 603 as the dimensions of the overlapping region 603 .

続いて、固視位置設定部231は、算出された重複領域603の寸法Rx(mm)及びRy(mm)に基づいて、パノラマ撮影のための複数の固視位置を設定する。例えば、固視位置設定部231は、ステップS2で補正された周辺用固視標の固視位置を、重複領域603の寸法Rx(mm)及びRy(mm)が既定値に略等しくなるように更に補正する。換言すると、固視位置設定部231は、ステップS2で補正された周辺用固視標(可視輝点)の表示位置(LCD39の表示画面のピクセル位置)を、重複領域603の寸法Rx(mm)及びRy(mm)が既定値に略等しくなるように変更する。 Subsequently, the fixation position setting unit 231 sets a plurality of fixation positions for panorama imaging based on the calculated dimensions Rx (mm) and Ry (mm) of the overlapping region 603 . For example, the fixation position setting unit 231 sets the fixation position of the peripheral fixation target corrected in step S2 so that the dimensions Rx (mm) and Ry (mm) of the overlapping region 603 are substantially equal to the default values. Correct further. In other words, the fixation position setting unit 231 sets the display position (pixel position on the display screen of the LCD 39) of the peripheral fixation target (visible bright point) corrected in step S2 to the dimension Rx (mm) of the overlapping region 603. and Ry (mm) are changed to be approximately equal to the default value.

もし被検眼Eが標準的な眼である場合、重複領域603の寸法Rx(mm)及びRy(mm)は共に既定値に略等しくなる。一方、被検眼Eが標準的な眼でない場合には、重複領域503の寸法Rx及びRyの少なくとも一方が既定値と実質的に異なる。 If the subject's eye E is a standard eye, both the dimensions Rx (mm) and Ry (mm) of the overlapping region 603 are substantially equal to the default values. On the other hand, if the subject's eye E is not a standard eye, at least one of the dimensions Rx and Ry of the overlapping region 503 is substantially different from the default value.

ここで、「寸法が既定値に略等しい」とは、例えば、予め設定された許容誤差(既定値に対する誤差)の範囲に寸法が含まれる場合を意味する。また、「寸法が既定値と実質的に異なる」とは、例えば、予め設定された許容誤差(既定値に対する誤差)の範囲に寸法が含まれない場合を意味する。 Here, "the dimension is approximately equal to the default value" means, for example, that the dimension falls within a preset tolerance (error relative to the default value). Also, "the dimension is substantially different from the default value" means, for example, the case where the dimension is not included in the range of a preset allowable error (error relative to the default value).

このように、重複領域603の寸法Rx(mm)及びRy(mm)と、既定値との差分の原因は、眼軸長、視度等の眼球パラメータの値の相違に起因する固視位置の変位にある。本例では、このような固視位置の変位を補正することで、パノラマ撮影のための周辺固視位置の最適化を図る。 Thus, the cause of the difference between the dimensions Rx (mm) and Ry (mm) of the overlapping region 603 and the default values is the fixation position resulting from the difference in eyeball parameter values such as axial length and diopter. in displacement. In this example, by correcting such a displacement of the fixation position, the peripheral fixation position for panoramic photography is optimized.

例えば、固視位置設定部231は、重複領域603の寸法Rx(mm)及びRy(mm)のそれぞれと、既定値Q(mm)との差分(Q-Rx、Q-Ry)を算出する。また、黄斑用固視標の表示位置と、その左下に位置する周辺用固視標の表示位置との間の変位が、x方向においてDx(ピクセル、ドット)、y方向においてDy(ピクセル、ドット)であるとする(ここで、Dx=Dyであってよい)。そうすると、([Q-Rx]/Dx、[Q-Ry]/Dy)に対応するドット数だけ周辺用固視標の表示位置を移動させればよい。固視位置設定部231は、このような演算を行うことが可能である。 For example, the fixation position setting unit 231 calculates the difference (Q−Rx, Q−Ry) between each of the dimensions Rx (mm) and Ry (mm) of the overlapping region 603 and the default value Q (mm). Also, the displacement between the display position of the macular fixation target and the display position of the peripheral fixation target located at the lower left is Dx (pixel, dot) in the x direction and Dy (pixel, dot) in the y direction. ) (where Dx=Dy may be). Then, the display position of the peripheral fixation target should be moved by the number of dots corresponding to ([Q-Rx]/Dx, [Q-Ry]/Dy). The fixation position setting unit 231 can perform such calculations.

このように、固視位置設定部231は、黄斑撮影用固視位置に対して左下に位置する周辺固視位置を設定することができる。この結果を利用して、他の周辺固視位置を設定することが可能である。 In this way, the fixation position setting unit 231 can set the peripheral fixation position located to the lower left of the macular imaging fixation position. Using this result, it is possible to set other peripheral fixation positions.

例えば、図11に示すように、黄斑700(黄斑撮影用固視位置)の左下に位置する第1の周辺固視位置701が、上記の要領で設定されたとする。第1の周辺固視位置701は、黄斑700から左下方向に距離Tだけ離れた位置に設定されている。この場合、固視位置設定部231は、(1)黄斑700から左上方向に距離Tだけ離れた位置に第2の周辺固視位置702を設定し、(2)黄斑700から右上方向に距離Tだけ離れた位置に第3の周辺固視位置703を設定し、(3)黄斑700から右下方向に距離Tだけ離れた位置に第4の周辺固視位置704を設定することができる。 For example, as shown in FIG. 11, assume that a first peripheral fixation position 701 located at the lower left of the macula 700 (fixation position for macular imaging) is set in the manner described above. A first peripheral fixation position 701 is set at a position separated by a distance T in the lower left direction from the macula 700 . In this case, the fixation position setting unit 231 (1) sets the second peripheral fixation position 702 at a position separated by a distance T in the upper left direction from the macula 700, and (2) sets a distance T in the upper right direction from the macula 700. (3) A fourth peripheral fixation position 704 can be set at a position away from the macula 700 by a distance T in the lower right direction.

なお、複数の周辺固視位置の個数は4つに限定されず、また、複数の周辺固視位置の配列は図11に示す配列に限定されない。一般に、予め設定された複数の周辺固視位置の配列(例えば、デフォルトの配列、ユーザ又は眼科撮影装置1により指定された配列)に応じて、複数の周辺固視位置を設定(補正)することが可能である。 The number of multiple peripheral fixation positions is not limited to four, and the arrangement of the multiple peripheral fixation positions is not limited to the arrangement shown in FIG. In general, setting (correcting) a plurality of peripheral fixation positions according to a preset arrangement of a plurality of peripheral fixation positions (for example, a default arrangement, an arrangement designated by the user or the ophthalmic imaging apparatus 1). is possible.

(S7:パノラマ撮影を実行して複数の3次元画像を取得)
主制御部211は、ステップS6で設定された複数の(周辺)固視位置に対応する複数の固視標を順次に被検眼Eに提示するように固視系250を制御し、且つ、これらの固視標のそれぞれが被検眼Eに提示されているときに眼底Efの3次元画像を取得するようにOCT画像取得部260を制御する。
(S7: Acquire a plurality of 3D images by executing panorama shooting)
The main control unit 211 controls the fixation system 250 so as to sequentially present to the subject's eye E a plurality of fixation targets corresponding to the plurality of (peripheral) fixation positions set in step S6. are presented to the eye E to be examined, the OCT image acquisition unit 260 is controlled to acquire a three-dimensional image of the fundus oculi Ef.

一例として、図11に示す4つの周辺固視位置701~704がパノラマ撮影に適用される場合について説明する。 As an example, a case where the four peripheral fixation positions 701 to 704 shown in FIG. 11 are applied to panoramic photography will be described.

まず、主制御部211は、第1の周辺固視位置701に対応する第1の周辺用固視標を提示するように固視系250を制御し、更に、第1の周辺用固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第1の周辺スキャン範囲711に対応する第1の周辺3次元画像が取得される。第1の周辺3次元画像(第1の周辺スキャン範囲)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。 First, the main control unit 211 controls the fixation system 250 to present the first peripheral fixation target corresponding to the first peripheral fixation position 701, and furthermore, controls the first peripheral fixation target. is presented, the OCT image acquisition unit 260 is controlled to perform a three-dimensional scan. Thereby, a first peripheral three-dimensional image corresponding to the first peripheral scan range 711 shown in FIG. 11 is acquired. The dimensions of the first peripheral three-dimensional image (first peripheral scan range) are W (mm) in both the x-direction length and the y-direction length.

次に、主制御部211は、第2の周辺固視位置702に対応する第2の周辺用固視標を提示するように固視系250を制御し、更に、第2の周辺用固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第2の周辺スキャン範囲712に対応する第2の周辺3次元画像が取得される。第2の周辺3次元画像(第2の周辺スキャン範囲)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。 Next, the main control unit 211 controls the fixation system 250 to present a second peripheral fixation target corresponding to the second peripheral fixation position 702, and furthermore, controls the second peripheral fixation target. The OCT image acquisition unit 260 is controlled to perform a three-dimensional scan while the target is presented. Thereby, a second peripheral three-dimensional image corresponding to the second peripheral scan range 712 shown in FIG. 11 is acquired. The dimensions of the second peripheral three-dimensional image (second peripheral scan range) are W (mm) in both the x-direction length and the y-direction length.

続いて、主制御部211は、第3の周辺固視位置703に対応する第3の周辺用固視標を提示するように固視系250を制御し、更に、第3の周辺用固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第3の周辺スキャン範囲713に対応する第3の周辺3次元画像が取得される。第3の周辺3次元画像(第3の周辺スキャン範囲)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。 Subsequently, the main control unit 211 controls the fixation system 250 to present a third peripheral fixation target corresponding to the third peripheral fixation position 703, and furthermore, controls the third peripheral fixation target. The OCT image acquisition unit 260 is controlled to perform a three-dimensional scan while the target is presented. Thereby, a third peripheral three-dimensional image corresponding to the third peripheral scan range 713 shown in FIG. 11 is acquired. The dimensions of the third peripheral three-dimensional image (third peripheral scan range) are W (mm) in both the x-direction length and the y-direction length.

最後に、主制御部211は、第4の周辺固視位置704に対応する第4の周辺用固視標を提示するように固視系250を制御し、更に、第4の周辺用固視標が提示された状態で3次元スキャンを実行するようにOCT画像取得部260を制御する。それにより、図11に示す第4の周辺スキャン範囲714に対応する第4の周辺3次元画像が取得される。第4の周辺3次元画像(第4の周辺スキャン範囲)の寸法は、x方向の長さ及びy方向の長さが共にW(mm)である。 Finally, the main control unit 211 controls the fixation system 250 to present a fourth peripheral fixation target corresponding to the fourth peripheral fixation position 704, and furthermore, controls the fourth peripheral fixation target. The OCT image acquisition unit 260 is controlled to perform a three-dimensional scan while the target is presented. Thereby, a fourth peripheral three-dimensional image corresponding to the fourth peripheral scan range 714 shown in FIG. 11 is obtained. The dimensions of the fourth peripheral three-dimensional image (fourth peripheral scan range) are W (mm) in both the x-direction length and the y-direction length.

また、互いに隣接する2つの周辺3次元画像は、これらを合成するために好適な幅の重複領域(のりしろ)を持つ。例えば、図11に示す例では、第1の周辺スキャン範囲と第2の周辺スキャン範囲とは幅ΔWの重複領域を有し、第2の周辺スキャン範囲と第3の周辺スキャン範囲とは幅ΔWの重複領域を有し、第3の周辺スキャン範囲と第4の周辺スキャン範囲とは幅ΔWの重複領域を有し、第4の周辺スキャン範囲と第1の周辺スキャン範囲とは幅ΔWの重複領域を有する。 Also, two surrounding three-dimensional images that are adjacent to each other have an overlapping area (margin) with a suitable width for synthesizing them. For example, in the example shown in FIG. 11, the first peripheral scan range and the second peripheral scan range have an overlapping region with a width ΔW, and the second peripheral scan range and the third peripheral scan range have a width ΔW , the third peripheral scan range and the fourth peripheral scan range have an overlap region of width ΔW, and the fourth peripheral scan range and the first peripheral scan range have an overlap of width ΔW have an area.

(S8:合成画像を形成)
合成処理部2321は、ステップS7で取得された複数の3次元画像の合成画像(モザイク画像)を形成する。一例として、図11に示す例では、合成処理部2321は、第1~第4の周辺3次元画像を合成して単一の3次元画像を形成する。なお、ステップS7で取得された複数の3次元画像のうちの任意の2以上の3次元画像を合成することも可能である。
(S8: Form composite image)
The synthesizing unit 2321 forms a synthetic image (mosaic image) of the plurality of three-dimensional images acquired in step S7. As an example, in the example shown in FIG. 11, the synthesizing unit 2321 synthesizes the first to fourth peripheral three-dimensional images to form a single three-dimensional image. It is also possible to synthesize arbitrary two or more three-dimensional images among the plurality of three-dimensional images acquired in step S7.

複数の3次元画像を合成する処理は、例えば、従来の画像合成技術と同様に、画像相関等を用いた重複領域同士のマッチングと、このマッチングの結果を利用した周辺3次元画像同士の位置決めと、これら周辺3次元画像との合成処理とを含む。 The process of synthesizing a plurality of three-dimensional images includes, for example, similar to conventional image synthesizing techniques, matching between overlapping regions using image correlation, etc., and positioning of surrounding three-dimensional images using the result of this matching. , synthesis processing with these peripheral three-dimensional images.

(S9:合成画像を表示・保存)
主制御部211は、ステップS8で形成された合成画像を表示部241に表示させることができる。また、主制御部211は、記憶部212に合成画像を保存することや、外部装置に合成画像を送信するための制御を行うことや、記録媒体に合成画像を記録するための制御を行うことが可能である。
(S9: display/save composite image)
The main control unit 211 can cause the display unit 241 to display the composite image formed in step S8. In addition, the main control unit 211 stores the composite image in the storage unit 212, controls transmission of the composite image to an external device, and controls recording of the composite image on a recording medium. is possible.

また、主制御部211は、ステップS7で形成された複数の3次元画像の一部又は全部を表示部241に表示させることが可能である。以上で、本例に係る処理は終了となる。 Also, the main control unit 211 can cause the display unit 241 to display part or all of the plurality of three-dimensional images formed in step S7. With this, the processing according to this example ends.

〈変形例〉
以上に説明した動作例では、第1の予備的眼底撮影を行った後に、第1の制御と第2の制御とを含む第2の予備的眼底撮影を行っている。しかし、第2の予備的眼底撮影の第1の制御を省略することが可能である。
<Modification>
In the operation example described above, after performing the first preliminary fundus imaging, the second preliminary fundus imaging including the first control and the second control is performed. However, it is possible to omit the first control of the second preliminary fundus photography.

例えば、第1の予備的眼底撮影によって取得された予備的正面画像と前述した偏位503とを、第1の制御で取得される第1の正面画像の代わりに用いることが可能である。すなわち、第1の予備的眼底撮影と、第2の予備的眼底撮影の第1の制御では、共通の第1の固視位置が適用されるため、第1の予備的眼底撮影で得られた予備的正面画像の位置を変位503に基づきシフトさせた正面画像を、第1の制御で得られる第1の正面画像の代わりに用いることができる。 For example, the preliminary front image obtained by the first preliminary fundus photography and the displacement 503 described above can be used instead of the first front image obtained by the first control. That is, in the first control of the first preliminary fundus photography and the second preliminary fundus photography, since the common first fixation position is applied, A front image obtained by shifting the position of the preliminary front image based on the displacement 503 can be used instead of the first front image obtained by the first control.

〈作用・効果〉
本実施形態に係る眼科撮影装置1の作用及び効果について説明する。
〈Action and effect〉
The operation and effects of the ophthalmologic imaging apparatus 1 according to this embodiment will be described.

本実施形態に係る眼科撮影装置(1)は、固視系(250)と、撮影部(270)と、制御部(主制御部211)と、固視位置設定部(231)と、OCT画像取得部(260)と、画像処理部(232)とを含む。 The ophthalmologic imaging apparatus (1) according to this embodiment includes a fixation system (250), an imaging unit (270), a control unit (main control unit 211), a fixation position setting unit (231), and an OCT image. It includes an acquisition unit (260) and an image processing unit (232).

固視系(250)は、被検眼(E)に固視標を提示する。撮影部(270)は、被検眼(E)の眼底(Ef)を撮影する。 A fixation system (250) presents a fixation target to the subject's eye (E). A photographing unit (270) photographs the fundus (Ef) of the eye (E) to be examined.

制御部(211)は、所定の固視位置に対応する固視標を被検眼(E)に提示しつつ眼底(Ef)の正面画像を取得するように固視系(250)及び撮影部(270)を制御する。この制御を眼底撮影制御と呼ぶ。 A control unit (211) controls a fixation system (250) and an imaging unit ( 270). This control is called fundus imaging control.

固視位置設定部(231)は、眼底撮影制御により取得された正面画像に基づいて、パノラマ撮影のための1以上の固視位置(少なくとも第1の周辺固視位置701)を設定する。なお、固視位置設定部(231)は、パノラマ撮影のための2以上の固視位置(例えば、第1の周辺固視位置701と、第2~第4の周辺固視位置702~704のいずれか1以上とを含む、2以上の周辺固視位置)を設定することも可能である。また、パノラマ撮影のための1以上の固視位置のうちの少なくとも1つをユーザが設定又は補正できるように構成してもよい。 A fixation position setting unit (231) sets one or more fixation positions (at least the first peripheral fixation position 701) for panorama imaging based on the front image acquired by the fundus imaging control. Note that the fixation position setting unit (231) sets two or more fixation positions for panoramic photography (for example, the first peripheral fixation position 701 and the second to fourth peripheral fixation positions 702 to 704). It is also possible to set two or more peripheral fixation positions, including any one or more. Further, the user may set or correct at least one of the one or more fixation positions for panoramic photography.

また、固視位置設定部(231)は、眼底撮影制御により取得された正面画像と、眼底撮影制御における撮影領域(眼底撮影領域310)とパノラマ撮影のためのOCT制御における3次元スキャン領域(320)との間の位置関係(位置関係情報)とに基づいて、パノラマ撮影のための1以上の固視位置を設定するように構成されていてよい。 In addition, the fixation position setting unit (231) includes a front image acquired by fundus imaging control, an imaging area (fundus imaging area 310) in fundus imaging control, and a three-dimensional scan area (320) in OCT control for panoramic imaging. ) and the positional relationship (positional relationship information), one or more fixation positions for panorama imaging may be set.

OCT画像取得部(260)は、眼底(Ef)に光コヒーレンストモグラフィ(OCT)を適用して画像を取得する。 An OCT image acquisition unit (260) acquires an image by applying optical coherence tomography (OCT) to the fundus (Ef).

画像処理部(232)は、OCT画像取得部(260)により取得された画像を処理する。画像処理部(232)は、合成処理部(2321)を含む。 The image processing section (232) processes the image acquired by the OCT image acquisition section (260). The image processing section (232) includes a composition processing section (2321).

制御部(211)は、OCT制御(パノラマ撮影)として、固視位置設定部(231)により設定された1以上の固視位置を含む2以上の固視位置(第1~第4の周辺固視位置701~704)に対応する2以上の固視標(第1~第4の周辺用固視標)を順次に被検眼(E)に提示するように固視系(250)を制御し、且つ、2以上の固視標(第1~第4の周辺用固視標)のそれぞれが被検眼(E)に提示されているときに眼底(Ef)の3次元画像を取得するようにOCT画像取得部(260)を制御する。 As OCT control (panoramic imaging), the control unit (211) sets two or more fixation positions (first to fourth peripheral fixations) including one or more fixation positions set by the fixation position setting unit (231). A fixation system (250) is controlled so as to sequentially present two or more fixation targets (first to fourth peripheral fixation targets) corresponding to visual positions 701 to 704) to the subject's eye (E). and acquiring a three-dimensional image of the fundus (Ef) when each of the two or more fixation targets (first to fourth peripheral fixation targets) is presented to the eye (E) to be examined. It controls the OCT image acquisition unit (260).

合成処理部(2321)は、OCT制御により取得された2以上の固視位置(第1~第4の周辺固視位置701~704)に対応する2以上の3次元画像(第1~第4の周辺3次元画像)の合成画像(モザイク画像)を形成する。 The synthesizing unit (2321) synthesizes two or more three-dimensional images (first to fourth 3D image) to form a composite image (mosaic image).

このような実施形態によれば、眼底撮影制御を実際に行うことでパノラマ撮影のための複数の固視位置を設定することができる。それにより、眼軸長等の眼球サイズ情報や視度等の眼球特性情報などの個人差にかかわらず、OCTを用いてモザイク画像を取得するための複数の固視位置の設定を好適に行うことが可能となる。 According to such an embodiment, a plurality of fixation positions for panorama imaging can be set by actually performing fundus imaging control. Thereby, it is possible to preferably set a plurality of fixation positions for acquiring a mosaic image using OCT, regardless of individual differences in eyeball size information such as eye axial length and eyeball characteristic information such as diopter. becomes possible.

眼底撮影制御において、制御部(211)は、第1の制御(第2の予備的眼底撮影における第1の制御)と、第2の制御(第2の予備的眼底撮影における第2の制御)とを実行してもよい。 In the fundus imaging control, the control unit (211) performs first control (first control in the second preliminary fundus imaging) and second control (second control in the second preliminary fundus imaging). and may be executed.

第1の制御として、制御部(211)は、第1の固視位置に対応する第1の固視標を被検眼(E)に提示しつつ眼底(Ef)の第1の正面画像(601)を取得するように固視系(250)及び撮影部(270)を制御する。 As a first control, the control unit (211) presents the first fixation target corresponding to the first fixation position to the eye (E) to be examined, and displays the first front image (601 ) is obtained by controlling the fixation system (250) and the imaging unit (270).

第2の制御として、制御部(211)は、第2の固視位置に対応する第2の固視標を被検眼(E)に提示しつつ眼底(Ef)の第2の正面画像(602)を取得するように固視系(250)及び撮影部(270)を制御する。 As a second control, the control unit (211) displays a second front image (602) of the fundus (Ef) while presenting the second fixation target corresponding to the second fixation position to the eye (E) ) is obtained by controlling the fixation system (250) and the imaging unit (270).

第1の制御及び第2の制御が実行された場合、固視位置設定部(231)は、第1の正面画像(601)と第2の正面画像(602)とに基づいて、パノラマ撮影のための1以上の固視位置(少なくとも第1の周辺固視位置701)を設定することができる。 When the first control and the second control are executed, the fixation position setting unit (231) performs panorama imaging based on the first front image (601) and the second front image (602). One or more fixation positions (at least the first peripheral fixation position 701) can be set for.

このような構成によれば、異なる2つ(以上)の固視位置に対応する2つ(以上)の正面画像を実際に取得し、これら正面画像を利用してパノラマ撮影のための複数の固視位置を設定することができる。それにより、例えば撮影部(270)が広角撮影や超広角撮影を行えない場合であっても、眼底の広い範囲にわたるパノラマ撮影のための複数の固視位置を、眼球サイズや眼球特性の個人差にかかわらずに設定することが可能になる。 According to such a configuration, two (or more) frontal images corresponding to two (or more) different fixation positions are actually acquired, and these frontal images are used to obtain a plurality of fixed images for panorama imaging. View position can be set. As a result, for example, even if the imaging unit (270) cannot perform wide-angle imaging or ultra-wide-angle imaging, multiple fixation positions for panorama imaging over a wide range of the fundus can be adjusted to individual differences in eyeball size and eyeball characteristics. can be set regardless of

なお、撮影部(270)が広角撮影(超広角撮影)を実行可能である場合には、例えば、制御部(211)は、眼底撮影制御として、単一の所定の固視位置に対応する固視標を被検眼(E)に提示しつつ広角撮影を実行して眼底(Ef)の広角正面画像を取得するように固視系(250)及び撮影部(270)を制御することができる。固視位置設定部(231)は、この広角正面画像に基づいて、パノラマ撮影のための1以上の固視位置を設定することが可能である。 When the imaging unit (270) is capable of wide-angle imaging (ultra-wide-angle imaging), for example, the control unit (211) controls a fixed position corresponding to a single predetermined fixation position as fundus imaging control. The fixation system (250) and imaging unit (270) can be controlled so as to acquire a wide-angle frontal image of the fundus (Ef) by executing wide-angle imaging while presenting the target to the eye (E). A fixation position setting unit (231) can set one or more fixation positions for panoramic photography based on this wide-angle front image.

第1の制御及び第2の制御が実行された場合において、固視位置設定部(231)は、第1の正面画像(601)と第2の正面画像(602)との間の重複領域(603)を特定し、この重複領域(603)に基づいてパノラマ撮影のための1以上の固視位置を設定することができる。 When the first control and the second control are executed, the fixation position setting unit (231) sets the overlap region ( 603) and set one or more fixation positions for panoramic imaging based on this overlap region (603).

このような構成によれば、このような構成によれば、第1の正面画像と第2の正面画像との重複状態に基づいて、パノラマ撮影のために好適な固視位置を設定することが可能である。 According to such a configuration, according to such a configuration, it is possible to set a fixation position suitable for panoramic photography based on the overlapping state of the first front image and the second front image. It is possible.

第1の正面画像(601)と第2の正面画像(602)との間の重複領域(603)が特定された場合において、固視位置設定部(231)は、重複領域(603)の寸法を算出し、この寸法に基づいてパノラマ撮影のための1以上の固視位置を設定することができる。 When the overlap region (603) between the first front image (601) and the second front image (602) is identified, the fixation position setting unit (231) determines the size of the overlap region (603) can be calculated, and one or more fixation positions for panoramic photography can be set based on this dimension.

このような構成によれば、第1の正面画像と第2の正面画像との重複の程度に基づいて、パノラマ撮影のために好適な固視位置を設定することが可能である。 According to such a configuration, it is possible to set a fixation position suitable for panoramic photography based on the degree of overlap between the first front image and the second front image.

眼底撮影制御において第1の制御及び第2の制御が実行された場合、固視位置設定部(231)は、重複領域(603)の寸法が既定値に略等しくなるようにパノラマ撮影のための1以上の固視位置を設定することができる。この既定値は、例えば、被検眼(E)が標準的な眼である場合に得られるべき重複領域の寸法(寸法の値の許容範囲)を示す。 When the first control and the second control are executed in the fundus imaging control, the fixation position setting unit (231) adjusts the size of the overlapping region (603) for panorama imaging so that it is substantially equal to the default value. One or more fixation positions can be set. This default value indicates, for example, the size of the overlap region (allowable range of size values) that should be obtained when the eye to be examined (E) is a standard eye.

このような構成によれば、パノラマ撮影で得られる複数の3次元画像(第1~第4の周辺3次元画像)がパノラマ合成に好適な重複領域を有するように、パノラマ撮影のための固視位置を設定することが可能である。 According to such a configuration, a plurality of three-dimensional images (first to fourth peripheral three-dimensional images) obtained by panoramic photography have overlapping regions suitable for panoramic synthesis. It is possible to set the position.

眼底撮影制御において第1の制御及び第2の制御が実行される場合、第1の固視位置は、眼底の所定部位を中心とする正面画像を取得するための既定の固視位置であってよい。更に、第2の固視位置は、標準的な眼の眼底において当該所定部位から所定方向に所定距離だけ離れた位置を中心とする正面画像を取得するための既定の固視位置であってよい。 When the first control and the second control are executed in the fundus imaging control, the first fixation position is a default fixation position for acquiring a front image centering on a predetermined portion of the fundus. good. Further, the second fixation position may be a default fixation position for acquiring a front image centered at a position a predetermined distance away from the predetermined site in a predetermined direction in the fundus of a standard eye. .

このような構成によれば、標準的な眼に対するパノラマ撮影を好適に行えるように予め設定された第1の固視位置及び第2の固視位置を適用して、被検眼(E)のパノラマ撮影のための固視位置を設定することが可能である。 According to such a configuration, by applying the first fixation position and the second fixation position that are preset so as to be able to preferably perform the panoramic photographing of the standard eye, the panorama image of the subject's eye (E) is obtained. It is possible to set the fixation position for imaging.

第1の制御及び第2の制御の前に、制御部(211)は、第1の固視位置に対応する第1の固視標を被検眼(E)に提示しつつ眼底(Ef)の予備的正面画像(500)を取得するように固視系(250)及び撮影部(270)を制御する予備的制御(第1の予備的眼底撮影)を実行してもよい。 Before the first control and the second control, the control unit (211) presents the first fixation target corresponding to the first fixation position to the eye (E), and Preliminary control (first preliminary fundus photography) may be performed to control the fixation system (250) and imaging unit (270) to acquire a preliminary frontal image (500).

予備的制御が実行された場合、画像処理部(232)は、予備的正面画像(500)の中心位置(501)に対する眼底(Ef)の所定部位の画像の偏位(503)を算出することができる。更に、固視位置設定部(231)は、この偏位(503)に基づいて、第1の固視位置及び第2の固視位置のそれぞれを補正することができる。加えて、制御部(211)は、補正された第1の固視位置を適用して第1の制御を実行することができ、且つ、補正された第2の固視位置を適用して第2の制御を実行することができる。 When the preliminary control is executed, the image processing unit (232) calculates the deviation (503) of the image of the predetermined site of the fundus oculi (Ef) with respect to the central position (501) of the preliminary front image (500). can be done. Furthermore, the fixation position setting unit (231) can correct the first fixation position and the second fixation position based on this deviation (503). In addition, the control unit (211) can apply the corrected first fixation position to perform the first control, and apply the corrected second fixation position to perform the second control. 2 controls can be implemented.

このような構成によれば、第1の予備的眼底撮影で得られた予備的正面画像を利用してそれぞれ補正された第1の固視位置と第2の固視位置とを適用して第2の予備的眼底撮影(第1の制御及び第2の制御)を実行することができる。それにより、被検眼の眼球パラメータの個人差にかかわらず、眼底の所定部位に第1の固視位置を対応させることが可能となり、更に、眼底の所定部位から所定方向に所定距離だけ離れた位置に第2の固視位置を対応させることが可能となる。 According to such a configuration, the first fixation position and the second fixation position corrected by using the preliminary front image obtained by the first preliminary fundus imaging are applied to perform the second fixation position. Two preliminary fundus shots (first control and second control) can be performed. As a result, regardless of individual differences in ocular parameters of the subject's eye, it is possible to make the first fixation position correspond to a predetermined portion of the fundus, and furthermore, a position at a predetermined distance away from the predetermined portion of the fundus in a predetermined direction. can be made to correspond to the second fixation position.

眼底撮影制御において第1の制御及び第2の制御が実行された場合、固視位置設定部(231)は、第1の制御で取得された第1の正面画像(601)と第2の制御で取得された第2の正面画像(602)とに基づいて第1の固視位置に対する第2の固視位置の偏位を補正することによって、パノラマ撮影のための1以上の固視位置を設定することができる。 When the first control and the second control are executed in the fundus imaging control, the fixation position setting unit (231) sets the first front image (601) acquired in the first control and the second control one or more fixation positions for panoramic imaging by correcting the deviation of the second fixation position relative to the first fixation position based on the second frontal image (602) acquired at can be set.

このような構成によれば、第1の固視位置に対する第2の固視位置の相対位置を好適に補正することが可能である。 With such a configuration, it is possible to suitably correct the relative position of the second fixation position with respect to the first fixation position.

眼底撮影制御において第1の制御及び第2の制御が実行される場合、第1の固視位置は、黄斑を中心とする正面画像を取得するための既定の固視位置(黄斑撮影用固視位置)であってよく、第2の固視位置は、標準的な眼の眼底において黄斑から所定方向に所定距離だけ離れた位置を中心とする3次元画像を取得するための既定の固視位置(周辺固視位置)であってよい。更に、固視位置設定部(231)は、第1の正面画像(601)と第2の正面画像(602)とに基づいて第1の固視位置(黄斑撮影用固視位置)に対する第2の固視位置(周辺固視位置)の偏位を補正することにより、眼底(Ef)において黄斑から第1の方向に第1の距離だけ離れた位置に対応する第1の固視位置(黄斑から左下方向に距離Tだけ離れた位置に対応する第1の周辺固視位置701)を設定し、第1の方向(左下方向)とは反対の第2の方向(右上方向)に黄斑から第1の距離(距離T)だけ離れた位置に対応する第2の固視位置(第3の周辺固視位置703)を設定し、第1の方向(左下方向)に直交する第3の方向(左上方向)に黄斑から第1の距離(距離T)だけ離れた位置に第3の固視位置(第2の周辺固視位置702)を設定し、第3の方向(左上方向)とは反対の第4の方向(右下方向)に黄斑から第1の距離(距離T)だけ離れた位置に対応する第4の固視位置(第4の周辺固視位置704)を設定してもよい。加えて、制御部(211)は、第1、第2、第3及び第4の固視位置を含む複数の固視位置(第1~第4の周辺固視位置701~704)に基づいてOCT制御(パノラマ撮影)を実行してもよい。 When the first control and the second control are executed in the fundus imaging control, the first fixation position is the default fixation position for acquiring a front image centered on the macula (fixation for macular imaging). position), and the second fixation position is the default fixation position for acquiring a three-dimensional image centered at a predetermined distance in a predetermined direction from the macula at the fundus of a standard eye. (peripheral fixation position). Furthermore, the fixation position setting unit (231) sets the second fixation position (fixation position for macular imaging) for the first fixation position (macula imaging fixation position) based on the first front image (601) and the second front image (602). By correcting the deviation of the fixation position (peripheral fixation position) of the eye fundus (Ef), the first fixation position (macula A first peripheral fixation position 701) corresponding to a position separated by a distance T in the lower left direction from the macula is set, and a second direction (upper right direction) opposite to the first direction (lower left direction) is set from the macula. A second fixation position (third peripheral fixation position 703) corresponding to a position separated by a distance of 1 (distance T) is set, and a third direction ( A third fixation position (second peripheral fixation position 702) is set at a position separated from the macula by a first distance (distance T) in the upper left direction), and is opposite to the third direction (upper left direction). A fourth fixation position (fourth peripheral fixation position 704) corresponding to a position separated from the macula by the first distance (distance T) in the fourth direction (lower right direction) may be set. . In addition, the control unit (211) controls the display based on a plurality of fixation positions (first to fourth peripheral fixation positions 701-704) including the first, second, third and fourth fixation positions. OCT control (panoramic imaging) may be executed.

このような構成によれば、パノラマ撮影のための複数の固視位置の設定を自動で且つ好適に行うことが可能である。 According to such a configuration, it is possible to automatically and suitably set a plurality of fixation positions for panoramic photography.

本実施形態において、制御部(211)は、OCT制御(パノラマ撮影)において、眼底(Ef)の3次元血管造影画像を取得するようにOCT画像取得部(260)を制御してもよい。 In this embodiment, the control unit (211) may control the OCT image acquisition unit (260) so as to acquire a three-dimensional angiographic image of the fundus (Ef) in OCT control (panoramic imaging).

このような構成によれば、眼底の広い範囲にわたる3次元血管造影画像(モザイク画像)を好適に取得することが可能である。 With such a configuration, it is possible to suitably acquire a three-dimensional angiographic image (mosaic image) over a wide range of the fundus.

本実施形態に係る眼科撮影装置の制御方法は、被検眼の眼底に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置を制御する方法であって、撮影ステップと、固視位置設定ステップと、OCTステップと、合成ステップとを含む。 A control method for an ophthalmic imaging apparatus according to the present embodiment is a method for controlling an ophthalmic imaging apparatus capable of applying imaging and optical coherence tomography (OCT) to the fundus of an eye to be inspected, comprising an imaging step; , a fixation position setting step, an OCT step, and a synthesis step.

撮影ステップは、所定の固視位置に対応する固視標を被検眼(E)に提示しつつ眼底(Ef)に撮影を適用して正面画像を取得する。撮影ステップは、本実施形態において説明された第2の予備的眼底撮影に関する任意の処理を含んでいてもよい。 The imaging step presents a fixation target corresponding to a predetermined fixation position to the eye to be examined (E) and applies imaging to the fundus oculi (Ef) to acquire a front image. The imaging step may include any processing related to the second preliminary fundus imaging described in this embodiment.

固視位置設定ステップは、撮影ステップで取得された正面画像に基づいて、パノラマ撮影のための1以上の固視位置を設定する。固視位置設定ステップは、本実施形態において説明された固視位置設定に関する任意の処理を含んでいてもよい。 The fixation position setting step sets one or more fixation positions for panorama imaging based on the front image acquired in the imaging step. The fixation position setting step may include any processing related to fixation position setting described in this embodiment.

OCTステップは、固視位置設定ステップで設定された1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に被検眼(E)に提示させ、且つ、これら2以上の固視標のそれぞれが被検眼(E)に提示されているときに眼底(Ef)の3次元画像を取得するようにOCTを実行させる。OCTステップは、本実施形態において説明されたパノラマ撮影に関する任意の処理を含んでいてもよい。 The OCT step sequentially presents to the subject's eye (E) two or more fixation targets corresponding to two or more fixation positions including one or more fixation positions set in the fixation position setting step, and OCT is performed to acquire a three-dimensional image of the fundus (Ef) when each of these two or more fixation targets is presented to the eye (E) to be examined. The OCT step may include any processing related to panoramic imaging described in this embodiment.

合成ステップは、OCTステップで取得された2以上の固視位置に対応する2以上の3次元画像の合成画像(モザイク画像)を形成する。合成ステップは、本実施形態において説明された画像合成に関する任意の処理を含んでいてもよい。 The synthesizing step forms a synthetic image (mosaic image) of two or more three-dimensional images corresponding to two or more fixation positions acquired in the OCT step. The compositing step may include any processing related to image compositing described in this embodiment.

このような制御方法を本実施形態に係る眼科撮影装置に実行させるプログラムを作成することが可能である。また、このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。 It is possible to create a program that causes the ophthalmologic imaging apparatus according to this embodiment to execute such a control method. Also, it is possible to create a computer-readable non-transitory recording medium recording such a program. This non-transitory recording medium may be in any form, examples of which include magnetic disks, optical disks, magneto-optical disks, and semiconductor memories.

以上に説明した実施形態は本発明の一例に過ぎない。本発明を実施しようとする者は、本発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。 The embodiment described above is merely an example of the present invention. A person who intends to implement the present invention can arbitrarily make modifications (omission, substitution, addition, etc.) within the scope of the gist of the present invention.

1 眼科撮影装置
210 制御部
211 主制御部
230 データ処理部
231 固視位置設定部
232 画像処理部
2321 合成処理部
250 固視系
260 OCT画像取得部
270 撮影部

1 ophthalmic imaging apparatus 210 control unit 211 main control unit 230 data processing unit 231 fixation position setting unit 232 image processing unit 2321 synthesis processing unit 250 fixation system 260 OCT image acquisition unit 270 imaging unit

Claims (5)

被検眼に固視標を提示する固視系と、
前記被検眼の眼底を撮影する撮影部と、
所定の固視位置に対応する固視標を前記被検眼に提示しつつ前記眼底の正面画像を取得するように前記固視系及び前記撮影部を制御する眼底撮影制御を実行する制御部と、
前記眼底撮影制御により取得された前記正面画像に基づいて、1以上の固視位置を設定する固視位置設定部と、
前記眼底に光コヒーレンストモグラフィ(OCT)を適用して画像を取得するOCT画像取得部と、
前記OCT画像取得部により取得された画像を処理する画像処理部と
を含み、
前記制御部は、前記固視位置設定部により設定された前記1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に前記被検眼に提示するように前記固視系を制御し、且つ、前記2以上の固視標のそれぞれが前記被検眼に提示されているときに前記眼底の3次元画像を取得するように前記OCT画像取得部を制御するOCT制御を実行し、
前記画像処理部は、前記OCT制御により取得された前記2以上の固視位置に対応する2以上の3次元画像の合成画像を形成する合成処理部を含み、
前記固視位置設定部は、前記眼底撮影制御により取得された前記正面画像と、前記眼底撮影制御における撮影領域と前記OCT制御における3次元スキャン領域との間の位置関係とに基づいて、前記1以上の固視位置の設定を実行し、
前記制御部は、前記OCT制御よりも前に実行される前記眼底撮影制御において第1の制御及び第2の制御の双方を実行し、前記第1の制御は、第1の固視位置に対応する第1の固視標を前記被検眼に提示しつつ前記眼底の第1の正面画像を取得するように前記固視系及び前記撮影部を制御し、前記第2の制御は、第2の固視位置に対応する第2の固視標を前記被検眼に提示しつつ前記眼底の第2の正面画像を取得するように前記固視系及び前記撮影部を制御し、
前記固視位置設定部は、前記第1の正面画像と前記第2の正面画像とに基づいて、前記1以上の固視位置の設定を実行する
ことを特徴とする眼科撮影装置。
a fixation system that presents a fixation target to an eye to be examined;
a photographing unit for photographing the fundus of the eye to be examined;
a control unit that executes fundus imaging control that controls the fixation system and the imaging unit so as to acquire a front image of the fundus while presenting a fixation target corresponding to a predetermined fixation position to the eye;
a fixation position setting unit that sets one or more fixation positions based on the front image acquired by the fundus imaging control;
an OCT image acquisition unit that acquires an image by applying optical coherence tomography (OCT) to the fundus;
an image processing unit that processes the image acquired by the OCT image acquisition unit;
The control unit sequentially presents to the eye to be examined two or more fixation targets corresponding to two or more fixation positions including the one or more fixation positions set by the fixation position setting unit. OCT for controlling the fixation system and for controlling the OCT image acquisition unit to acquire a three-dimensional image of the fundus when each of the two or more fixation targets is presented to the eye to be examined. run the control,
The image processing unit includes a synthesis processing unit that forms a synthesized image of two or more three-dimensional images corresponding to the two or more fixation positions acquired by the OCT control,
The fixation position setting unit performs the 1 Execute the above fixation position setting,
The control unit executes both first control and second control in the fundus imaging control executed before the OCT control, and the first control corresponds to a first fixation position. controlling the fixation system and the photographing unit so as to acquire a first front image of the fundus while presenting a first fixation target to the eye to be examined; controlling the fixation system and the imaging unit to acquire a second front image of the fundus while presenting a second fixation target corresponding to the fixation position to the eye to be examined;
The ophthalmic imaging apparatus, wherein the fixation position setting unit sets the one or more fixation positions based on the first front image and the second front image.
前記制御部は、前記眼底撮影制御よりも前に実行される予備的制御においてデフォルトの固視標を前記被検眼に提示しつつ前記眼底の予備的正面画像を取得するように前記固視系及び前記撮影部を制御し、
前記固視位置設定部は、前記予備的正面画像に基づいて前記第1の固視位置及び前記第2の固視位置を設定する
ことを特徴とする請求項1に記載の眼科撮影装置。
In a preliminary control executed prior to the fundus imaging control, the control unit presents a default fixation target to the eye to be inspected and acquires a preliminary front image of the fundus. controlling the imaging unit;
The ophthalmologic imaging apparatus according to claim 1, wherein the fixation position setting unit sets the first fixation position and the second fixation position based on the preliminary front image.
被検眼の眼底に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置を制御する方法であって、
所定の固視位置に対応する固視標を前記被検眼に提示しつつ前記眼底に撮影を適用して正面画像を取得する撮影ステップと、
前記撮影ステップで取得された前記正面画像に基づいて、1以上の固視位置を設定する固視位置設定ステップと、
前記固視位置設定ステップで設定された前記1以上の固視位置を含む2以上の固視位置に対応する2以上の固視標を順次に前記被検眼に提示し、且つ、前記2以上の固視標のそれぞれが前記被検眼に提示されているときに前記眼底にOCTを適用して3次元画像を取得するOCTステップと、
前記OCTステップで取得された前記2以上の固視位置に対応する2以上の3次元画像の合成画像を形成する合成ステップと
を含み、
前記固視位置設定ステップは、前記撮影ステップで取得された前記正面画像と、前記撮影ステップにおける撮影領域と前記OCTステップにおける3次元スキャン領域との間の位置関係とに基づいて、前記1以上の固視位置の設定を実行し、
前記撮影ステップは、前記OCT制御よりも前に実行され、第1の固視位置に対応する第1の固視標を前記被検眼に提示しつつ前記眼底の第1の正面画像を取得する第1の撮影ステップと、第2の固視位置に対応する第2の固視標を前記被検眼に提示しつつ前記眼底の第2の正面画像を取得する第2の撮影ステップとを含み、
前記固視位置設定ステップは、前記第1の正面画像と前記第2の正面画像とに基づいて、前記1以上の固視位置の設定を実行する
ことを特徴とする眼科撮影装置の制御方法。
A method for controlling an ophthalmic imaging apparatus capable of applying imaging and optical coherence tomography (OCT) to the fundus of an eye to be examined, comprising:
a photographing step of presenting a fixation target corresponding to a predetermined fixation position to the eye to be examined and applying photographing to the fundus to obtain a front image;
a fixation position setting step of setting one or more fixation positions based on the front image acquired in the photographing step;
sequentially presenting to the eye to be examined two or more fixation targets corresponding to two or more fixation positions including the one or more fixation positions set in the fixation position setting step; an OCT step of acquiring a three-dimensional image by applying OCT to the fundus when each of the fixation targets is presented to the eye to be examined;
forming a composite image of two or more three-dimensional images corresponding to the two or more fixation positions obtained in the OCT step;
In the fixation position setting step, the one or more Execute the fixation position setting,
The imaging step is executed before the OCT control, and acquires a first front image of the fundus while presenting the eye to be examined with a first fixation target corresponding to a first fixation position. 1 imaging step, and a second imaging step of acquiring a second front image of the fundus while presenting a second fixation target corresponding to a second fixation position to the eye to be examined,
The method of controlling an ophthalmologic imaging apparatus, wherein the fixation position setting step sets the one or more fixation positions based on the first front image and the second front image.
被検眼の眼底に対して撮影及び光コヒーレンストモグラフィ(OCT)を適用することが可能な眼科撮影装置に請求項3に記載の制御方法を実行させるプログラム。 4. A program for causing an ophthalmologic imaging apparatus capable of applying imaging and optical coherence tomography (OCT) to the fundus of an eye to be examined to execute the control method according to claim 3. 請求項4に記載のプログラムを記録したコンピュータ可読な非一時的記録媒体。

A computer-readable non-transitory recording medium on which the program according to claim 4 is recorded.

JP2021202146A 2017-12-28 2021-12-14 OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF Active JP7134324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021202146A JP7134324B2 (en) 2017-12-28 2021-12-14 OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017253043A JP7050488B2 (en) 2017-12-28 2017-12-28 Ophthalmologic imaging equipment, its control method, programs, and recording media
JP2021202146A JP7134324B2 (en) 2017-12-28 2021-12-14 OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017253043A Division JP7050488B2 (en) 2017-12-28 2017-12-28 Ophthalmologic imaging equipment, its control method, programs, and recording media

Publications (2)

Publication Number Publication Date
JP2022027879A JP2022027879A (en) 2022-02-14
JP7134324B2 true JP7134324B2 (en) 2022-09-09

Family

ID=87888359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021202146A Active JP7134324B2 (en) 2017-12-28 2021-12-14 OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF

Country Status (1)

Country Link
JP (1) JP7134324B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3048197A1 (en) 2016-12-21 2018-06-28 Acucela Inc. Miniaturized mobile, low cost optical coherence tomography system for home based ophthalmic applications
JP7402866B2 (en) * 2018-06-20 2023-12-21 アキュセラ インコーポレイテッド Miniaturized mobile low-cost optical coherence tomography system for home ophthalmology applications
CA3188255A1 (en) 2020-08-14 2022-02-17 Ryo Kubota System and method for optical coherence tomography a-scan decurving

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183332A (en) 2008-02-04 2009-08-20 Topcon Corp Fundus observation apparatus, fundus image processing device, and program
WO2011145182A1 (en) 2010-05-19 2011-11-24 興和株式会社 Optical coherence tomography device
JP2012115578A (en) 2010-12-02 2012-06-21 Nidek Co Ltd Ophthalmologic photographing apparatus
US20160227999A1 (en) 2015-02-05 2016-08-11 Carl Zeiss Meditec, Inc. Acquisition and analysis techniques for improved outcomes in optical coherence tomography angiography

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6551081B2 (en) * 2015-09-04 2019-07-31 株式会社ニデック Ophthalmic imaging apparatus and ophthalmologic imaging program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183332A (en) 2008-02-04 2009-08-20 Topcon Corp Fundus observation apparatus, fundus image processing device, and program
WO2011145182A1 (en) 2010-05-19 2011-11-24 興和株式会社 Optical coherence tomography device
JP2012115578A (en) 2010-12-02 2012-06-21 Nidek Co Ltd Ophthalmologic photographing apparatus
US20160227999A1 (en) 2015-02-05 2016-08-11 Carl Zeiss Meditec, Inc. Acquisition and analysis techniques for improved outcomes in optical coherence tomography angiography

Also Published As

Publication number Publication date
JP2022027879A (en) 2022-02-14

Similar Documents

Publication Publication Date Title
JP7134324B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP2022040372A (en) Ophthalmologic apparatus
JP7090438B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
US11311189B2 (en) Ophthalmic imaging apparatus, controlling method thereof, ophthalmic imaging method, and recording medium
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
JP7384987B2 (en) ophthalmology equipment
JP7117873B2 (en) ophthalmic equipment
JP2023080218A (en) Ophthalmologic apparatus
JP2023014190A (en) Ophthalmology imaging apparatus
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7281906B2 (en) Ophthalmic device, its control method, program, and recording medium
JP7106311B2 (en) Ophthalmic device, its control method, program, and recording medium
JP6942626B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7325675B2 (en) ophthalmic imaging equipment
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6954831B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7201852B2 (en) Ophthalmic device, its control method, program, and recording medium
JP7236832B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7288110B2 (en) ophthalmic equipment
JP2019154987A (en) Ophthalmologic apparatus, control method therefor, program, and storage medium
JP7355331B2 (en) Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium
JP6959158B2 (en) Ophthalmic equipment
JP7341422B2 (en) Scanning imaging device, control method thereof, scanning imaging method, program, and recording medium
JP2022162128A (en) Ophthalmologic apparatus
WO2020066324A1 (en) Ophthalmological imaging device, control method therefor, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220830

R150 Certificate of patent or registration of utility model

Ref document number: 7134324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150