JP2018023819A - Ophthalmological observation device - Google Patents

Ophthalmological observation device Download PDF

Info

Publication number
JP2018023819A
JP2018023819A JP2017199002A JP2017199002A JP2018023819A JP 2018023819 A JP2018023819 A JP 2018023819A JP 2017199002 A JP2017199002 A JP 2017199002A JP 2017199002 A JP2017199002 A JP 2017199002A JP 2018023819 A JP2018023819 A JP 2018023819A
Authority
JP
Japan
Prior art keywords
cross
image
unit
sectional
sectional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017199002A
Other languages
Japanese (ja)
Inventor
林 健史
Takeshi Hayashi
健史 林
央 塚田
Hiroshi Tsukada
央 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017199002A priority Critical patent/JP2018023819A/en
Publication of JP2018023819A publication Critical patent/JP2018023819A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an ophthalmological observation device which can achieve a new utilization method of a front cross-sectional image acquired by optical coherence tomography.SOLUTION: In an ophthalmological observation device, an optical system performs OCT, a three-dimensional image formation unit 231 successively acquires three-dimensional images of an eye to be examined on the basis of the data successively acquired by the optical system by repeatedly performing the OCT to a three-dimensional region of the eye to be examined, a cross-sectional image formation unit 232 successively forms front cross-sectional images on the basis of the three-dimensional images successively acquired by the three-dimensional image acquisition unit, a display control unit 2111 displays the front cross-sectional images successively formed by the cross-sectional image formation unit on display means as a moving image and displays information indicating the cross sections of the front cross-sectional images, and a measurement control unit 2112 causes the optical system to execute the OCT to the cross section position designated via operation means to the front cross-sectional images displayed on the display means.SELECTED DRAWING: Figure 3

Description

この発明は、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を用いて被検眼の画像を取得する眼科観察装置に関する。   The present invention relates to an ophthalmologic observation apparatus that acquires an image of an eye to be examined using optical coherence tomography (OCT).

近年、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、網膜や脈絡膜や角膜を画像化する装置が実用化されており、硝子体の画像化などにも応用が広がっている。   In recent years, OCT that forms an image representing the surface form or internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, devices for imaging the retina, choroid, and cornea have been put into practical use, and their application has expanded to imaging the vitreous body.

特許文献1には、いわゆる「フーリエドメインOCT(Fourier Domain OCT)」の手法を用いた装置が開示されている。すなわち、この装置は、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。さらに、この装置は、光ビーム(測定光)をz方向に直交する1方向(x方向)に走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断面像となる。この手法は、特にスペクトラルドメイン(Spectral Domain)と呼ばれる。   Patent Document 1 discloses an apparatus using a so-called “Fourier Domain OCT (Fourier Domain OCT)” technique. That is, this apparatus irradiates the object to be measured with a beam of low coherence light, superimposes the reflected light and the reference light to generate interference light, acquires the spectral intensity distribution of the interference light, and performs Fourier transform. By performing the conversion, the form of the object to be measured in the depth direction (z direction) is imaged. Further, this apparatus includes a galvanometer mirror that scans a light beam (measurement light) in one direction (x direction) orthogonal to the z direction, thereby forming an image of a desired measurement target region of the object to be measured. It has become. An image formed by this apparatus is a two-dimensional cross-sectional image in the depth direction (z direction) along the scanning direction (x direction) of the light beam. This technique is particularly referred to as a spectral domain.

特許文献2には、OCTを用いて得られた複数の2次元断面像から3次元画像を形成する技術が記載されている。また、3次元画像に基づいて、2次元断面像に垂直な断面の2次元画像(つまり所定のz座標値におけるxy面の画像)を形成する技術が知られている。この2次元画像は、正面断面像、水平断面像、アンファス(en−face)画像、C断面像、Cスキャン像などと呼ばれる。   Patent Document 2 describes a technique for forming a three-dimensional image from a plurality of two-dimensional cross-sectional images obtained using OCT. Further, a technique for forming a two-dimensional image of a cross section perpendicular to the two-dimensional cross-sectional image (that is, an image on the xy plane at a predetermined z coordinate value) based on the three-dimensional image is known. This two-dimensional image is called a front sectional image, a horizontal sectional image, an en-face image, a C sectional image, a C scan image, or the like.

特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化するOCT装置が記載されている。このようなOCT装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。   Patent Documents 3 and 4 disclose other types of OCT apparatuses. In Patent Document 3, the wavelength of light irradiated to a measured object is scanned (wavelength sweep), and interference intensity obtained by superimposing reflected light of each wavelength and reference light is detected to detect spectral intensity distribution. And an OCT apparatus for imaging the form of an object to be measured by performing Fourier transform on the obtained image. Such an OCT apparatus is called a swept source type. The swept source type is a kind of Fourier domain type.

また、特許文献4には、所定のビーム径を有する測定光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、測定光の進行方向に直交する断面における被測定物体の画像を形成するOCT装置が記載されている。このようなOCT装置は、フルフィールド(full−field)タイプ、或いはアンファスタイプなどと呼ばれる。   In Patent Document 4, the measurement light having a predetermined beam diameter is irradiated onto the object to be measured, and the component of the interference light obtained by superimposing the reflected light and the reference light is analyzed. An OCT apparatus that forms an image of an object to be measured in a cross section orthogonal to the traveling direction is described. Such an OCT apparatus is called a full-field type or an unfaced type.

特許文献5には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが応用される以前には、被検眼を観察するための装置として眼底カメラ、スリットランプ、SLO(Scanning Laser Ophthalmoscope)などが使用されていた(たとえば特許文献6、特許文献7、特許文献8を参照)。眼底カメラは被検眼に照明光を照射し、その眼底からの戻り光を検出することによって眼底を画像化する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。SLOは、レーザ光で眼底を走査し、その反射光を光電子増倍管等の高感度な素子で検出することにより眼底表面の形態を画像化する装置である。   Patent Document 5 discloses a configuration in which OCT is applied to the ophthalmic field. Prior to the application of OCT, a fundus camera, a slit lamp, an SLO (Scanning Laser Ophthalmoscope), or the like was used as an apparatus for observing the eye to be examined (for example, Patent Document 6, Patent Document 7, Patent Document). 8). A fundus camera is an apparatus that images the fundus by illuminating the subject's eye with illumination light and detecting return light from the fundus. A slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light. The SLO is an apparatus that images the fundus surface by scanning the fundus with laser light and detecting the reflected light with a highly sensitive element such as a photomultiplier tube.

OCTを用いた装置は、高精細の画像を取得できる点、さらには断面像や3次元画像を取得できる点などにおいて、眼底カメラ等に対して優位性を持つ。   An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired, and further, a cross-sectional image or a three-dimensional image can be acquired.

このように、OCTを用いた装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。   As described above, an apparatus using OCT can be applied to observation of various parts of an eye to be examined, and can acquire high-definition images, and thus has been applied to diagnosis of various ophthalmic diseases.

眼科分野のOCT装置には、一般に、アライメント(被検眼に対する光学系の位置合わせ)、フォーカシング(画像化深度の設定)、トラッキング(被検眼の動きに対する光学系の追従移動)などの機能が組み込まれている。また、画像化の対象領域を任意に指定するための機能も設けられており、たとえば眼底の表面形態を表す正面画像を参照して断面を指定することが行われている。   OCT devices in the field of ophthalmology generally incorporate functions such as alignment (positioning of the optical system with respect to the eye to be examined), focusing (setting of the imaging depth), and tracking (following movement of the optical system with respect to movement of the eye to be examined). ing. In addition, a function for arbitrarily designating a target region for imaging is also provided. For example, a cross section is designated with reference to a front image representing the surface form of the fundus.

特開平11−325849号公報JP 11-325849 A 特開2007−225349号公報JP 2007-225349 A 特開2007−24677号公報JP 2007-24677 A 特開2006−153838号公報JP 2006-153838 A 特開2008−73099号公報JP 2008-73099 A 特開平9−276232号公報JP-A-9-276232 特開2008−259544号公報JP 2008-259544 A 特開2009−11381号公報JP 2009-11811 A

この発明の目的は、OCTにより取得された正面断面像の新規な利用法を実現可能な眼科観察装置を提供することにある。   An object of the present invention is to provide an ophthalmologic observation apparatus capable of realizing a novel method of using a front cross-sectional image acquired by OCT.

上記目的を達成するために、請求項1に記載の発明は、光学系と、3次元画像取得部と、断面像形成部と、表示制御部と、計測制御部とを有する。光学系は、光コヒーレンストモグラフィを行う。3次元画像取得部は、被検眼の3次元領域に対する光コヒーレンストモグラフィを繰り返し行うことにより光学系によって逐次に取得されたデータに基づいて、被検眼の3次元画像を逐次に取得する。断面像形成部は、3次元画像取得部により逐次に取得された3次元画像に基づいて正面断面像を逐次に形成する。表示制御部は、断面像形成部により逐次に形成された正面断面像を表示手段に動画表示させる。更に、表示制御部は、断面像形成部により形成された正面断面像の断面を示す情報をこの正面断面像とともに表示させる。計測制御部は、表示手段に表示されている正面断面像に対し操作手段を介して指定された断面位置に対する光コヒーレンストモグラフィを光学系に実行させる。
また、請求項2に記載の発明は、請求項1に記載の眼科観察装置であって、断面像形成部は、3次元画像取得部により逐次に取得された3次元画像に基づいて、深さ位置が異なる2以上の断面に対応する2以上の正面断面像を形成し、表示制御部は、2以上の正面断面像をそれぞれ動画表示させ、かつ、2以上の断面を示す情報を表示させることを特徴とする。
In order to achieve the above object, an invention described in claim 1 includes an optical system, a three-dimensional image acquisition unit, a cross-sectional image forming unit, a display control unit, and a measurement control unit. The optical system performs optical coherence tomography. The three-dimensional image acquisition unit sequentially acquires a three-dimensional image of the eye to be inspected based on data sequentially acquired by the optical system by repeatedly performing optical coherence tomography on the three-dimensional region of the eye to be inspected. The cross-sectional image forming unit sequentially forms front cross-sectional images based on the three-dimensional images sequentially acquired by the three-dimensional image acquisition unit. The display control unit causes the display unit to display a moving image of the front cross-sectional image sequentially formed by the cross-sectional image forming unit. Further, the display control unit displays information indicating the cross section of the front cross-sectional image formed by the cross-sectional image forming unit together with the front cross-sectional image. The measurement control unit causes the optical system to execute optical coherence tomography with respect to the cross-sectional position designated via the operation unit with respect to the front cross-sectional image displayed on the display unit.
The invention according to claim 2 is the ophthalmologic observation apparatus according to claim 1, wherein the cross-sectional image forming unit has a depth based on the three-dimensional images sequentially acquired by the three-dimensional image acquisition unit. Two or more front cross-sectional images corresponding to two or more cross-sections at different positions are formed, and the display control unit displays two or more front cross-sectional images as moving images and displays information indicating two or more cross-sections. It is characterized by.

この発明によれば、OCTにより取得された正面断面像の新規な利用法を実現可能な眼科観察装置が提供される。   According to the present invention, an ophthalmologic observation apparatus capable of realizing a novel method of using a front cross-sectional image acquired by OCT is provided.

実施形態に係る眼科観察装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology observation device concerning an embodiment. 実施形態に係る眼科観察装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology observation device concerning an embodiment. 実施形態に係る眼科観察装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology observation device concerning an embodiment. 実施形態に係る眼科観察装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology observation device concerning an embodiment. 実施形態に係る眼科観察装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology observation device concerning an embodiment. 実施形態に係る眼科観察装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmic observation apparatus which concerns on embodiment. 実施形態に係る眼科観察装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the ophthalmic observation apparatus which concerns on embodiment.

この発明に係る眼科観察装置の実施形態の一例について、図面を参照しながら詳細に説明する。実施形態に係る眼科観察装置は、OCTを用いて眼底の2次元断面像や3次元画像を形成する。この明細書では、OCTによって取得される画像をOCT画像と呼ぶことがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。   An example of an embodiment of an ophthalmologic observation apparatus according to the present invention will be described in detail with reference to the drawings. The ophthalmologic observation apparatus according to the embodiment forms a two-dimensional cross-sectional image or a three-dimensional image of the fundus using OCT. In this specification, an image acquired by OCT may be referred to as an OCT image. In addition, a measurement operation for forming an OCT image may be referred to as OCT measurement. In addition, it is possible to use suitably the description content of the literature described in this specification as the content of the following embodiment.

以下の実施形態では、フーリエドメインタイプのOCTを適用した構成について詳しく説明する。実施形態に係る眼科観察装置は、たとえば、スペクトラルドメインOCTの手法を用いて眼底のOCT画像および眼底像の双方を取得可能に構成される。なお、OCTの手法はスペクトラルドメインには限定されず、たとえばスウェプトソースタイプであってよい。また、実施形態では、OCT装置と眼底カメラとが組み合わされた複合機について特に詳しく説明するが、被検眼を撮影して正面画像を取得する装置は眼底カメラには限定されず、たとえばSLO、スリットランプ、眼科手術用顕微鏡などであってよい。また、実施形態に係る眼科観察装置の構成は複合機には限定されず、OCT装置単体であってよい。   In the following embodiment, a configuration to which Fourier domain type OCT is applied will be described in detail. The ophthalmologic observation apparatus according to the embodiment is configured to be able to acquire both a fundus OCT image and a fundus image using, for example, a spectral domain OCT technique. The OCT method is not limited to the spectral domain, and may be a swept source type, for example. In the embodiment, a multi-function apparatus in which an OCT apparatus and a fundus camera are combined will be described in detail. However, an apparatus that captures a subject's eye and obtains a front image is not limited to a fundus camera. It may be a lamp, an ophthalmic surgical microscope, or the like. In addition, the configuration of the ophthalmic observation apparatus according to the embodiment is not limited to the multifunction peripheral, and may be a single OCT apparatus.

以下、いくつかの実施形態について説明するが、これら実施形態のうちの2つ以上を任意に組み合わせることが可能である。   Several embodiments will be described below, but two or more of these embodiments can be arbitrarily combined.

〈第1の実施形態〉
[構成]
図1および図2に示すように、眼科観察装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
<First Embodiment>
[Constitution]
As shown in FIGS. 1 and 2, the ophthalmologic observation apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The retinal camera unit 2 has almost the same optical system as a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.

〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像である。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined. The fundus image includes an observation image and a captured image. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. The captured image is, for example, a color image obtained by flashing visible light or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.

眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。さらに、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、眼底Efからの照明光の戻り光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの測定光を眼底Efに導くとともに、眼底Efからの測定光の戻り光をOCTユニット100に導く。   The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The imaging optical system 30 guides the return light of the illumination light from the fundus oculi Ef to the imaging devices (CCD image sensors (sometimes simply referred to as CCD) 35 and 38). The imaging optical system 30 guides the measurement light from the OCT unit 100 to the fundus oculi Ef and guides the return light of the measurement light from the fundus oculi Ef to the OCT unit 100.

照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。さらに、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。   The observation light source 11 of the illumination optical system 10 is constituted by a halogen lamp, for example. The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef. An LED (Light Emitting Diode) can also be used as the observation light source.

眼底Efからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。さらに、この戻り光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のレートで戻り光を検出する。表示装置3には、CCDイメージセンサ35により検出された戻り光に基づく画像(観察画像)が表示される。なお、撮影光学系30のフォーカスが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。   The return light of the observation illumination light from the fundus oculi Ef is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the aperture mirror 21, passes through the dichroic mirror 55, The light is reflected by the mirror 32 via the focusing lens 31. Further, the return light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens. The CCD image sensor 35 detects return light at a predetermined rate, for example. The display device 3 displays an image (observation image) based on the return light detected by the CCD image sensor 35. In addition, when the focus of the imaging optical system 30 is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.

撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。眼底Efからの撮影照明光の戻り光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された戻り光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。   The imaging light source 15 is constituted by, for example, a xenon lamp. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The return light of the photographing illumination light from the fundus oculi Ef is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37. An image is formed on the light receiving surface of the sensor 38. An image (captured image) based on the return light detected by the CCD image sensor 38 is displayed on the display device 3. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In addition, when similar imaging is performed by illuminating the eye E with infrared light, an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。   An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.

LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   A part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置(黄斑計測用固視位置)や、視神経乳頭を中心とする画像を取得するための位置(乳頭計測用固視位置)や、黄斑部と視神経乳頭とを含む広範囲の画像を取得するための位置(広範囲計測用固視位置)などがある。また、固視標の表示位置を任意に変更することも可能である。   By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed. As the fixation position of the eye E, for example, as in a conventional fundus camera, a position for acquiring an image centered on the macular portion of the fundus oculi Ef (macular measurement fixation position), or the optic nerve head as the center There are a position for acquiring an image (a fixation position for papillary measurement), a position for acquiring a wide range image including the macula and the optic nerve head (a fixation position for wide-area measurement), and the like. It is also possible to arbitrarily change the display position of the fixation target.

さらに、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカスを合わせるための指標(スプリット指標)を生成する。   Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in a conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。   The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the perforated mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。   The corneal reflection light of the alignment light passes through the objective lens 22, the dichroic mirror 46 and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is half mirror The light passes through 39A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. The light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。さらに、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

眼底Efからのフォーカス光の戻り光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてフォーカシングを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でフォーカシングを行ってもよい。   The return light of the focus light from the fundus oculi Ef is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light. A light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing (autofocus function), as in the conventional case. Further, focusing may be performed manually while visually checking the split index.

ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。   The dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus photography. The dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing. In this optical path for OCT measurement, a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。   The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1 and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.

ガルバノスキャナ42は、OCT計測用の光路を通過する光(測定光LM)の進行方向を変更する。それにより、眼底Efを測定光LMで走査することができる。ガルバノスキャナ42は、たとえば、測定光LMをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、測定光LMをxy平面上の任意の方向に走査することができる。   The galvano scanner 42 changes the traveling direction of light (measurement light LM) that passes through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the measurement light LM. The galvano scanner 42 includes, for example, a galvano mirror that scans the measurement light LM in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the measurement light LM can be scanned in an arbitrary direction on the xy plane.

〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、光源からの光(低コヒーレンス光)を参照光と測定光に分割し、眼底Efを経由した測定光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を分光器によって検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef. This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides the light from the light source (low coherence light) into reference light and measurement light, and generates interference light by causing the measurement light passing through the fundus oculi Ef and the reference light passing through the reference optical path to interfere with each other. The spectral component of the interference light is detected by a spectroscope. This detection result (detection signal) is sent to the arithmetic control unit 200.

なお、スウェプトソースタイプのOCT装置の場合には、出力波長を高速で切り替えることが可能な波長掃引光源が低コヒーレンス光源の代わりに設けられ、かつ、バランスドフォトダイオード等の光検出器が分光器の代わりに設けられる。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。   In the case of a swept source type OCT apparatus, a wavelength swept light source capable of switching the output wavelength at high speed is provided in place of a low coherence light source, and a photodetector such as a balanced photodiode is provided as a spectrometer. It is provided instead of. In general, for the configuration of the OCT unit 100, a known technique according to the type of optical coherence tomography can be arbitrarily applied.

光源ユニット101はOCT計測用の光L0を出力する。この実施形態ではスペクトラルドメインOCTが適用されるので、広帯域の低コヒーレンス光が光L0として用いられる。光L0は、たとえば、近赤外領域の波長帯(約800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040〜1060nm程度の中心波長を有する近赤外光を光L0として用いてもよい。   The light source unit 101 outputs light L0 for OCT measurement. In this embodiment, since the spectral domain OCT is applied, broadband low-coherence light is used as the light L0. The light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band that cannot be visually recognized by the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the light L0.

光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。   The light source unit 101 includes a light output device such as a super luminescent diode (SLD), an LED, or an SOA (Semiconductor Optical Amplifier).

光源ユニット101から出力された光L0は、光ファイバ102によりファイバカプラ103に導かれて測定光LMと参照光LRに分割される。   The light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and split into the measurement light LM and the reference light LR.

参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。   The reference light LR is guided by the optical fiber 104 and reaches the optical attenuator (attenuator) 105. The optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106. The polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape. The configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used. The reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.

ファイバカプラ103により生成された測定光LMは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。さらに、測定光LMは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、測定光LMは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。測定光LMは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる測定光LMの後方散乱光(戻り光)は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。   The measurement light LM generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the measurement light LM reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. Then, the measurement light LM is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated on the fundus oculi Ef. The measurement light LM is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light (return light) of the measurement light LM from the fundus oculi Ef travels in the opposite direction on the same path as the forward path, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.

ファイバカプラ109は、測定光LMの戻り光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。さらに、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。   The fiber coupler 109 causes the return light of the measurement light LM to interfere with the reference light LR that has passed through the optical fiber 104. The interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115. Although the diffraction grating 113 shown in FIG. 2 is a transmission type, other types of spectroscopic elements such as a reflection type diffraction grating may be used.

CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。   The CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges. The CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。   In this embodiment, a Michelson type interferometer is employed, but any type of interferometer such as a Mach-Zehnder type can be appropriately employed. Further, in place of the CCD image sensor, another form of image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
[Calculation control unit]
The configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef. The arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。   The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.

また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。   As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.

また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。   As control of the OCT unit 100, the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.

演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科観察装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。   The arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, etc., as in a conventional computer. A computer program for controlling the ophthalmic observation apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。   The fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more cases. It may be.

〔制御系〕
眼科観察装置1の制御系の構成について図3を参照しつつ説明する。
[Control system]
The configuration of the control system of the ophthalmologic observation apparatus 1 will be described with reference to FIG.

(制御部)
眼科観察装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(Control part)
The control system of the ophthalmologic observation apparatus 1 is configured around the control unit 210. The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.

(主制御部)
主制御部211は前述の各種制御を行う。たとえば、主制御部211は、眼底カメラユニット2の光学系駆動部2A、合焦駆動部31A、光路長変更部41、ガルバノスキャナ42およびOCT合焦駆動部43Aを制御する。また、主制御部211は、OCTユニット100の光源ユニット101、光減衰器105、偏波調整器106およびCCD115を制御する。
(Main control unit)
The main control unit 211 performs the various controls described above. For example, the main control unit 211 controls the optical system driving unit 2A, the focusing driving unit 31A, the optical path length changing unit 41, the galvano scanner 42, and the OCT focusing driving unit 43A of the fundus camera unit 2. The main control unit 211 also controls the light source unit 101, the optical attenuator 105, the polarization adjuster 106, and the CCD 115 of the OCT unit 100.

光学系駆動部2Aは、主制御部211の制御を受けて、装置光学系(特に眼底カメラユニット2に含まれる光学系)を3次元的に移動させる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングは、前述したように、被検眼Eの眼球運動に合わせて装置光学系を移動させる制御である。トラッキングを行う場合には、事前にアライメントとフォーカシングが実行される。トラッキングは、たとえば観察画像によって被検眼Eの動きをリアルタイムで検出し、その検出結果に基づいて装置光学系を移動させることにより、装置光学系の位置を眼球運動に追従させる機能である。それにより、アライメントおよびフォーカスが合った好適な位置関係が維持される。なお、光学系駆動部2Aによる装置光学系の移動方向は、x方向、y方向およびz方向には限定されず、たとえば所定の軸周りの回転方向や、俯仰方向などを含んでいてよい。   Under the control of the main controller 211, the optical system driver 2A moves the apparatus optical system (particularly, the optical system included in the fundus camera unit 2) three-dimensionally. This control is used in alignment and tracking. As described above, the tracking is a control for moving the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. The tracking is a function of detecting the movement of the eye E in real time using an observation image, for example, and moving the apparatus optical system based on the detection result, thereby causing the position of the apparatus optical system to follow the eye movement. Thereby, a suitable positional relationship in which the alignment and focus are achieved is maintained. Note that the movement direction of the apparatus optical system by the optical system driving unit 2A is not limited to the x direction, the y direction, and the z direction, and may include, for example, a rotation direction around a predetermined axis, an elevation direction, and the like.

合焦駆動部31Aは、主制御部211の制御を受けて、撮影光学系30の合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の焦点位置が変更される。   Under the control of the main control unit 211, the focusing drive unit 31A moves the focusing lens 31 of the photographing optical system 30 in the optical axis direction. Thereby, the focal position of the photographing optical system 30 is changed.

OCT合焦駆動部43Aは、主制御部211の制御を受けて、測定光LMの経路に設けられた合焦レンズ43を光軸方向に移動させる。それにより、測定光LMの焦点位置(ビームウェストの位置)が変更される。   Under the control of the main control unit 211, the OCT focusing drive unit 43A moves the focusing lens 43 provided in the path of the measurement light LM in the optical axis direction. As a result, the focus position (beam waist position) of the measurement light LM is changed.

主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。   The main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.

この実施形態において、主制御部211は、表示制御部2111と、計測制御部2112とを含む。表示制御部2111は、表示部241に情報を表示させるための制御を実行する。この制御については後述する。計測制御部2112は、OCT計測に関する制御を行う。この制御については後述する。   In this embodiment, the main control unit 211 includes a display control unit 2111 and a measurement control unit 2112. The display control unit 2111 executes control for causing the display unit 241 to display information. This control will be described later. The measurement control unit 2112 performs control related to OCT measurement. This control will be described later.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科観察装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information. The eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information. The storage unit 212 stores various programs and data for operating the ophthalmologic observation apparatus 1.

(画像形成部)
画像形成部220は、CCDイメージセンサ115から入力される検出信号に基づいて、眼底Efの断面像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、分散補償、FFT(Fast Fourier Transform)などの処理が含まれている。この実施形態において、画像形成部220は、測定光LMの各照射位置におけるAライン(z方向に延びるライン)に沿った1次元画像(Aライン像)を形成する。さらに、画像形成部220は、直線的または曲線的に配列された複数の照射位置に対応する複数のAライン像を当該配列に応じて並べた2次元断面像(Bスキャン像)を形成してもよい。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
(Image forming part)
The image forming unit 220 forms image data of a cross-sectional image of the fundus oculi Ef based on the detection signal input from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filter processing, dispersion compensation, and FFT (Fast Fourier Transform) as in the conventional spectral domain type optical coherence tomography. In this embodiment, the image forming unit 220 forms a one-dimensional image (A line image) along the A line (line extending in the z direction) at each irradiation position of the measurement light LM. Furthermore, the image forming unit 220 forms a two-dimensional cross-sectional image (B-scan image) in which a plurality of A-line images corresponding to a plurality of irradiation positions arranged linearly or curvedly are arranged according to the arrangement. Also good. In the case of another type of OCT apparatus, the image forming unit 220 executes a known process corresponding to the type.

画像形成部220は、たとえば、前述の回路基板やマイクロプロセッサを含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。   The image forming unit 220 includes, for example, the circuit board and the microprocessor described above. In this specification, “image data” and “image” based thereon may be identified.

(画像処理部)
画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Image processing unit)
The image processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the image processing unit 230 executes various correction processes such as image brightness correction. The image processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.

画像処理部230は、3次元画像形成部231と、断面像形成部232とを有する。   The image processing unit 230 includes a three-dimensional image forming unit 231 and a cross-sectional image forming unit 232.

(3次元画像形成部)
3次元画像形成部231は、Aライン像の間の画素を補間する処理、またはBスキャン像の間の画素を補間する補間処理など、公知の画像処理を実行することにより、眼底Efの3次元画像データを形成する。なお、3次元画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像データの例として、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる処理の例として、画像処理部230は、ボリュームデータにレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。
(3D image forming unit)
The three-dimensional image forming unit 231 performs three-dimensional image processing for the fundus oculi Ef by performing known image processing such as processing for interpolating pixels between A-line images or interpolation processing for interpolating pixels between B-scan images. Form image data. The three-dimensional image data means image data in which pixel positions are defined by a three-dimensional coordinate system. As an example of the three-dimensional image data, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. As an example of processing for displaying an image based on volume data, the image processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and views the image from a specific line-of-sight direction. A pseudo three-dimensional image is formed.

また、3次元画像データの他の例としてスタックデータがある。スタックデータは、複数の走査線に沿って得られた複数のBスキャン像を、走査線の位置関係に基づいて3次元的に配列させることにより得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数のBスキャン像を、1つの3次元座標系で表現する(つまり1つの3次元空間に埋め込む)ことによって得られる画像データである。   Another example of 3D image data is stack data. Stack data is image data obtained by three-dimensionally arranging a plurality of B scan images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, the stack data is image data obtained by expressing a plurality of B-scan images originally defined by individual two-dimensional coordinate systems in one three-dimensional coordinate system (that is, embedding in one three-dimensional space). It is.

(断面像形成部)
断面像形成部232は、3次元画像形成部231により形成された3次元画像データに基づいて断面像を形成する。この断面像は、あらかじめ設定された断面を表す画像である。この断面は、任意の位置および向きにより定義される。この断面は、平面でも曲面でもよい。なお、被検眼Eの後眼部を正面側(角膜側)から見た場合の断面図、たとえば(少なくとも1つの)法線がz方向に一致するような断面を表す断面図を、正面断面像と呼ぶことがある。
(Cross-section image forming part)
The cross-sectional image forming unit 232 forms a cross-sectional image based on the 3D image data formed by the 3D image forming unit 231. This cross-sectional image is an image representing a preset cross-section. This cross section is defined by an arbitrary position and orientation. This cross section may be flat or curved. In addition, a cross-sectional view when the posterior eye portion of the eye E to be examined is viewed from the front side (corneal side), for example, a cross-sectional view showing a cross-section in which (at least one) normal line coincides with the z direction, Sometimes called.

断面像形成部232は、たとえば、3次元画像データのピクセル(またはボクセル)のうち、あらかじめ設定された断面に位置するピクセル(またはボクセル)を選択することにより、当該断面を表す2次元断面像を形成してよい。なお、前述の補間処理を行っていない場合(つまりスタックデータを用いる場合)などのように、当該断面に位置するピクセルが存在しない場合には、当該断面に最も近い画素を選択することができる。また、当該断面に隣接する画素に基づいて補間処理(重み付き補間処理など)を実行することによって、当該断面に対応するピクセル値を求めてもよい。   For example, the cross-sectional image forming unit 232 selects a pixel (or voxel) positioned in a predetermined cross-section from pixels (or voxels) of the three-dimensional image data, thereby generating a two-dimensional cross-sectional image representing the cross-section. It may be formed. Note that when there is no pixel located in the cross section, such as when the above-described interpolation processing is not performed (that is, when stack data is used), the pixel closest to the cross section can be selected. Alternatively, a pixel value corresponding to the cross section may be obtained by executing an interpolation process (such as a weighted interpolation process) based on pixels adjacent to the cross section.

また、断面像形成部232は、たとえば、3次元画像データのピクセル(またはボクセル)のうち、あらかじめ設定されたz方向の範囲(たとえば眼底Efの所定の層を表す範囲)に含まれるピクセル(またはボクセル)を選択し、選択された3次元領域をz方向に積算することにより2次元断面像を形成してよい。なお、当該断面に位置するピクセルが存在しない場合には、上記と同様の処理を実行できる。   In addition, the cross-sectional image forming unit 232 includes, for example, pixels (or a range representing a predetermined layer of the fundus oculi Ef) included in a preset range (for example, a range representing a predetermined layer of the fundus oculi Ef) among pixels (or voxels) of the three-dimensional image data. Voxel) may be selected and the selected three-dimensional region may be integrated in the z direction to form a two-dimensional cross-sectional image. If there is no pixel located in the cross section, the same processing as described above can be executed.

断面像形成部232により形成される断面像は2次元断面像である必要はない。たとえば、断面像形成部232は、3次元画像データのピクセル(またはボクセル)のうち、あらかじめ設定された3次元領域に含まれるピクセル(またはボクセル)を抽出することにより3次元部分画像を形成してよい。3次元部分画像を表示する場合、前述したレンダリング処理が適用される。   The cross-sectional image formed by the cross-sectional image forming unit 232 need not be a two-dimensional cross-sectional image. For example, the cross-sectional image forming unit 232 forms a three-dimensional partial image by extracting pixels (or voxels) included in a preset three-dimensional region from pixels (or voxels) of the three-dimensional image data. Good. When displaying a three-dimensional partial image, the above-described rendering process is applied.

断面像形成部232には、画像化範囲(断面、3次元領域等)が事前に入力される。画像化範囲の設定は、手動または自動で実行される。   The imaging range (cross section, three-dimensional area, etc.) is input to the cross-sectional image forming unit 232 in advance. The imaging range is set manually or automatically.

画像化範囲の設定を手動で行う場合、ユーザは、ユーザインターフェイス240を用いる。たとえば、主制御部211は、画像化範囲の設定を行うためのグラフィカルユーザインターフェイス(GUI)を表示部241に表示させる。ユーザは、操作部242を用いてGUIを操作することにより画像化範囲の設定を行う。   When manually setting the imaging range, the user uses the user interface 240. For example, the main control unit 211 causes the display unit 241 to display a graphical user interface (GUI) for setting the imaging range. The user sets the imaging range by operating the GUI using the operation unit 242.

具体例として、主制御部211は、擬似的3次元画像またはBスキャン像を表示部241に表示させることができる。ユーザは、操作部242を用いることで、表示された画像に対して断面位置を設定する。画像処理部230は、設定された断面位置を3次元画像データ全体に拡張する処理を行う。この処理は、たとえば、設定された断面位置を所定方向に拡張することにより行われる。たとえば、平面的な正面断面像を取得するための断面を設定する場合、手動で設定される断面位置はz座標値(z=z0)に相当するので、画像処理部230は、平面z=z0を対象の断面として設定する。この場合、位置情報が(x=任意、y=任意、z=z0)であるピクセル(またはボクセル)が3次元画像データから抽出されて、抽出されたピクセル(またはボクセル)に基づき平面的な正面断面像が形成される。   As a specific example, the main control unit 211 can cause the display unit 241 to display a pseudo three-dimensional image or a B-scan image. The user uses the operation unit 242 to set the cross-sectional position for the displayed image. The image processing unit 230 performs processing for extending the set cross-sectional position to the entire three-dimensional image data. This process is performed, for example, by expanding the set cross-sectional position in a predetermined direction. For example, when setting a cross-section for acquiring a planar front cross-sectional image, the cross-sectional position set manually corresponds to the z-coordinate value (z = z0), so the image processing unit 230 determines that the plane z = z0. Is set as the target cross section. In this case, a pixel (or voxel) whose position information is (x = arbitrary, y = arbitrary, z = z0) is extracted from the three-dimensional image data, and a planar front surface based on the extracted pixel (or voxel). A cross-sectional image is formed.

手動設定の他の例を説明する。主制御部211は、被検眼Eの部位名(組織名)の選択肢を表示部241に提示することができる。提示される部位の例として、網膜、脈絡膜、強膜、網膜剥離部位、病変部、治療済みの部位などがある。また、網膜のサブ組織として、網膜色素上皮層、視細胞層、外境界膜、外顆粒層、外網状層、内顆粒層、内網状層、神経節細胞層、神経繊維層、内境界膜、視細胞内節外節接合部などがある。ユーザは、表示された選択肢のうち1つ以上を指定する。この指定操作の態様は任意であり、たとえば、所望の選択肢のチェックボックスにチェックを入力する操作が含まれる。画像処理部230は、3次元画像データを解析することにより、ユーザが指定した部位に相当するピクセル(またはボクセル)を特定する。この解析処理は、たとえば、公知の層特定処理(セグメンテーション)を含む。断面像形成部232は、解析処理により特定されたピクセル(またはボクセル)に基づいて断面像を形成する。   Another example of manual setting will be described. The main control unit 211 can present options for the part name (tissue name) of the eye E on the display unit 241. Examples of the presented site include the retina, choroid, sclera, retinal detachment site, lesion site, and treated site. In addition, as a sub-tissue of the retina, retinal pigment epithelium layer, photoreceptor layer, outer boundary membrane, outer granule layer, outer reticular layer, inner granule layer, inner reticular layer, ganglion cell layer, nerve fiber layer, inner boundary membrane, There are joints between inner and outer segments of photoreceptor cells. The user designates one or more of the displayed options. The mode of the designation operation is arbitrary, and includes, for example, an operation of inputting a check into a check box of a desired option. The image processing unit 230 identifies the pixel (or voxel) corresponding to the part designated by the user by analyzing the three-dimensional image data. This analysis process includes, for example, a known layer specifying process (segmentation). The cross-sectional image forming unit 232 forms a cross-sectional image based on the pixels (or voxels) specified by the analysis process.

画像化範囲の設定を自動で行う場合、主制御部211は、所定の条件に基づいて画像化範囲を設定する。この条件の例として、疾患名、過去に適用された画像化範囲などがある。   When the imaging range is automatically set, the main control unit 211 sets the imaging range based on a predetermined condition. Examples of this condition include a disease name and an imaging range applied in the past.

疾患名が条件に含まれる場合、疾患名と画像化範囲とを対応付けた情報(対応情報)があらかじめ記憶部212に記憶される。主制御部211は、たとえば当該患者の電子カルテ情報を参照して疾患名を取得する。さらに、主制御部211は、取得された疾患名に対応付けられた画像化範囲を、対応情報を参照することによって特定する。特定された画像化範囲に対応するピクセル(またはボクセル)を求める処理は、手動設定の場合の解析処理と同様であってよい。   When the disease name is included in the condition, information (corresponding information) in which the disease name is associated with the imaging range is stored in the storage unit 212 in advance. The main control unit 211 acquires a disease name with reference to the electronic medical record information of the patient, for example. Further, the main control unit 211 identifies the imaging range associated with the acquired disease name by referring to the correspondence information. The processing for obtaining pixels (or voxels) corresponding to the specified imaging range may be the same as the analysis processing in the case of manual setting.

たとえばフォローアップ撮影の場合のように、過去に適用された画像化範囲が条件に含まれる場合、検査において適用された画像化範囲を示す情報が当該患者の電子カルテ情報に記憶される。或いは、主制御部211は、当該患者の患者ID等と適用された画像化範囲を示す情報とを関連付けて記憶部212に記憶させる。新たな検査が行われる場合、主制御部211は、当該患者の電子カルテ情報に記録されている画像化範囲を示す情報を読み出す。或いは、主制御部211は、患者ID等の入力を受けて、画像化範囲を示す情報を記憶部212から検索する。過去の画像化範囲が取得された後の処理は、手動設定の場合の解析処理と同様であってよい。   For example, when the imaging range applied in the past is included in the condition as in the case of follow-up imaging, information indicating the imaging range applied in the examination is stored in the electronic medical record information of the patient. Alternatively, the main control unit 211 causes the storage unit 212 to store the patient ID and the like of the patient in association with information indicating the applied imaging range. When a new examination is performed, the main control unit 211 reads information indicating the imaging range recorded in the electronic medical record information of the patient. Alternatively, the main control unit 211 receives information such as a patient ID and searches the storage unit 212 for information indicating the imaging range. The processing after the past imaging range is acquired may be the same as the analysis processing in the case of manual setting.

なお、検診やクリニカルパスのように、取得される断面像の種別(つまり画像化範囲)があらかじめ決められている場合、手動設定の場合において説明した解析処理を画像処理部230が実行することにより、目的の断面に位置するピクセル(またはボクセル)を3次元画像データから特定することができる。   In addition, when the type (that is, imaging range) of the acquired cross-sectional image is determined in advance, such as a medical examination or a clinical path, the image processing unit 230 executes the analysis processing described in the case of manual setting. The pixels (or voxels) located in the target cross section can be identified from the three-dimensional image data.

以上のような機能を有する画像処理部230は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。   The image processing unit 230 having the above functions includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科観察装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部242は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The user interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation unit 242 includes the operation device of the arithmetic control unit 200 described above. The operation unit 242 may include various buttons and keys provided on the housing of the ophthalmologic observation apparatus 1 or outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 242 may include a joystick, an operation panel, or the like provided on the housing. Further, the display unit 241 may include various display devices such as a touch panel provided in the housing of the fundus camera unit 2.

表示部241と操作部242は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部242は、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部242に対する操作内容は、電気信号として制御部210に入力される。また、表示部241に表示されたGUIと、操作部242とを用いて、操作や情報入力を行うようにしてもよい。   The display unit 241 and the operation unit 242 do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. In that case, the operation unit 242 includes the touch panel and a computer program. The operation content for the operation unit 242 is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using the GUI displayed on the display unit 241 and the operation unit 242.

〔測定光の走査およびOCT画像について〕
測定光LMの走査およびOCT画像について説明しておく。
[Scanning light and OCT image]
The scanning of the measurement light LM and the OCT image will be described.

眼科観察装置1による測定光LMの走査態様(スキャンパターン)としては、たとえば、横スキャン、縦スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位(視神経乳頭、黄斑、病変部など)、解析対象(網膜厚など)、走査に要する時間、走査の精密さなどを考慮して選択的に使用される。   Examples of the scanning mode (scan pattern) of the measurement light LM by the ophthalmic observation apparatus 1 include a horizontal scan, a vertical scan, a cross scan, a radial scan, a circular scan, a concentric scan, and a spiral (spiral) scan. These scanning modes are selectively used in consideration of the observation site of the fundus (optic nerve head, macula, lesioned part, etc.), analysis target (such as retinal thickness), time required for scanning, scanning precision, and the like.

横スキャンは、測定光LMを横方向(x方向)に走査させるものである。横スキャンには、縦方向(y方向)に配列された複数の横方向に延びる走査線に沿って測定光LMを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。縦スキャンについても同様である。   In the horizontal scan, the measurement light LM is scanned in the horizontal direction (x direction). The horizontal scan includes a mode in which the measurement light LM is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to vertical scanning.

十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って測定光LMを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って測定光LMを走査するものである。なお、十字スキャンは放射スキャンの一例である。   In the cross scan, the measurement light LM is scanned along a cross-shaped trajectory formed by two linear trajectories (straight trajectories) orthogonal to each other. In the radiation scan, the measurement light LM is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle. The cross scan is an example of a radiation scan.

円スキャンは、円形状の軌跡に沿って測定光LMを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って測定光LMを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(または大きく)させながら螺旋状(渦巻状)の軌跡に沿って測定光LMを走査するものである。   In the circle scan, the measurement light LM is scanned along a circular locus. In the concentric scan, the measurement light LM is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position. A circle scan is an example of a concentric scan. In the spiral scan, the measurement light LM is scanned along a spiral (spiral) locus while gradually reducing (or increasing) the radius of rotation.

ガルバノスキャナ42は、互いに直交する方向に測定光LMを走査するように構成されているので、測定光LMをx方向およびy方向にそれぞれ独立に走査できる。さらに、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って測定光LMを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。   Since the galvano scanner 42 is configured to scan the measurement light LM in directions orthogonal to each other, the measurement light LM can be scanned independently in the x direction and the y direction, respectively. Furthermore, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, it is possible to scan the measurement light LM along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.

上記のような態様で測定光LMを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断面像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。   By scanning the measurement light LM in the above-described manner, a cross-sectional image on a plane stretched by the direction along the scanning line (scanning locus) and the fundus depth direction (z direction) can be acquired. In addition, the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.

上記のような測定光LMの走査対象となる眼底Ef上の領域、つまりOCT計測の対象となる眼底Ef上の領域を走査領域と呼ぶことがある。3次元スキャンにおける走査領域は、複数の横スキャンが配列された矩形の領域である。また、同心円スキャンにおける走査領域は、最大径の円スキャンの軌跡により囲まれる円盤状の領域である。また、放射スキャンにおける走査領域は、各スキャンラインの両端位置を結んだ円盤状(或いは多角形状)の領域である。   The region on the fundus oculi Ef to be scanned with the measurement light LM as described above, that is, the region on the fundus oculi Ef to be subjected to OCT measurement may be referred to as a scanning region. The scanning area in the three-dimensional scan is a rectangular area in which a plurality of horizontal scans are arranged. The scanning area in the concentric scan is a disk-shaped area surrounded by the locus of the circular scan with the maximum diameter. In addition, the scanning area in the radial scan is a disk-shaped (or polygonal) area connecting both end positions of each scan line.

[動作]
眼科観察装置1の動作について説明する。図4は、眼科観察装置1の動作の一例を表す。本動作例では、被検眼Eの後眼部(たとえば眼底Ef)の予備的なOCT計測により取得される正面断面像に基づいて、本計測の対象となる断面位置を指定する場合について説明する。なお、本動作例においては、アライメント、フォーカシングおよびトラッキングは、被検眼Eの観察画像に基づき実行される。これら動作のうち1つ以上がOCT画像に基づき実行される場合については後述する。
[Operation]
The operation of the ophthalmologic observation apparatus 1 will be described. FIG. 4 shows an example of the operation of the ophthalmologic observation apparatus 1. In this operation example, a case will be described in which a cross-sectional position to be subjected to the main measurement is designated based on a front cross-sectional image acquired by preliminary OCT measurement of the posterior segment of the eye E (for example, the fundus oculi Ef). In this operation example, alignment, focusing, and tracking are executed based on the observation image of the eye E. The case where one or more of these operations are executed based on the OCT image will be described later.

(S1:近赤外観察画像の取得を開始する)
まず、主制御部211は、観察光源11の点灯を開始する。観察光源11から出力された観察照明光は、可視カットフィルタ14により近赤外光となる。観察照明光は眼底Efに連続的に照射され、その戻り光はCCDイメージセンサ35により所定のレートで検出される。主制御部211は、CCDイメージセンサ35から所定のレートで入力される検出信号に基づいて、眼底Efの動画像(近赤外観察画像)を表示部241に表示させる。近赤外観察画像は、たとえば観察光源11が消灯されるまでリアルタイムで取得される。
(S1: Start acquisition of near-infrared observation image)
First, the main control unit 211 starts lighting the observation light source 11. The observation illumination light output from the observation light source 11 becomes near infrared light by the visible cut filter 14. The observation illumination light is continuously applied to the fundus oculi Ef, and the return light is detected by the CCD image sensor 35 at a predetermined rate. The main control unit 211 causes the display unit 241 to display a moving image (near-infrared observation image) of the fundus oculi Ef based on a detection signal input from the CCD image sensor 35 at a predetermined rate. The near-infrared observation image is acquired in real time until the observation light source 11 is turned off, for example.

主制御部211は、所定のタイミングで被検眼Eに固視標を投影させる。被検者は、固視標を凝視するように指示を受ける。また、主制御部211は、アライメント指標とスプリット指標とを所定のタイミングで眼底Efに投影させる。なお、これら指標の投影タイミングは同じでも異なってもよい。これら指標の投影が開始された後には、アライメント指標像とスプリット指標像とが近赤外観察画像に映り込む。   The main control unit 211 projects a fixation target onto the eye E at a predetermined timing. The subject is instructed to stare at the fixation target. Further, the main control unit 211 projects the alignment index and the split index onto the fundus oculi Ef at a predetermined timing. Note that the projection timings of these indices may be the same or different. After the projection of these indices is started, the alignment index image and the split index image are reflected in the near-infrared observation image.

(S2:アライメントとフォーカシングを行う)
次に、アライメントとフォーカシングが実行される。これら処理は、従来と同様に、手動によりまたは自動で実行される。
(S2: Perform alignment and focusing)
Next, alignment and focusing are performed. These processes are executed manually or automatically as in the conventional case.

マニュアルアライメントの場合、ユーザは、表示部241に表示されている一対のアライメント指標像と、所定のターゲット位置を示すマークとを参照しつつ、一対のアライメント指標像をターゲットマークの位置に誘導するように、操作部242を介して装置光学系を移動させる。装置光学系の移動は、操作部242から操作信号を受けた主制御部211が光学系駆動部2Aを制御することにより実行される。   In the case of manual alignment, the user guides the pair of alignment index images to the position of the target mark while referring to the pair of alignment index images displayed on the display unit 241 and the mark indicating the predetermined target position. Then, the optical system of the apparatus is moved via the operation unit 242. The movement of the apparatus optical system is executed by the main control unit 211 receiving the operation signal from the operation unit 242 controlling the optical system driving unit 2A.

オートアライメントの場合、たとえば次の処理が実行される。
・近赤外観察画像を解析して一対のアライメント指標像の位置を求める。
・求められた一対のアライメント指標像の位置と所定のターゲット位置との間の変位を求める。
・求められた変位がキャンセルされるように光学系駆動部2Aを制御して装置光学系を移動させる。
In the case of auto alignment, for example, the following processing is executed.
-Analyze the near-infrared observation image to determine the position of the pair of alignment index images.
A displacement between the position of the obtained pair of alignment index images and a predetermined target position is obtained.
The optical system drive unit 2A is controlled to move the apparatus optical system so that the obtained displacement is cancelled.

マニュアルフォーカスの場合、ユーザは、表示部241に表示されている一対のスプリット指標像を参照しつつ、一対のスプリット指標像が所定の位置関係に配置されるように(たとえば一列に配置されるように)、操作部242を介して合焦レンズ31を移動させる。合焦レンズ31の移動は、操作部242から操作信号を受けた主制御部211が合焦駆動部31Aを制御することにより実行される。   In the case of manual focus, the user refers to the pair of split index images displayed on the display unit 241 so that the pair of split index images are arranged in a predetermined positional relationship (for example, arranged in a line). 2), the focusing lens 31 is moved via the operation unit 242. The movement of the focusing lens 31 is executed by the main control unit 211 receiving the operation signal from the operation unit 242 controlling the focusing drive unit 31A.

オートフォーカスの場合、たとえば次の処理が実行される。
・近赤外観察画像を解析して一対のスプリット指標像の位置を求める。
・求められた一対のスプリット指標像の位置と所定の位置関係との間の変位を求める。
・求められた変位がキャンセルされるように合焦駆動部31Aを制御して合焦レンズ31を移動させる。
In the case of autofocus, for example, the following processing is executed.
-Analyze the near-infrared observation image to determine the position of the pair of split index images.
A displacement between the position of the obtained pair of split index images and a predetermined positional relationship is obtained.
The focus driving unit 31A is controlled to move the focusing lens 31 so that the obtained displacement is canceled.

(S3:トラッキングを開始する)
アライメントとフォーカシングが完了したら、主制御部211は、従来と同様のトラッキング動作を開始させる。トラッキングにおいては、たとえば次の処理が繰り返し実行される。
・近赤外観察画像のフレームを解析し、被検眼Eの特徴部位(たとえば、前眼部像においては瞳孔中心、眼底像においては黄斑中心や乳頭中心や病変部の中心)に相当する特徴領域の位置を求める。
・今回求められた特徴領域の位置と、前回の処理で求められた特徴領域の位置との間の変位を求める。
・求められた変位がキャンセルされるように光学系駆動部2Aを制御して装置光学系を移動させる。
(S3: Start tracking)
When the alignment and focusing are completed, the main control unit 211 starts a tracking operation similar to the conventional one. In tracking, for example, the following processing is repeatedly executed.
Analyzing the frame of the near-infrared observation image, and a characteristic region corresponding to a characteristic part of the eye E (for example, the center of the pupil in the anterior segment image and the center of the macular, nipple, or lesion in the fundus image) Find the position of.
The displacement between the position of the feature area obtained this time and the position of the feature area obtained in the previous process is obtained.
The optical system drive unit 2A is controlled to move the apparatus optical system so that the obtained displacement is cancelled.

(S4:ライブOCT計測を開始する)
主制御部211は、OCTユニット100やガルバノスキャナ42を制御することにより、ライブOCT計測を開始させる。ライブOCT計測とは、所定のスキャンパターンによるOCT計測を所定のレートで繰り返し行うことにより、OCT動画像をリアルタイムで取得する処理を示す。
(S4: Start live OCT measurement)
The main control unit 211 starts live OCT measurement by controlling the OCT unit 100 and the galvano scanner 42. Live OCT measurement refers to processing for acquiring an OCT moving image in real time by repeatedly performing OCT measurement with a predetermined scan pattern at a predetermined rate.

本動作例では、スキャンパターンとして3次元スキャンが適用される。スキャンされる被検眼E(眼底Ef)の領域は、固視標の投影位置と、スキャンパターンの輪郭形状およびサイズとにより決定される。これら条件は任意に設定される。なお、固視標の投影位置としては、前述したように、黄斑計測用固視位置、乳頭計測用固視位置、広範囲計測用固視位置などがある。   In this operation example, a three-dimensional scan is applied as a scan pattern. The region of the eye E (fundus Ef) to be scanned is determined by the projection position of the fixation target and the contour shape and size of the scan pattern. These conditions are arbitrarily set. As described above, the fixation target projection position includes a macular measurement fixation position, a nipple measurement fixation position, a wide-range measurement fixation position, and the like.

(S5:ライブ正面断面像の表示を開始する)
画像形成部220は、ステップS4のライブOCT計測においてCCDイメージセンサ115から所定のレートで入力される検出信号に基づいて、Bスキャン像を逐次に形成する。主制御部211は、たとえば、1回の3次元スキャンに相当する複数のBスキャン像を逐次に3次元画像形成部231に送る。
(S5: Start displaying the live front sectional image)
The image forming unit 220 sequentially forms B scan images based on the detection signals input at a predetermined rate from the CCD image sensor 115 in the live OCT measurement in step S4. For example, the main control unit 211 sequentially sends a plurality of B scan images corresponding to one 3D scan to the 3D image forming unit 231.

3次元画像形成部231は、1回の3次元スキャンに相当する複数のBスキャン像に基づいて、当該3次元スキャンに対応する3次元画像データを形成する。3次元画像形成部231により逐次に形成された3次元画像データは、断面像形成部232に逐次に送られる。   The three-dimensional image forming unit 231 forms three-dimensional image data corresponding to the three-dimensional scan based on a plurality of B scan images corresponding to one three-dimensional scan. The three-dimensional image data sequentially formed by the three-dimensional image forming unit 231 is sequentially sent to the cross-sectional image forming unit 232.

断面像形成部232は、3次元画像形成部231により形成された各3次元画像データに基づいて、あらかじめ設定された断面における正面断面像を形成する。この断面は、たとえば視細胞内節外節接合部(IS/OS)や網膜色素上皮(RPE)や内境界膜(ILM、眼底表面)のように、ユーザが特に注目する組織に対して設定されてよい。断面像形成部232により逐次に形成された正面断面像は、表示制御部2111に逐次に送られる。   The cross-sectional image forming unit 232 forms a front cross-sectional image in a preset cross section based on each three-dimensional image data formed by the three-dimensional image forming unit 231. This cross section is set for a tissue that a user particularly pays attention to, such as a photoreceptor inner / outer segment junction (IS / OS), a retinal pigment epithelium (RPE), and an inner limiting membrane (ILM, fundus surface). It's okay. The front sectional images sequentially formed by the sectional image forming unit 232 are sequentially sent to the display control unit 2111.

表示制御部2111は、断面像形成部232により逐次に形成された正面断面像を所定のレートで表示部241に表示させる。それにより、上記断面を表すライブ動画像が表示される。なお、ステップS3で開始されたトラッキングが継続されているので、被検眼Eのほぼ同一の領域の正面断面像が動画表示される。   The display control unit 2111 causes the display unit 241 to display the front cross-sectional images sequentially formed by the cross-sectional image forming unit 232 at a predetermined rate. Thereby, a live moving image representing the cross section is displayed. Since the tracking started in step S3 is continued, a front cross-sectional image of substantially the same region of the eye E is displayed as a moving image.

このステップにおいて、OCT計測が行われる深さ範囲の調整や、測定光LMの焦点位置の調整を、必要に応じて行うことができる。   In this step, the adjustment of the depth range in which the OCT measurement is performed and the adjustment of the focus position of the measurement light LM can be performed as necessary.

深さ範囲の調整は、たとえば画像処理部230および主制御部211により次のようにして実行される。
・逐次に取得されるBスキャン像や3次元画像データを解析して、被検眼Eの所定の部位(たとえばIS/OSやRPEやILMのようにOCT画像において明瞭に表現される部位)が描画されているフレーム中の深さ位置(z座標値)を求める。
・求められた深さ位置と、所定のターゲット深さ位置との間の変位を求める。
・求められた変位がキャンセルされるように光路長変更部41を制御することにより、測定光LMと参照光LRとの間の光路長差を調整する。
なお、Bスキャン像等を動画表示させることにより、この調整処理を手動で行うことも可能である。
The adjustment of the depth range is executed by the image processing unit 230 and the main control unit 211 as follows, for example.
-Analyzing sequentially acquired B-scan images and three-dimensional image data to draw a predetermined part of the eye E (for example, a part that is clearly expressed in an OCT image such as IS / OS, RPE, or ILM) The depth position (z coordinate value) in the frame being obtained is obtained.
The displacement between the obtained depth position and a predetermined target depth position is obtained.
-The optical path length difference between the measurement light LM and the reference light LR is adjusted by controlling the optical path length changing unit 41 so that the obtained displacement is canceled.
Note that this adjustment process can also be performed manually by displaying a B-scan image or the like as a moving image.

測定光LMの焦点位置の調整は、たとえば画像処理部230および主制御部211により次のようにして実行される。
・逐次に取得されるBスキャン像や3次元画像データや正面断面像を解析して、注目部位(IS/OS、RPE、ILMなど)の画質を示す評価値を求める。この処理は、さらに、注目部位以外の部位(たとえば注目部位の近傍部位)の画質を示す評価値を求めてもよい。
・注目部位について求められた画質の評価値が所定の閾値以上であるか判定する。なお、注目部位以外の部位についても画質の評価値が求められた場合には、注目部位についての評価値が注目部位以外についての評価値よりも良好であるか判定するようにしてよい。
・注目部位についての評価値が上記閾値以上になるように、OCT合焦駆動部43Aを制御して合焦レンズ43の位置を調整する。なお、注目部位以外の部位についても評価値が求められた場合には、注目部位についての評価値が注目部位以外についての評価値よりも良好になるように、OCT合焦駆動部43Aを制御して合焦レンズ43の位置を調整するようにしてよい。
The adjustment of the focus position of the measurement light LM is executed as follows by the image processing unit 230 and the main control unit 211, for example.
Analyzing B-scan images, three-dimensional image data, and front cross-sectional images acquired sequentially to obtain an evaluation value indicating the image quality of the site of interest (IS / OS, RPE, ILM, etc.). In this process, an evaluation value indicating the image quality of a part other than the target part (for example, a part near the target part) may be obtained.
It is determined whether the image quality evaluation value obtained for the target region is equal to or greater than a predetermined threshold. In addition, when the evaluation value of image quality is obtained for a part other than the target part, it may be determined whether the evaluation value for the target part is better than the evaluation value for the part other than the target part.
The position of the focusing lens 43 is adjusted by controlling the OCT focusing drive unit 43A so that the evaluation value for the target region is equal to or greater than the threshold value. In addition, when the evaluation value is obtained for a part other than the target part, the OCT focusing drive unit 43A is controlled so that the evaluation value for the target part is better than the evaluation value for the part other than the target part. Thus, the position of the focusing lens 43 may be adjusted.

(S6:ライブ正面断面像をフリーズする)
ユーザは、操作部242を介して、動画像として表示されている正面断面像をフリーズさせるための所定の操作を行う。主制御部211は、この操作に対応する信号を操作部242から受けて、正面断面像の表示態様を動画表示から静止画表示に切り替える。この静止画は、たとえば、上記操作のタイミングにおいて表示されているフレームである。
(S6: Freeze live front cross-sectional image)
The user performs a predetermined operation for freezing the front cross-sectional image displayed as a moving image via the operation unit 242. The main control unit 211 receives a signal corresponding to this operation from the operation unit 242, and switches the display mode of the front sectional image from the moving image display to the still image display. This still image is, for example, a frame displayed at the timing of the above operation.

(S7:ユーザが断面位置を指定する)
ユーザは、ステップS6において静止画として表示された正面断面像に対し、操作部242を介して断面位置を指定する。この操作は、たとえば、マウス等のポインティングデバイスを用いて、正面断面像中の領域を指定することにより行われる。また、表示制御部2111が断面の形状を示すマークを正面断面像上に表示させ、このマークの位置や向きをユーザが任意に変更することによって断面位置を指定するように構成することも可能である。
(S7: The user specifies the cross-sectional position)
The user designates a cross-sectional position via the operation unit 242 for the front cross-sectional image displayed as a still image in step S6. This operation is performed, for example, by designating a region in the front sectional image using a pointing device such as a mouse. The display control unit 2111 can also be configured to display a mark indicating the cross-sectional shape on the front cross-sectional image and to specify the cross-sectional position by arbitrarily changing the position and orientation of the mark by the user. is there.

計測制御部2112は、指定された断面位置を示す情報(断面位置情報)を記憶部212に記憶させる。この断面位置情報は、たとえば、図1に示すxyz座標系の座標や、Bスキャン像における座標、或いは3次元座標データにおける座標を用いて表現される。   The measurement control unit 2112 causes the storage unit 212 to store information indicating the designated cross-sectional position (cross-sectional position information). The cross-sectional position information is expressed using, for example, coordinates in the xyz coordinate system shown in FIG. 1, coordinates in a B scan image, or coordinates in three-dimensional coordinate data.

正面断面像に対して指定された断面位置の態様を図5Aに示す。ステップS6において、深さ位置z=z0における正面断面像H0が静止画表示されたとする。また、正面断面像H0には、病変部A0が描出されているとする。病変部A0は、たとえば、IS/OSやRPEが欠損している部位、または網膜表面(ILM)が剥離している部位などである。符号B0は、病変部A0を通過するように設定された断面位置を示す。この断面位置B0は線分として設定されている。図5B中の符号Bは、指定された断面位置B0に対応する3次元画像データV中の2次元断面を示す。以下の処理では、この2次元断面Bを画像化するためのOCT計測が実行される。   FIG. 5A shows an aspect of the cross-sectional position designated for the front cross-sectional image. Assume that the front cross-sectional image H0 at the depth position z = z0 is displayed as a still image in step S6. Further, it is assumed that a lesion A0 is depicted in the front sectional image H0. The lesion A0 is, for example, a site where IS / OS or RPE is missing, or a site where the retina surface (ILM) is peeled off. A symbol B0 indicates a cross-sectional position set so as to pass through the lesion A0. This cross-sectional position B0 is set as a line segment. A symbol B in FIG. 5B indicates a two-dimensional section in the three-dimensional image data V corresponding to the designated section position B0. In the following processing, OCT measurement for imaging the two-dimensional section B is executed.

計測制御部2112は、指定された断面位置を示す情報(断面位置情報)を取得する。取得された断面位置情報は、たとえば記憶部212に記憶させる。断面位置情報は、たとえば、(1)図1に示すxyz座標系の座標、(2)正面断面像若しくは3次元画像データにおける座標、(3)ステップS4のライブOCT計測における測定光LMの照射位置を示す情報のうち、いずれかを含んでいてよい。なお、(1)〜(3)に示す情報は互いに変換可能なパラメータであり、実質的に等価な情報である。   The measurement control unit 2112 acquires information (cross-section position information) indicating the designated cross-section position. The acquired cross-sectional position information is stored in the storage unit 212, for example. The cross-sectional position information includes, for example, (1) coordinates in the xyz coordinate system shown in FIG. 1, (2) coordinates in the front cross-sectional image or three-dimensional image data, and (3) irradiation position of the measurement light LM in the live OCT measurement in step S4. May be included among the information which shows. The information shown in (1) to (3) is a parameter that can be converted to each other, and is substantially equivalent information.

(S8:診断のためのOCT計測を行う)
計測制御部2112は、ステップS7で取得された断面位置情報に基づいてOCTユニット100やガルバノスキャナ42を制御することにより、ユーザにより指定された断面に対するOCT計測を実行させる。
(S8: Perform OCT measurement for diagnosis)
The measurement control unit 2112 controls the OCT unit 100 and the galvano scanner 42 based on the cross-sectional position information acquired in step S7, thereby executing OCT measurement for the cross-section specified by the user.

このOCT計測の態様を図5Cに示す。符号Hは、図5Aに示す正面断面像H0に相当する眼底Efの表面領域、つまり図5Bに示す3次元画像データVを正面から見たときの眼底Efの表面領域(+z方向を視線方向として3次元画像データVを見たときの領域)を表す。符号Aは、深さ位置z=z0における病変部A0をz方向に沿って眼底Efの表面に投影した領域を表す。符号Lは、図5Aに示す断面位置B0をz方向に沿って眼底Efの表面に投影した領域、つまり図5Bに示す2次元断面Bと眼底Efの表面との共通領域を表す。   A mode of this OCT measurement is shown in FIG. 5C. Reference numeral H denotes a surface area of the fundus oculi Ef corresponding to the front cross-sectional image H0 shown in FIG. 5A, that is, the surface area of the fundus oculi Ef when the three-dimensional image data V shown in FIG. Region when viewing the three-dimensional image data V). Symbol A represents a region obtained by projecting the lesion A0 at the depth position z = z0 onto the surface of the fundus oculi Ef along the z direction. A symbol L represents a region obtained by projecting the cross-sectional position B0 illustrated in FIG. 5A onto the surface of the fundus oculi Ef along the z direction, that is, a common region between the two-dimensional cross section B illustrated in FIG. 5B and the surface of the fundus oculi Ef.

このステップのOCT計測により取得されたOCT画像は、たとえば表示制御部2111により表示部241に表示され、かつ、主制御部211により記憶部212に記憶される。   The OCT image acquired by the OCT measurement in this step is displayed on the display unit 241 by the display control unit 2111 and stored in the storage unit 212 by the main control unit 211, for example.

このステップのOCT計測において、ステップS4のライブOCT計測よりもスキャン間隔(測定光LMの照射位置の間隔)を密に設定するなどして、より高精細の画像を取得するようにしてよい。   In the OCT measurement of this step, a higher-definition image may be acquired by setting the scan interval (interval of the irradiation position of the measurement light LM) more densely than the live OCT measurement of step S4.

また、固視標の投影位置はステップS1から変更されていないため、ステップS7で取得された断面位置情報にしたがってガルバノスキャナ42を制御すれば、ユーザにより指定された断面位置を実質的に再現することができる。なお、ステップS7からステップS8の間に固視位置を変更する場合には、それに対応する変位を考慮して断面位置情報を変更してからガルバノスキャナ42を制御するように構成できる。   Further, since the projection position of the fixation target has not been changed from step S1, if the galvano scanner 42 is controlled according to the cross-section position information acquired in step S7, the cross-section position designated by the user is substantially reproduced. be able to. In addition, when changing a fixation position between step S7 and step S8, it can comprise so that the galvano scanner 42 may be controlled after changing cross-sectional position information in consideration of the displacement corresponding to it.

このステップのOCT計測の態様を図5Cに示す。符号Hは、図5Aに示す正面断面像H0に相当する眼底Efの表面領域、つまり図5Bに示す3次元画像データVを正面から見たときの眼底Efの表面領域(+z方向を視線方向として3次元画像データVを見たときの領域)を表す。符号Aは、深さ位置z=z0における病変部A0をz方向に沿って眼底Efの表面に投影した領域を表す。符号Lは、図5Aに示す断面位置B0をz方向に沿って眼底Efの表面に投影した領域、つまり図5Bに示す2次元断面Bと眼底Efの表面との共通領域を表す。よって、このOCT計測によれば、(固視が適正に行われている限りにおいて)ステップS7でユーザが指定した断面位置を実質的に再現することが可能である。   An aspect of OCT measurement in this step is shown in FIG. 5C. Reference numeral H denotes a surface area of the fundus oculi Ef corresponding to the front cross-sectional image H0 shown in FIG. 5A, that is, the surface area of the fundus oculi Ef when the three-dimensional image data V shown in FIG. Region when viewing the three-dimensional image data V). Symbol A represents a region obtained by projecting the lesion A0 at the depth position z = z0 onto the surface of the fundus oculi Ef along the z direction. A symbol L represents a region obtained by projecting the cross-sectional position B0 illustrated in FIG. 5A onto the surface of the fundus oculi Ef along the z direction, that is, a common region between the two-dimensional cross section B illustrated in FIG. 5B and the surface of the fundus oculi Ef. Therefore, according to this OCT measurement, it is possible to substantially reproduce the cross-sectional position designated by the user in step S7 (as long as the fixation is properly performed).

[変形例]
上記動作例では、断面位置の指定を手動で行っているが、この処理を自動化することが可能である。この自動処理が適用される場合、画像処理部230は、図示しない断面位置指定部を有する。断面位置指定部は、ステップS5で表示が開始されたライブ正面断面像のフレームを解析することにより、このフレーム中の特徴領域を特定する。この特徴領域としては、被検眼Eの所定部位(視神経乳頭、黄斑、血管など)や、病変部や、治療済みの部位などがある。この解析処理は、たとえば、フレームの画素値(輝度値)を解析する処理や、フレームに描画されている組織等の形状を解析する処理(パターンマッチングなど)を含む。断面位置指定部は、さらに、特定された特徴領域中の特徴点を特定する。この特徴点は、たとえば、特徴領域の中心位置、重心位置、エッジ上の位置などがある。指定される断面が方向性を有する場合(たとえば2次元断面が設定される場合)、断面位置指定部は、断面の向きを設定する処理を含む。指定される方向は、あらかじめ決められた方向でもよいし(たとえばx方向、y方向など)、フレームや特徴領域の解析により求められた方向でもよい。前者の場合、デフォルトの方向を示す情報がたとえば記憶部212にあらかじめ記憶される。このデフォルトの方向をユーザが任意に変更できるように構成されてもよい。後者の場合、断面位置指定部は、たとえば特徴領域中の2以上の特徴点を求め、これら特徴点を含むように(たとえば2つの特徴点を通過するように)断面位置を設定することが可能である。また、断面位置指定部は、特徴領域の輪郭を求め、この輪郭の特性に基づいて断面位置を指定するように構成されてもよい。その具体例として、特徴領域の輪郭において径が最大となる方向を断面の方向として設定することができる。また、正面断面像は3次元画像データから形成されるので、3次元画像データにおいて正面断面像以外の画像領域も考慮して断面位置を指定することも可能である。
[Modification]
In the above operation example, the designation of the cross-sectional position is performed manually, but this process can be automated. When this automatic processing is applied, the image processing unit 230 has a cross-sectional position designation unit (not shown). The cross-section position specifying unit identifies the feature region in this frame by analyzing the frame of the live front cross-sectional image whose display is started in step S5. As this characteristic region, there are a predetermined part (optic nerve head, macular, blood vessel, etc.) of the eye E, a lesioned part, a treated part, and the like. This analysis process includes, for example, a process of analyzing a pixel value (luminance value) of a frame and a process of analyzing the shape of a tissue or the like drawn on the frame (pattern matching). The cross-sectional position specifying unit further specifies a feature point in the specified feature region. The feature points include, for example, the center position of the feature area, the center of gravity position, and the position on the edge. When the designated cross section has directionality (for example, when a two-dimensional cross section is set), the cross section position designating unit includes a process of setting the direction of the cross section. The specified direction may be a predetermined direction (for example, the x direction, the y direction, or the like), or may be a direction obtained by analysis of a frame or a feature region. In the former case, information indicating the default direction is stored in advance in the storage unit 212, for example. You may comprise so that a user can change this default direction arbitrarily. In the latter case, for example, the cross-section position designating unit obtains two or more feature points in the feature region, and can set the cross-section position so as to include these feature points (for example, pass through two feature points). It is. In addition, the cross-section position designation unit may be configured to obtain the contour of the feature region and designate the cross-section position based on the characteristics of the contour. As a specific example, the direction in which the diameter is maximum in the outline of the feature region can be set as the direction of the cross section. Further, since the front cross-sectional image is formed from three-dimensional image data, the cross-sectional position can be specified in consideration of image regions other than the front cross-sectional image in the three-dimensional image data.

前述したように、アライメント、フォーカシングおよびトラッキングのうち少なくとも1つの処理を、OCT画像に基づいて実行することが可能である。このOCT画像は、たとえば正面断面像(動画像または静止画像)であってよい。このような構成については、第2および第3の実施形態で説明する。   As described above, at least one of alignment, focusing, and tracking can be executed based on the OCT image. This OCT image may be, for example, a front sectional image (moving image or still image). Such a configuration will be described in the second and third embodiments.

ステップS5において表示が開始されるライブ正面断面像は1つには限定されず、2以上であってもよい。その場合、断面像形成部232は、3次元画像形成部231により形成された各3次元画像データから、深さ位置(z座標値)が異なるn個の断面(第i断面:i=1〜n)に対応するn個の正面断面像を形成する。表示制御部2111は、断面像形成部232により第1断面〜第n断面に相当するn個の正面断面像をそれぞれ動画表示させる。n個の正面断面像の表示態様は、これらを配列して表示する態様には限定されず、これらを切り替えて表示する態様であってもよい。その場合、表示制御部2111は、たとえば、第1断面〜第n断面を示す情報を表示部241に表示させる。この情報は、各断面を示す文字列情報でもよいし、各断面を示す画像情報でもよい。文字列情報の表示例として、各断面に相当する組織名を選択可能に提示することができる。また、画像情報の表示例として、3次元画像データの形状を示す立体画像(たとえば直方体状の模式図、3次元画像データに基づくレンダリング画像など)を提示し、かつ、この立体画像上に断面位置を示す画像を提示することができる。2以上の正面断面像を表示させる場合、そのうちの1つは眼底表面(ILM)を表す正面断面像であってよい。これは、眼底カメラユニット2のように眼底表面を写真撮影する機能が設けられていない場合などにおいて有効である。   The live front cross-sectional image whose display is started in step S5 is not limited to one, and may be two or more. In this case, the cross-sectional image forming unit 232 includes n cross-sections (i-th cross-section: i = 1 to 2) having different depth positions (z coordinate values) from each three-dimensional image data formed by the three-dimensional image forming unit 231. n front sectional images corresponding to n) are formed. The display control unit 2111 causes the cross-sectional image forming unit 232 to display moving images of n front cross-sectional images corresponding to the first to n-th cross sections. The display mode of the n front cross-sectional images is not limited to a mode in which these are arranged and displayed, and a mode in which these are switched and displayed may be used. In this case, the display control unit 2111 causes the display unit 241 to display information indicating the first cross section to the n th cross section, for example. This information may be character string information indicating each cross section or image information indicating each cross section. As a display example of character string information, a tissue name corresponding to each cross section can be presented in a selectable manner. Further, as a display example of the image information, a stereoscopic image (for example, a rectangular parallelepiped schematic diagram, a rendering image based on the three-dimensional image data, etc.) indicating the shape of the three-dimensional image data is presented, and a cross-sectional position is displayed on the stereoscopic image. The image which shows can be shown. When displaying two or more front cross-sectional images, one of them may be a front cross-sectional image representing the fundus surface (ILM). This is effective when a function for taking a photograph of the fundus surface is not provided as in the fundus camera unit 2.

[効果]
この実施形態に係る眼科観察装置の効果について説明する。
[effect]
The effect of the ophthalmologic observation apparatus according to this embodiment will be described.

この実施形態に係る眼科観察装置は、OCT計測を行うための光学系を有する。この光学系は、少なくとも、光源(光源ユニット101)と、この光源から出力された光を測定光と参照光とに分割するための光学素子(ファイバカプラ103)と、被検眼を測定光でスキャンするための光スキャナ(ガルバノスキャナ42)と、被検眼からの測定光の戻り光と参照光とを干渉させるための光学素子(ファイバカプラ109)と、この光学素子により得られた干渉光を検出する光検出器(CCDイメージセンサ115)とを含む。   The ophthalmologic observation apparatus according to this embodiment has an optical system for performing OCT measurement. This optical system includes at least a light source (light source unit 101), an optical element (fiber coupler 103) for splitting light output from the light source into measurement light and reference light, and scanning the eye to be examined with measurement light. Optical scanner (galvano scanner 42), optical element (fiber coupler 109) for causing the return light of the measurement light from the subject's eye to interfere with the reference light, and the interference light obtained by this optical element is detected And a photodetector (CCD image sensor 115).

さらに、この実施形態に係る眼科観察装置は、3次元画像取得部(画像形成部220および3次元画像形成部231)と、断面像形成部(断面像形成部232)と、表示制御部(表示制御部2111)と、計測制御部(計測制御部2112)とを有する。光学系は、被検眼の3次元領域に対するOCT計測を繰り返し行う。3次元画像取得部は、この反復的なOCT計測において光学系が逐次に取得したデータに基づいて、被検眼の3次元画像を逐次に取得する。断面像形成部は、3次元画像取得部により逐次に取得された3次元画像に基づいて、正面断面像を逐次に形成する。表示制御部は、断面像形成部により逐次に形成された正面断面像を表示手段に動画表示させる。計測制御部は、表示手段に表示されている正面断面像に対し操作手段を介して指定された断面位置に対するOCT計測を光学系に実行させる。   Furthermore, the ophthalmologic observation apparatus according to this embodiment includes a three-dimensional image acquisition unit (image forming unit 220 and three-dimensional image forming unit 231), a cross-sectional image forming unit (cross-sectional image forming unit 232), and a display control unit (display). A control unit 2111) and a measurement control unit (measurement control unit 2112). The optical system repeatedly performs OCT measurement on the three-dimensional region of the eye to be examined. The three-dimensional image acquisition unit sequentially acquires a three-dimensional image of the eye to be examined based on data sequentially acquired by the optical system in this repetitive OCT measurement. The cross-sectional image forming unit sequentially forms front cross-sectional images based on the three-dimensional images sequentially acquired by the three-dimensional image acquisition unit. The display control unit causes the display unit to display a moving image of the front cross-sectional image sequentially formed by the cross-sectional image forming unit. The measurement control unit causes the optical system to perform OCT measurement for the cross-sectional position designated via the operation unit with respect to the front cross-sectional image displayed on the display unit.

なお、表示手段は、眼科観察装置の一部であってもよいし(表示部241)、その外部に設けられていてもよい。同様に、操作手段は、眼科観察装置の一部であってもよいし(操作部242)、その外部に設けられていてもよい。   The display means may be a part of the ophthalmic observation apparatus (display unit 241) or may be provided outside the display unit. Similarly, the operation means may be a part of the ophthalmologic observation apparatus (operation unit 242) or may be provided outside the operation means.

このような眼科観察装置によれば、(予備的)OCT計測により取得された被検眼の正面断面像を用いて断面位置の設定を行うことができ、さらに、設定された断面位置のOCT計測を実行することが可能である。   According to such an ophthalmologic observation apparatus, it is possible to set the cross-sectional position using the front cross-sectional image of the eye to be examined acquired by (preliminary) OCT measurement, and to perform OCT measurement of the set cross-sectional position. It is possible to execute.

表示制御部は、操作手段を介して所定の操作が行われたことに対応し、正面断面像の表示態様を動画表示から静止画表示に切り替えるように構成されてよい。つまり、表示制御部は、動画像のフリーズ表示を行えるように構成されてよい。この場合、静止画表示されている正面断面像に対して断面位置の指定を行うことが可能である。この構成によれば、正面断面像に断面位置を指定する操作の容易化を図ることができる。   The display control unit may be configured to switch the display mode of the front cross-sectional image from the moving image display to the still image display in response to a predetermined operation being performed via the operation unit. That is, the display control unit may be configured to perform a freeze display of a moving image. In this case, it is possible to specify the cross-sectional position for the front cross-sectional image displayed as a still image. According to this configuration, it is possible to facilitate the operation of specifying the cross-sectional position in the front cross-sectional image.

断面像形成部は、正面断面像として、あらかじめ設定された被検眼の深さ位置を断面とする画像を形成するように構成されてよい。この場合において、あらかじめ設定された被検眼の深さ位置は、視細胞内節外節接合部(IS/OS)に相当する深さ位置、および、網膜色素上皮(RPE)に相当する深さ位置のうち、少なくとも一方を含んでいてよい。或いは、あらかじめ設定された被検眼の深さ位置は、眼底表面よりも角膜側の深さ位置を含んでいてよい。この場合、眼底表面よりも角膜側の深さ位置は、硝子体における所定の深さ位置(たとえば眼底表面から所定距離だけ角膜側の位置)、および、網膜からの剥離組織における所定の深さ位置(たとえば、剥離したILMにおいて、眼底表面から所定距離だけ角膜側の位置)のうち、少なくとも一方を含んでいてよい。このような構成の断面像形成部を設けることにより、被検眼の所望の深さ位置(たとえば、或る条件(疾患名など)において特に注目される深さ位置)に相当する正面断面像を容易に観察できる。また、断面位置の指定を好適に行うことが可能である。   The cross-sectional image forming unit may be configured to form an image having a cross-section at a preset depth position of the eye as a front cross-sectional image. In this case, the preset depth position of the eye to be examined is the depth position corresponding to the photoreceptor inner / outer segment junction (IS / OS) and the depth position corresponding to the retinal pigment epithelium (RPE). Of these, at least one of them may be included. Alternatively, the preset depth position of the eye to be examined may include a depth position closer to the cornea than the fundus surface. In this case, the depth position on the cornea side of the fundus surface is a predetermined depth position in the vitreous body (for example, a position on the cornea side by a predetermined distance from the fundus surface) and a predetermined depth position in the exfoliated tissue from the retina. For example, in the peeled ILM, at least one of the corneal side positions from the fundus surface may be included. By providing the cross-sectional image forming section having such a configuration, a front cross-sectional image corresponding to a desired depth position of the eye to be examined (for example, a depth position that is particularly noted under a certain condition (such as a disease name)) can be easily obtained. Can be observed. Moreover, it is possible to suitably specify the cross-sectional position.

〈第2の実施形態〉
この実施形態では、アライメント、フォーカシングおよびトラッキングのうち少なくとも1つの処理をOCT画像に基づいて実行することが可能な眼科観察装置について説明する。
<Second Embodiment>
In this embodiment, an ophthalmic observation apparatus that can execute at least one of alignment, focusing, and tracking based on an OCT image will be described.

[構成]
この実施形態に係る眼科観察装置は、たとえば、第1の実施形態と同様の全体構成および光学系を有する(図1および図2を参照)。この実施形態に係る眼科観察装置の制御系の構成例を図6に示す。なお、図6においてはいくつかの構成要素が省略されている(図3を参照)。以下、第1の実施形態と異なる部分について特に説明を行う。また、以下の説明において、第1の実施形態で用いられた符号が準用される。
[Constitution]
The ophthalmic observation apparatus according to this embodiment has, for example, the same overall configuration and optical system as those of the first embodiment (see FIGS. 1 and 2). A configuration example of the control system of the ophthalmologic observation apparatus according to this embodiment is shown in FIG. In FIG. 6, some components are omitted (see FIG. 3). Hereinafter, a part different from the first embodiment will be particularly described. Moreover, in the following description, the code | symbol used in 1st Embodiment is applied mutatis mutandis.

主制御部211は、第1の実施形態と同様の表示制御部2111および計測制御部2112に加え、アライメント制御部2113と、フォーカス制御部2114と、トラッキング制御部2115とを有する。アライメント制御部2113は、OCT画像(正面断面像)を用いたアライメントに関する制御を行う。フォーカス制御部2114は、正面断面像を用いた測定光のフォーカシングに関する制御を行う。トラッキング制御部2115は、正面断面像を用いた装置光学系のトラッキングに関する制御を行う。これら制御部2113〜2115が実行する処理については後述する。また、この実施形態に係る眼科観察装置は、これら制御部2113〜2115のうち少なくとも1つを有していればよい。   The main control unit 211 includes an alignment control unit 2113, a focus control unit 2114, and a tracking control unit 2115 in addition to the display control unit 2111 and the measurement control unit 2112 that are the same as those in the first embodiment. The alignment control unit 2113 performs control related to the alignment using the OCT image (front sectional image). The focus control unit 2114 performs control related to focusing of the measurement light using the front cross-sectional image. The tracking control unit 2115 performs control related to tracking of the apparatus optical system using the front cross-sectional image. Processing executed by these control units 2113 to 2115 will be described later. Moreover, the ophthalmologic observation apparatus according to this embodiment may have at least one of these control units 2113 to 2115.

画像処理部230は、第1の実施形態と同様の3次元画像形成部231および断面像形成部232に加え、画像変位算出部233と、深さ位置算出部234と、被検眼変位取得部235とを有する。画像変位算出部233は、アライメントにおいて用いられる情報を生成する。深さ位置算出部234は、フォーカシングにおいて使用される情報を生成する。被検眼変位取得部235は、トラッキングにおいて使用される情報を生成する。なお、アライメントにおいて使用される情報とトラッキングにおいて使用される情報とは同種の情報であってよい。その場合、画像変位算出部233と被検眼変位取得部235とを一体的に構成することができる。   The image processing unit 230 includes an image displacement calculation unit 233, a depth position calculation unit 234, and an eye displacement acquisition unit 235 in addition to the three-dimensional image formation unit 231 and the cross-sectional image formation unit 232 that are the same as those in the first embodiment. And have. The image displacement calculation unit 233 generates information used in alignment. The depth position calculation unit 234 generates information used in focusing. The subject eye displacement acquisition unit 235 generates information used in tracking. Note that the information used in alignment and the information used in tracking may be the same type of information. In this case, the image displacement calculation unit 233 and the eye displacement acquisition unit 235 can be configured integrally.

(画像変位算出部)
画像変位算出部233は、断面像形成部232により形成された正面断面像を解析することにより、この正面断面像中の所定位置に対する被検眼Eの所定部位の画像の変位を算出する。この処理は、たとえば次の処理を含む:正面断面像を解析して被検眼Eの所定部位の画像(領域)を特定する処理;特定された画像(または当該画像中の特徴点)と正面断面像の所定位置との間の変位を求める処理。画像変位算出部233は、断面像形成部232により逐次に形成された正面断面像に対して上記処理を逐次に施すように構成されてよい。
(Image displacement calculator)
The image displacement calculation unit 233 analyzes the front cross-sectional image formed by the cross-sectional image forming unit 232 to calculate the displacement of the image of the predetermined part of the eye E with respect to the predetermined position in the front cross-sectional image. This process includes, for example, the following processes: a process of analyzing a front cross-sectional image to specify an image (region) of a predetermined part of the eye E to be examined; a specified image (or a feature point in the image) and a front cross-section A process for obtaining a displacement between a predetermined position of an image. The image displacement calculation unit 233 may be configured to sequentially perform the above processing on the front cross-sectional images sequentially formed by the cross-sectional image forming unit 232.

被検眼Eの所定部位は、あらかじめ設定された部位であり、たとえば被検眼Eの特徴部位(視神経乳頭、黄斑、血管など)や病変部や治療済みの部位である。正面断面像中の所定位置は、あらかじめ設定された位置でもよいし、当該解析処理において設定された位置でもよい。前者の場合の例として、フレーム中の所定位置(たとえば中心位置)がある。後者の場合の例として、順次に取得される複数の正面断面像のうちのいずれかのフレームにおける被検眼Eの特徴部位の画像の描画位置がある。   The predetermined part of the eye E is a predetermined part, for example, a characteristic part of the eye E (optic nerve head, macula, blood vessel, etc.), a lesioned part, or a treated part. The predetermined position in the front sectional image may be a preset position or a position set in the analysis process. As an example of the former case, there is a predetermined position (for example, a center position) in the frame. As an example of the latter case, there is a drawing position of an image of a characteristic part of the eye E in any one of a plurality of front cross-sectional images acquired sequentially.

(深さ位置算出部)
深さ位置算出部234は、断面像形成部232により形成された正面断面像に対応する被検眼Eの深さ位置を算出する。この処理はたとえば次の処理を含む:(1)3次元画像データにおける正面断面像のz座標値を取得する処理;(2)取得されたz座標値に対応する被検眼Eの深さ位置を求める処理。深さ位置算出部234は、断面像形成部232により逐次に形成された正面断面像に対して上記処理を逐次に施すように構成されてよい。
(Depth position calculator)
The depth position calculation unit 234 calculates the depth position of the eye E corresponding to the front cross-sectional image formed by the cross-sectional image forming unit 232. This processing includes, for example, the following processing: (1) Processing for obtaining the z-coordinate value of the front sectional image in the three-dimensional image data; (2) Depth position of the eye E corresponding to the obtained z-coordinate value. The requested process. The depth position calculation unit 234 may be configured to sequentially perform the above processing on the front cross-sectional images sequentially formed by the cross-sectional image forming unit 232.

なお、OCT計測が行われるときの被検眼Eと装置光学系との間の距離(ワーキングディスタンス)は既定されているので、被検眼Eの深さ位置と合焦レンズ43の位置とをあらかじめ対応付けることができる。この対応付けがなされている場合、被検眼Eの深さ位置と合焦レンズ43の位置とが同一視される。つまり、上記(2)の処理は、(1)において取得されたz座標値に対応する合焦レンズ43の位置を求める処理と等価である。   Note that since the distance (working distance) between the eye E and the apparatus optical system when OCT measurement is performed is predetermined, the depth position of the eye E and the position of the focusing lens 43 are associated in advance. be able to. When this association is made, the depth position of the eye E and the position of the focusing lens 43 are identified with each other. That is, the process (2) is equivalent to the process for obtaining the position of the focusing lens 43 corresponding to the z coordinate value acquired in (1).

(1)の処理は、たとえば、3次元画像データから正面断面像を形成する処理において適用されたz座標値(正面断面像が表す断面の座標情報)を断面像形成部232から取得することにより行われる。   In the process (1), for example, the z coordinate value (the coordinate information of the cross section represented by the front cross-sectional image) applied in the process of forming the front cross-sectional image from the three-dimensional image data is acquired from the cross-sectional image forming unit 232. Done.

(2)の処理は、たとえば、(1)の処理において取得されたz座標値(画像データの定義座標系におけるz座標値)を、被検眼Eの深さ位置(実空間におけるz座標値)または合焦レンズ43の位置に換算することにより行われる。   In the process (2), for example, the z coordinate value (z coordinate value in the definition coordinate system of the image data) acquired in the process (1) is used as the depth position of the eye E (z coordinate value in real space). Alternatively, it is performed by converting into the position of the focusing lens 43.

(被検眼変位取得部)
被検眼変位取得部235は、断面像形成部232により逐次に形成された正面断面像を解析することにより、被検眼Eの変位(運動状態)を逐次に取得する。つまり、被検眼変位取得部235は、逐次に取得される正面断面像に基づいて被検眼Eの動きを監視する機能を有する。各正面断面像に対して施される処理は、画像変位算出部233が実行する上記処理と同様であってよい。つまり、被検眼変位取得部235は、たとえば次のような処理を繰り返し実行する。
・正面断面像を解析し、被検眼Eの特徴部位(たとえば、前眼部像においては瞳孔中心、眼底像においては黄斑中心や乳頭中心や病変部の中心)に相当する特徴領域の位置を求める。
・今回求められた特徴領域の位置と、前回の処理で求められた特徴領域の位置との間の変位を求める。
なお、これらの処理は、第1の実施形態のトラッキングで参照される近赤外観察画像を正面断面像に置換したものと言える。
(Eye displacement acquisition unit)
The subject eye displacement acquisition unit 235 sequentially acquires the displacement (motion state) of the eye E by analyzing the front sectional images sequentially formed by the sectional image forming unit 232. That is, the eye displacement acquisition unit 235 has a function of monitoring the movement of the eye E based on the front cross-sectional images acquired sequentially. The process performed on each front cross-sectional image may be the same as the process executed by the image displacement calculation unit 233. In other words, the eye displacement acquisition unit 235 repeatedly executes the following process, for example.
-Analyzing the front cross-sectional image to determine the position of the characteristic region corresponding to the characteristic part of the eye E (for example, the center of the pupil in the anterior segment image and the center of the macula, nipple or lesion in the fundus image) .
The displacement between the position of the feature area obtained this time and the position of the feature area obtained in the previous process is obtained.
In addition, it can be said that these processes replaced the near-infrared observation image referred by the tracking of 1st Embodiment with the front cross-sectional image.

[動作]
この実施形態に係る眼科観察装置の動作について説明する。図7は、眼科観察装置の動作の一例を表す。本動作例では、被検眼Eの正面断面像に基づいて、アライメント、フォーカシングおよびトラッキングを実行する場合について説明する。
[Operation]
The operation of the ophthalmologic observation apparatus according to this embodiment will be described. FIG. 7 shows an example of the operation of the ophthalmologic observation apparatus. In this operation example, a case where alignment, focusing, and tracking are executed based on a front cross-sectional image of the eye E will be described.

(S11:ラフアライメントとラフフォーカシングを行う)
まず、ラフアライメントが行われる。ラフアライメントとは、被検眼E(眼底Ef)に対する装置光学系の大まかな位置合わせを表す。ラフフォーカシングとは、被検眼E(眼底Ef)に対する装置光学系の大まかなフォーカシングを表す。これら処理は、たとえば、第1の実施形態のように近赤外観察画像を用いて手動または自動で実行される。なお、ラフアライメントおよびラフフォーカシングの完了後、近赤外観察画像に基づくトラッキングを開始してもよい。
(S11: Rough alignment and rough focusing are performed)
First, rough alignment is performed. Rough alignment represents rough alignment of the apparatus optical system with respect to the eye E (fundus Ef). Rough focusing represents rough focusing of the apparatus optical system with respect to the eye E (fundus Ef). These processes are executed manually or automatically using a near-infrared observation image as in the first embodiment, for example. Note that tracking based on a near-infrared observation image may be started after completion of rough alignment and rough focusing.

(S12:ライブOCT計測を開始する)
ラフアライメントおよびラフフォーカシングの完了を受けて、主制御部211は、OCTユニット100やガルバノスキャナ42を制御することにより、ライブOCT計測を開始させる。ライブOCT計測は、たとえば第1の実施形態と同様にして実行される。スキャンパターンとしては3次元スキャンが適用される。
(S12: Start live OCT measurement)
Upon completion of rough alignment and rough focusing, the main control unit 211 starts live OCT measurement by controlling the OCT unit 100 and the galvano scanner 42. Live OCT measurement is executed, for example, in the same manner as in the first embodiment. A three-dimensional scan is applied as the scan pattern.

(S13:ライブ正面断面像の表示を開始する)
画像形成部220は、ステップS12のライブOCT計測においてCCDイメージセンサ115から所定のレートで入力される検出信号に基づいて、Bスキャン像を逐次に形成する。主制御部211は、たとえば、1回の3次元スキャンに相当する複数のBスキャン像を逐次に3次元画像形成部231に送る。3次元画像形成部231は、1回の3次元スキャンに相当する複数のBスキャン像に基づいて、当該3次元スキャンに対応する3次元画像データを形成する。断面像形成部232は、3次元画像形成部231により形成された各3次元画像データに基づいて、あらかじめ設定された断面における正面断面像を形成する。この断面は、たとえばIS/OSやRPEやILMのように、ユーザが特に注目する組織に対して設定されてよい。表示制御部2111は、断面像形成部232により逐次に形成された正面断面像を所定のレートで表示部241に表示させる。それにより、上記断面を表すライブ動画像が表示される。
(S13: Start displaying the live front sectional image)
The image forming unit 220 sequentially forms B scan images based on detection signals input at a predetermined rate from the CCD image sensor 115 in the live OCT measurement in step S12. For example, the main control unit 211 sequentially sends a plurality of B scan images corresponding to one 3D scan to the 3D image forming unit 231. The three-dimensional image forming unit 231 forms three-dimensional image data corresponding to the three-dimensional scan based on a plurality of B scan images corresponding to one three-dimensional scan. The cross-sectional image forming unit 232 forms a front cross-sectional image in a preset cross section based on each three-dimensional image data formed by the three-dimensional image forming unit 231. This cross section may be set for a tissue that a user particularly pays attention to, such as IS / OS, RPE, or ILM. The display control unit 2111 causes the display unit 241 to display the front cross-sectional images sequentially formed by the cross-sectional image forming unit 232 at a predetermined rate. Thereby, a live moving image representing the cross section is displayed.

このステップにおいて、たとえば第1の実施形態と同様に、OCT計測が行われる深さ範囲の調整や、測定光LMの焦点位置の調整を、必要に応じて行うことができる。   In this step, for example, as in the first embodiment, the adjustment of the depth range in which the OCT measurement is performed and the adjustment of the focal position of the measurement light LM can be performed as necessary.

(S14:正面断面像に基づくアライメントを行う)
次に、正面断面像に基づくアライメントが行われる。この処理はたとえば次のようにして実行される。まず、画像変位算出部233は、たとえば前述した要領で、断面像形成部232により形成された正面断面像を解析することにより、この正面断面像中の所定位置に対する被検眼Eの所定部位の画像の変位を算出する。算出された画像の変位を示す情報は、アライメント制御部2113に送られる。アライメント制御部2113は、画像変位算出部233により算出された画像の変位をキャンセルするように、光学系駆動部2Aを制御して装置光学系を移動させる。
(S14: Perform alignment based on the front cross-sectional image)
Next, alignment based on the front cross-sectional image is performed. This process is executed as follows, for example. First, the image displacement calculating unit 233 analyzes the front cross-sectional image formed by the cross-sectional image forming unit 232, for example, in the manner described above, and thereby an image of a predetermined part of the eye E with respect to a predetermined position in the front cross-sectional image. The displacement of is calculated. Information indicating the calculated displacement of the image is sent to the alignment control unit 2113. The alignment control unit 2113 moves the apparatus optical system by controlling the optical system drive unit 2A so as to cancel the displacement of the image calculated by the image displacement calculation unit 233.

(S15:正面断面像に基づくフォーカシングを行う)
続いて、正面断面像に基づくフォーカシングが行われる。この処理はたとえば次のようにして実行される。まず、深さ位置算出部234は、たとえば前述した要領で、断面像形成部232により形成された正面断面像に対応する被検眼Eの深さ位置を算出する。算出された深さ位置を示す情報は、フォーカス制御部2114に送られる。フォーカス制御部2114は、この情報に基づきOCT合焦駆動部43Aを制御して合焦レンズ43を移動させることにより、深さ位置算出部234によって算出された深さ位置に測定光LMのフォーカスを合わせる。
(S15: Focusing based on the front cross-sectional image is performed)
Subsequently, focusing based on the front cross-sectional image is performed. This process is executed as follows, for example. First, the depth position calculation unit 234 calculates the depth position of the eye E corresponding to the front cross-sectional image formed by the cross-sectional image forming unit 232, for example, in the manner described above. Information indicating the calculated depth position is sent to the focus control unit 2114. The focus control unit 2114 controls the OCT focusing drive unit 43A based on this information to move the focusing lens 43, thereby focusing the measurement light LM on the depth position calculated by the depth position calculation unit 234. Match.

(S16:正面断面像に基づくトラッキングを開始する)
アライメントとフォーカシングが完了したら、主制御部211は、正面断面像に基づくトラッキングを開始させる。トラッキングにおいては、たとえば次の処理が繰り返し実行される。
・被検眼変位取得部235は、断面像形成部232により形成された正面断面像を解析することにより、被検眼Eの変位を取得する。
・被検眼変位取得部235は、今回求められた特徴領域の位置と、前回の処理で求められた特徴領域の位置との間の変位を求める。
・トラッキング制御部2115は、求められた変位がキャンセルされるように光学系駆動部2Aを制御して装置光学系を移動させる。
(S16: Start tracking based on front cross-sectional image)
When the alignment and focusing are completed, the main control unit 211 starts tracking based on the front cross-sectional image. In tracking, for example, the following processing is repeatedly executed.
The eye displacement acquisition unit 235 acquires the displacement of the eye E by analyzing the front cross-sectional image formed by the cross-sectional image forming unit 232.
The eye displacement acquisition unit 235 obtains a displacement between the position of the feature area obtained this time and the position of the feature area obtained in the previous process.
The tracking control unit 2115 moves the apparatus optical system by controlling the optical system driving unit 2A so that the obtained displacement is canceled.

(S17:ライブ正面断面像をフリーズする)
ユーザが任意のタイミングでフリーズ操作を行うと、主制御部211は、正面断面像の表示態様を動画表示から静止画表示に切り替える。
(S17: Freeze live front cross-sectional image)
When the user performs a freeze operation at an arbitrary timing, the main control unit 211 switches the display mode of the front sectional image from the moving image display to the still image display.

(S18:ユーザが断面位置を指定する)
ユーザは、たとえば第1の実施形態と同様にして、ステップS17において静止画として表示された正面断面像に対して断面位置を指定する。計測制御部2112は、指定された断面位置を示す情報(断面位置情報)を記憶部212に記憶させる。
(S18: The user specifies the cross-sectional position)
The user designates a cross-sectional position for the front cross-sectional image displayed as a still image in step S17, for example, as in the first embodiment. The measurement control unit 2112 causes the storage unit 212 to store information indicating the designated cross-sectional position (cross-sectional position information).

(S19:診断のためのOCT計測を行う)
計測制御部2112は、第1の実施形態と同様に、ステップS18で取得された断面位置情報に基づいてOCTユニット100やガルバノスキャナ42を制御することにより、ユーザにより指定された断面に対するOCT計測を実行させる。このOCT計測により取得されたOCT画像は、たとえば表示制御部2111により表示部241に表示され、かつ、主制御部211により記憶部212に記憶される。
(S19: Perform OCT measurement for diagnosis)
As in the first embodiment, the measurement control unit 2112 controls the OCT unit 100 and the galvano scanner 42 based on the cross-sectional position information acquired in step S18, thereby performing OCT measurement on the cross-section specified by the user. Let it run. The OCT image acquired by the OCT measurement is displayed on the display unit 241 by the display control unit 2111 and stored in the storage unit 212 by the main control unit 211, for example.

第1の実施形態で説明した任意の動作(動作例、変形例)を本動作例に適用することが可能である。   Any operation (operation example, modification example) described in the first embodiment can be applied to this operation example.

[効果]
この実施形態に係る眼科観察装置の効果について説明する。
[effect]
The effect of the ophthalmologic observation apparatus according to this embodiment will be described.

この実施形態に係る眼科観察装置は、第1の実施形態と同様に、OCT計測を行うための光学系と、3次元画像取得部と、断面像形成部と、計測制御部とを有する。さらに、眼科観察装置は、移動機構(光学系駆動部2A)と、画像変位算出部(画像変位算出部233)と、アライメント制御部(アライメント制御部2113)と、深さ位置算出部(深さ位置算出部234)と、フォーカス制御部(フォーカス制御部2114)と、変位取得部(被検眼変位取得部235)と、トラッキング制御部(トラッキング制御部2115)とを有する。   Similar to the first embodiment, the ophthalmic observation apparatus according to this embodiment includes an optical system for performing OCT measurement, a three-dimensional image acquisition unit, a cross-sectional image forming unit, and a measurement control unit. Further, the ophthalmic observation apparatus includes a moving mechanism (optical system driving unit 2A), an image displacement calculating unit (image displacement calculating unit 233), an alignment control unit (alignment control unit 2113), and a depth position calculating unit (depth). A position calculation unit 234), a focus control unit (focus control unit 2114), a displacement acquisition unit (examined eye displacement acquisition unit 235), and a tracking control unit (tracking control unit 2115).

なお、前述したように、この実施形態においては、アライメント、フォーカシングおよびトラッキングのうちの少なくとも1つが適用されれば十分である。アライメントが適用されない場合、眼科観察装置は、画像変位算出部とアライメント制御部を有しない。この場合、たとえば近赤外観察画像を用いるなどして代替的なアライメントを実行することができる。フォーカシングが適用されない場合、眼科観察装置は、深さ位置算出部とフォーカス制御部を有しない。この場合、たとえば近赤外観察画像を用いるなどして代替的なフォーカシングを実行することができる。トラッキングが適用されない場合、眼科観察装置は、変位取得部とトラッキング制御部を有しない。この場合、たとえば近赤外観察画像を用いるなどして代替的なトラッキングを実行することができる。   As described above, in this embodiment, it is sufficient that at least one of alignment, focusing, and tracking is applied. When the alignment is not applied, the ophthalmologic observation apparatus does not have an image displacement calculation unit and an alignment control unit. In this case, for example, alternative alignment can be executed by using a near-infrared observation image. When focusing is not applied, the ophthalmic observation apparatus does not have a depth position calculation unit and a focus control unit. In this case, for example, alternative focusing can be performed by using a near-infrared observation image. When tracking is not applied, the ophthalmic observation apparatus does not include a displacement acquisition unit and a tracking control unit. In this case, for example, alternative tracking can be executed by using a near-infrared observation image.

この実施形態に係る眼科観察装置において、第1の実施形態で説明した表示制御部が付加的に設けられていてよい。また、表示手段および/または操作手段についても付加的に設けられていてよい。これらが設けられている場合、第1の実施形態と同様に、正面断面像に対する断面位置の指定と、この指定された断面位置に対するOCT計測とを行うことができる。   In the ophthalmologic observation apparatus according to this embodiment, the display control unit described in the first embodiment may be additionally provided. Further, display means and / or operation means may be additionally provided. When these are provided, similarly to the first embodiment, designation of a cross-sectional position with respect to the front cross-sectional image and OCT measurement with respect to the designated cross-sectional position can be performed.

移動機構は、OCT計測用の光学系を移動させる。   The moving mechanism moves the optical system for OCT measurement.

画像変位算出部は、断面像形成部により形成された正面断面像を解析することにより、この正面断面像中の所定位置に対する被検眼の所定部位の画像の変位を算出する。アライメント制御部は、画像変位算出部により算出された変位に基づいて移動機構を制御することにより、アライメントを実行する。   The image displacement calculation unit calculates a displacement of an image of a predetermined portion of the eye to be examined with respect to a predetermined position in the front cross-sectional image by analyzing the front cross-sectional image formed by the cross-sectional image forming unit. The alignment control unit executes the alignment by controlling the moving mechanism based on the displacement calculated by the image displacement calculating unit.

深さ位置算出部は、断面像形成部により形成された正面断面像に対応する被検眼の深さ位置を算出する。フォーカス制御部は、アライメント制御部による制御が行われた後に、深さ位置算出部により算出された深さ位置に光学系のフォーカスを合わせる(つまりフォーカシングを実行する)。なお、深さ位置算出部による深さ位置の算出処理は、アライメント制御の前に行われてもよいし、後に行われてもよいし、これと並行して行われてもよい。   The depth position calculation unit calculates the depth position of the eye to be examined corresponding to the front cross-sectional image formed by the cross-sectional image forming unit. The focus control unit focuses the optical system on the depth position calculated by the depth position calculation unit after the control by the alignment control unit (that is, executes focusing). Note that the depth position calculation processing by the depth position calculation unit may be performed before the alignment control, may be performed after the alignment control, or may be performed in parallel with this.

変位取得部は、アライメント制御部による制御およびフォーカス制御部による制御が行われた後に、断面像形成部により逐次に形成された正面断面像を解析することにより、被検眼の変位を逐次に取得する。トラッキング制御部は、変位取得部により逐次に取得された被検眼の変位に基づいて移動機構を逐次に制御することにより、トラッキングを実行する。   The displacement acquisition unit sequentially acquires the displacement of the eye to be examined by analyzing the front cross-sectional images sequentially formed by the cross-sectional image forming unit after the control by the alignment control unit and the control by the focus control unit. . The tracking control unit performs tracking by sequentially controlling the movement mechanism based on the displacement of the eye to be examined sequentially acquired by the displacement acquisition unit.

計測制御部は、トラッキング制御部による制御(トラッキング)が行われているときに所定のトリガが入力されたことに対応し、光学系にOCT計測を実行させる。このトリガの入力は、たとえば手動または自動で行われる。手動によるトリガの入力は、たとえばユーザによる所定の操作である。自動でのトリガの入力の例として、トラッキング状態が安定したとの判定結果が得られた場合がある。この判定処理は、たとえば次のようにして行われる。計測制御部(または変位取得部)は、変位取得部により逐次に取得された被検眼の変位が所定の閾値以下であるか判定し、判定結果「YES(変位≦閾値)」が所定回数(または所定時間)連続して得られた場合に上記トリガを生成する。   The measurement control unit causes the optical system to perform OCT measurement in response to the input of a predetermined trigger when control (tracking) is performed by the tracking control unit. The trigger is input manually or automatically, for example. The manual trigger input is, for example, a predetermined operation by the user. As an example of automatic trigger input, a determination result that the tracking state is stable may be obtained. This determination process is performed as follows, for example. The measurement control unit (or the displacement acquisition unit) determines whether the displacement of the eye to be examined sequentially acquired by the displacement acquisition unit is equal to or less than a predetermined threshold, and the determination result “YES (displacement ≦ threshold)” is a predetermined number of times (or The trigger is generated when it is obtained continuously for a predetermined time.

アライメントが適用される場合の効果を説明する。正面断面像は近赤外観察画像と同様に被検眼の正面画像であるから、第1の実施形態の近赤外観察画像に基づくアライメントと類似の方法で、正面断面像に基づくアライメントを実行することができる。しかし、眼底の深部領域(近赤外観察画像では画像化できない領域)に注目部位が存在する場合もあり、その場合には、近赤外観察画像に基づくアライメントでは注目部位に対して正確に位置合わせを行うことができない。これに対し、この実施形態によれば、任意の深さ位置を断面とする正面断面像に基づいてアライメントを行うことができるので、深部領域に存在する注目部位を画像化することが可能となる。   The effect when alignment is applied will be described. Since the front cross-sectional image is a front image of the eye to be examined like the near-infrared observation image, the alignment based on the front cross-sectional image is executed in a manner similar to the alignment based on the near-infrared observation image of the first embodiment. be able to. However, there is a case where the site of interest exists in a deep region of the fundus (a region that cannot be imaged by the near-infrared observation image). In this case, the alignment based on the near-infrared observation image accurately positions the site of interest. Cannot be matched. On the other hand, according to this embodiment, since alignment can be performed based on a front cross-sectional image having a cross section at an arbitrary depth position, it is possible to image a site of interest existing in a deep region. .

フォーカシングが適用される場合の効果を説明する。この実施形態は、断面像形成部により形成された正面断面像に対応する被検眼の深さ位置を算出し、算出された深さ位置に対して光学系のフォーカスを合わせるように構成されている。この正面断面像は、ライブOCT計測に基づいて形成される画像であり、特に、ユーザが注目している部位を表す画像である。よって、この実施形態によれば、被検眼の注目部位に対して自動でフォーカスを合わせることができる。したがって、注目部位が高精細に描画されたOCT画像を容易に取得することが可能である。   The effect when focusing is applied will be described. This embodiment is configured to calculate the depth position of the eye to be examined corresponding to the frontal cross-sectional image formed by the cross-sectional image forming unit, and to focus the optical system on the calculated depth position. . This front cross-sectional image is an image formed based on live OCT measurement, and in particular, is an image representing a part that the user is paying attention to. Therefore, according to this embodiment, it is possible to automatically focus on the target region of the eye to be examined. Therefore, it is possible to easily acquire an OCT image in which a site of interest is drawn with high definition.

トラッキングが適用される場合の効果を説明する。トラッキングは、アライメントおよびフォーカシングが行われた後に実行され、それぞれ調整されたアライメント状態およびフォーカス状態を維持するように作用する。よって、この実施形態によれば、深部領域に存在する注目部位に対して合わせられたアライメント状態およびフォーカス状態を維持するようにトラッキングを行うことができる。したがって、深部領域に存在する注目部位を確実に画像化することができる。   The effect when tracking is applied will be described. Tracking is performed after alignment and focusing are performed, and acts to maintain the adjusted alignment state and focus state, respectively. Therefore, according to this embodiment, it is possible to perform tracking so as to maintain the alignment state and the focus state that are matched to the target region existing in the deep region. Therefore, the region of interest existing in the deep region can be reliably imaged.

断面像形成部は、正面断面像として、あらかじめ設定された被検眼の深さ位置を断面とする画像を形成するように構成されてよい。この場合において、あらかじめ設定された被検眼の深さ位置は、IS/OSに相当する深さ位置、および、RPEに相当する深さ位置のうち、少なくとも一方を含んでいてよい。或いは、あらかじめ設定された被検眼の深さ位置は、眼底表面よりも角膜側の深さ位置を含んでいてよい。この場合、眼底表面よりも角膜側の深さ位置は、硝子体における所定の深さ位置、および、網膜からの剥離組織における所定の深さ位置のうち、少なくとも一方を含んでいてよい。このような構成の断面像形成部を設けることにより、被検眼の所望の深さ位置において特に注目される深さ位置に相当する正面断面像を容易に観察できる。また、断面位置の指定を好適に行うことが可能である。   The cross-sectional image forming unit may be configured to form an image having a cross-section at a preset depth position of the eye as a front cross-sectional image. In this case, the depth position of the eye to be set in advance may include at least one of a depth position corresponding to IS / OS and a depth position corresponding to RPE. Alternatively, the preset depth position of the eye to be examined may include a depth position closer to the cornea than the fundus surface. In this case, the depth position closer to the cornea than the fundus surface may include at least one of a predetermined depth position in the vitreous body and a predetermined depth position in the exfoliated tissue from the retina. By providing the cross-sectional image forming section having such a configuration, it is possible to easily observe a front cross-sectional image corresponding to a particularly focused depth position at a desired depth position of the eye to be examined. Moreover, it is possible to suitably specify the cross-sectional position.

〈第3の実施形態〉
この実施形態では、正面断面像のレジストレーションを実行することが可能な眼科観察装置について説明する。レジストレーションとは、画像と画像とを位置合わせする処理を示す。
<Third Embodiment>
In this embodiment, an ophthalmologic observation apparatus capable of executing registration of front sectional images will be described. Registration refers to a process of aligning images.

[構成]
この実施形態に係る眼科観察装置は、たとえば、第1の実施形態と同様の全体構成および光学系を有する(図1および図2を参照)。この実施形態に係る眼科観察装置の制御系の構成例を図8に示す。以下、第1の実施形態と異なる部分について特に説明を行う。また、以下の説明において、第1の実施形態で用いられた符号が準用される。
[Constitution]
The ophthalmic observation apparatus according to this embodiment has, for example, the same overall configuration and optical system as those of the first embodiment (see FIGS. 1 and 2). A configuration example of a control system of the ophthalmologic observation apparatus according to this embodiment is shown in FIG. Hereinafter, a part different from the first embodiment will be particularly described. Moreover, in the following description, the code | symbol used in 1st Embodiment is applied mutatis mutandis.

記憶部212には、被検眼Eについて過去に取得された正面断面像(過去正面断面像と呼ぶ)があらかじめ記憶されている。画像処理部230は、第1の実施形態と同様の3次元画像形成部231および断面像形成部232に加え、画像位置合わせ部236を含む。   The storage unit 212 stores in advance a front cross-sectional image (referred to as a past front cross-sectional image) acquired in the past for the eye E. The image processing unit 230 includes an image alignment unit 236 in addition to the same three-dimensional image forming unit 231 and cross-sectional image forming unit 232 as those in the first embodiment.

(過去正面断面像)
記憶部212に記憶されている過去正面断面像は、被検眼Eに対して過去に実施されたOCT計測に基づいて形成された正面断面像である。この過去のOCT計測は、この眼科観察装置または他のOCT装置を用いて実行されたものである。過去のOCT計測が他のOCT装置により実行された場合、過去に取得されたデータは、通信回線や記憶媒体を介して眼科観察装置に入力される。通信回線を介するデータ入力は、制御部210に含まれる通信インターフェイスを用いて行われる。また、記憶媒体を介するデータ入力は、図示しないインターフェイス(ドライブ装置、データリーダ、コネクタなど)を用いて行われる。
(Previous front cross-sectional image)
The past front cross-sectional image stored in the storage unit 212 is a front cross-sectional image formed based on OCT measurement performed on the eye E in the past. This past OCT measurement is performed using this ophthalmic observation apparatus or another OCT apparatus. When past OCT measurement is performed by another OCT apparatus, data acquired in the past is input to the ophthalmologic observation apparatus via a communication line or a storage medium. Data input via the communication line is performed using a communication interface included in the control unit 210. Data input via the storage medium is performed using an interface (not shown) (drive device, data reader, connector, etc.).

過去正面断面像は、過去に実施されたOCT計測に基づく画像であればよい。よって、過去正面断面像は、過去に形成された正面断面像には限定されず、過去のOCT計測により得られたデータ(たとえば、複数のAスキャン像、複数のBスキャン像、3次元画像データ)に基づき今回の検査において形成された正面断面像でもよい。その場合、正面断面像を形成する処理は、画像処理部230(3次元画像形成部231、断面像形成部232)により行われる。   The past front cross-sectional image may be an image based on OCT measurement performed in the past. Therefore, the past front cross-sectional image is not limited to the front cross-sectional image formed in the past, but data obtained by past OCT measurement (for example, a plurality of A-scan images, a plurality of B-scan images, and three-dimensional image data). ) May be a front cross-sectional image formed in the current inspection. In that case, the process of forming the front cross-sectional image is performed by the image processing unit 230 (the three-dimensional image forming unit 231 and the cross-sectional image forming unit 232).

(画像位置合わせ部)
画像位置合わせ部236は、断面像形成部232により形成された正面断面像(新たな正面断面像と呼ぶ)と、記憶部212に記憶された過去正面断面像とを解析することにより、新たな正面断面像と過去正面断面像との位置合わせを行う。この位置合わせ処理は、たとえば以下の第1〜第4のステップを含む。
(Image alignment part)
The image alignment unit 236 analyzes the front cross-sectional image formed by the cross-sectional image forming unit 232 (referred to as a new front cross-sectional image) and the past front cross-sectional image stored in the storage unit 212 to obtain a new cross-sectional image. The front sectional image and the past front sectional image are aligned. This alignment process includes the following first to fourth steps, for example.

第1のステップとして、画像位置合わせ部236は、新たな正面断面像を解析することにより、この新たな正面断面像中の特徴領域を特定する。特徴領域は、たとえば、被検眼Eの特徴部位(視神経乳頭、黄斑、血管、病変部、治療済みの部位など)に相当する領域である。特徴部位は、あらかじめ設定されてもよいし、本処理において設定されてもよい。   As a first step, the image alignment unit 236 identifies a feature region in the new front cross-sectional image by analyzing the new front cross-sectional image. The feature region is, for example, a region corresponding to a feature portion of the eye E (optic nerve head, macular, blood vessel, lesion, treated portion, etc.). The characteristic part may be set in advance or may be set in this process.

第2のステップとして、画像位置合わせ部236は、過去正面断面像を解析することにより、この過去正面断面像中の特徴領域を特定する。この特徴領域は、第1のステップにおける特徴領域と同種のものである。   As a second step, the image alignment unit 236 identifies a feature region in the past front sectional image by analyzing the past front sectional image. This feature region is the same type as the feature region in the first step.

第1のステップと第2のステップを行う順序は任意である。つまり、第1のステップおよび第2のステップのうちいずれを先に行なってもよいし、これらステップを並行して行ってもよい。また、上記のようにこれらステップにおいて適用される特徴領域は同種である必要があるが、適用されている或る種別の特徴領域が一方または双方のステップにおいて特定されない場合がある。このような場合に対処するために、複数種別の特徴領域を特定できるように画像位置合わせ部236を構成することができる。この場合、複数種別の特徴領域をまとめて特定するように画像位置合わせ部236を構成することができる。或いは、複数の種別に対して優先順位を事前に設定しておき、双方のステップで特徴領域が特定されるまで複数の種別を順次に適用するように、画像位置合わせ部236を構成してもよい。   The order in which the first step and the second step are performed is arbitrary. That is, either the first step or the second step may be performed first, or these steps may be performed in parallel. Further, as described above, the feature regions applied in these steps need to be the same type, but a certain type of feature region applied may not be specified in one or both steps. In order to deal with such a case, the image registration unit 236 can be configured so that a plurality of types of feature regions can be specified. In this case, the image registration unit 236 can be configured to collectively specify a plurality of types of feature regions. Alternatively, the image registration unit 236 may be configured such that priorities are set in advance for a plurality of types, and the plurality of types are sequentially applied until a feature region is specified in both steps. Good.

第3のステップとして、画像位置合わせ部236は、第1のステップで特定された特徴領域(新たな特徴領域)と、第2のステップで特定された特徴領域(過去の特徴領域)との変位を算出する。この処理は、たとえば、新たな正面断面像のフレームにおける新たな特徴領域の位置(座標)と、過去の正面断面像のフレームにおける過去の特徴領域の位置(座標)とを求め、これら位置の変位を求めることによって行われる。   As a third step, the image alignment unit 236 displaces the feature region (new feature region) specified in the first step and the feature region (past feature region) specified in the second step. Is calculated. In this process, for example, the position (coordinates) of a new feature region in the frame of the new front cross-sectional image and the position (coordinates) of the past feature region in the frame of the previous front cross-sectional image are obtained, and the displacement of these positions is obtained. Is done by asking.

第3のステップにおいて求められる変位は、平行移動に相当する変位と、回転移動に相当する変位とを含んでいてよい。この場合、画像位置合わせ部236は、たとえば、新たな正面断面像中の特徴領域(その輪郭、または複数の特徴点でもよい)と、過去正面断面像中の特徴領域(その輪郭、または複数の特徴点でもよい)とが一致されるようなアフィン変換(アフィン行列)を求めるように構成される。   The displacement obtained in the third step may include a displacement corresponding to a parallel movement and a displacement corresponding to a rotational movement. In this case, for example, the image alignment unit 236 may include, for example, a feature region in the new front cross-sectional image (its contour or a plurality of feature points) and a feature region in the past front cross-sectional image (its contour or a plurality of features). It is configured to obtain an affine transformation (affine matrix) that matches a feature point.

第4のステップとして、画像位置合わせ部236は、第3のステップで求められた変位をキャンセルするように、新たな正面断面像と過去正面断面像とを相対的に移動(平行移動、回転移動)する。この相対的な移動は、新たな正面断面像のみを移動させる場合、過去正面断面像のみを移動させる場合、および、双方を移動させる場合のいずれでもよい。   As a fourth step, the image alignment unit 236 relatively moves (translates and rotates) the new front cross-sectional image and the past front cross-sectional image so as to cancel the displacement obtained in the third step. ) This relative movement may be any of a case where only a new front cross-sectional image is moved, a case where only a past front cross-sectional image is moved, and a case where both are moved.

[動作]
この実施形態に係る眼科観察装置の動作について説明する。図9は、眼科観察装置の動作の一例を表す。なお、記憶部212には、(1以上の)過去正面断面像が記憶されているものとする。過去正面断面像には、その断面位置を示す情報(過去断面位置情報)が付帯されていてよい。過去断面位置情報は、たとえば、第1の実施形態で説明した断面位置情報と同様に、図1に示すxyz座標系の座標や、Bスキャン像における座標、或いは3次元座標データにおける座標によって、過去正面断面像の断面位置を表現した情報である。また、過去正面断面像は、患者IDと関連付けられていてよい。
[Operation]
The operation of the ophthalmologic observation apparatus according to this embodiment will be described. FIG. 9 shows an example of the operation of the ophthalmologic observation apparatus. It is assumed that the storage unit 212 stores (one or more) past front cross-sectional images. Information (past cross-sectional position information) indicating the cross-sectional position may be attached to the past front cross-sectional image. For example, the past cross-sectional position information can be determined based on the coordinates in the xyz coordinate system shown in FIG. 1, the coordinates in the B-scan image, or the coordinates in the three-dimensional coordinate data, as in the cross-sectional position information described in the first embodiment. This is information representing the cross-sectional position of the front cross-sectional image. The past front cross-sectional image may be associated with the patient ID.

(S21:過去正面断面像を読み出す)
まず、主制御部211は、記憶部212に記憶されている過去正面断面像を読み出して画像位置合わせ部236に送る。この読み出し処理は、たとえば、当該被検者の患者IDを参照して読み出される。また、過去断面位置情報が付帯されている場合には、過去断面位置情報も読み出されて画像処理部230(たとえば断面像形成部232)に送られる。
(S21: Read out the past front sectional image)
First, the main control unit 211 reads a past front cross-sectional image stored in the storage unit 212 and sends it to the image alignment unit 236. This reading process is read with reference to the patient ID of the subject, for example. Further, when past cross-section position information is attached, the past cross-section position information is also read and sent to the image processing unit 230 (for example, the cross-sectional image forming unit 232).

当該被検者に関する過去正面断面像が複数記憶されている場合、主制御部211は、そのリスト(断面位置を示す文字列情報、サムネイル画像など)を表示部241に表示させることができる。そして、ユーザが操作部242を用いて過去正面断面像の選択を行ったことに対応し、主制御部211は、選択された過去正面断面像を画像位置合わせ部236に送る。なお、2以上の過去正面断面像が選択された場合、これら過去正面断面像のそれぞれについて後述の処理が実行される。   When a plurality of past front cross-sectional images related to the subject are stored, the main control unit 211 can display the list (character string information indicating cross-sectional positions, thumbnail images, etc.) on the display unit 241. Then, in response to the user selecting the past front cross-sectional image using the operation unit 242, the main control unit 211 sends the selected past front cross-sectional image to the image alignment unit 236. In addition, when two or more past front cross-sectional images are selected, the process described later is executed for each of these past front cross-sectional images.

(S22:今回の検査を開始する)
たとえばユーザが所定の操作を行ったことに対応して今回の検査が開始される。
(S22: Start this examination)
For example, the current examination is started in response to the user performing a predetermined operation.

(S23:アライメントとフォーカシングを行う)
今回の検査では、まず、アライメントとフォーカシングが行われる。このステップにおけるアライメントとフォーカシングの態様は任意である。たとえば、第1の実施形態のように、近赤外観察画像を用いてアライメントとフォーカシングを行ってよい。或いは、第2の実施形態のように、ラフアライメントとラフフォーカシングを行った後に、OCT画像によるアライメントとフォーカシングを行ってもよい。また、アライメントとフォーカシングは手動でも自動でもよい。
(S23: Perform alignment and focusing)
In this inspection, alignment and focusing are performed first. The mode of alignment and focusing in this step is arbitrary. For example, as in the first embodiment, alignment and focusing may be performed using a near-infrared observation image. Or after performing rough alignment and rough focusing like 2nd Embodiment, you may perform alignment and focusing by an OCT image. The alignment and focusing may be manual or automatic.

(S24:トラッキングを開始する)
アライメントとフォーカシングの完了後、トラッキングが開始される。このステップにおけるトラッキングの態様は任意である。たとえば、第1の実施形態のように近赤外観察画像を用いてトラッキングを行ってよいし、第2の実施形態のようにOCT画像を用いてトラッキングを行ってもよい。なお、トラッキングを実行しないように構成することも可能である。
(S24: Start tracking)
After completing alignment and focusing, tracking is started. The mode of tracking in this step is arbitrary. For example, tracking may be performed using a near-infrared observation image as in the first embodiment, or tracking may be performed using an OCT image as in the second embodiment. It is also possible to configure so that tracking is not executed.

(S25:ライブOCT計測を開始する)
トラッキングの開始後の任意のタイミングにおいて、主制御部211は、OCTユニット100やガルバノスキャナ42を制御することにより、ライブOCT計測を開始させる。ライブOCT計測は、たとえば第1の実施形態と同様にして実行される。スキャンパターンとしては3次元スキャンが適用される。
(S25: Start live OCT measurement)
At an arbitrary timing after the start of tracking, the main controller 211 controls the OCT unit 100 and the galvano scanner 42 to start live OCT measurement. Live OCT measurement is executed, for example, in the same manner as in the first embodiment. A three-dimensional scan is applied as the scan pattern.

(S26:過去正面断面像と同じ断面における新たな正面断面像を逐次に形成する)
画像形成部220は、ステップS25のライブOCT計測においてCCDイメージセンサ115から所定のレートで入力される検出信号に基づいて、Bスキャン像を逐次に形成する。主制御部211は、たとえば、1回の3次元スキャンに相当する複数のBスキャン像を逐次に3次元画像形成部231に送る。3次元画像形成部231は、1回の3次元スキャンに相当する複数のBスキャン像に基づいて、当該3次元スキャンに対応する3次元画像データを形成する。形成された3次元画像データは、断面像形成部232に送られる。
(S26: A new front cross-sectional image in the same cross section as the past front cross-sectional image is sequentially formed)
The image forming unit 220 sequentially forms B scan images based on detection signals input at a predetermined rate from the CCD image sensor 115 in the live OCT measurement in step S25. For example, the main control unit 211 sequentially sends a plurality of B scan images corresponding to one 3D scan to the 3D image forming unit 231. The three-dimensional image forming unit 231 forms three-dimensional image data corresponding to the three-dimensional scan based on a plurality of B scan images corresponding to one three-dimensional scan. The formed three-dimensional image data is sent to the cross-sectional image forming unit 232.

ステップ21で説明したように、断面像形成部232には、過去正面断面像の断面位置を示す過去断面位置情報が入力されている。断面像形成部232は、3次元画像形成部231により形成された各3次元画像データと、過去断面位置情報とに基づいて、この過去断面位置情報が示す断面における正面断面像(新たな正面断面像)を形成する。形成された新たな正面断面像は、画像位置合わせ部236に逐次に送られる。   As described in step 21, past sectional position information indicating the sectional position of the past front sectional image is input to the sectional image forming unit 232. The cross-sectional image forming unit 232, based on each three-dimensional image data formed by the three-dimensional image forming unit 231 and past cross-section position information, a front cross-sectional image (new front cross-section) in the cross-section indicated by the past cross-section position information. Image). The formed new front sectional image is sequentially sent to the image alignment unit 236.

(S27:過去正面断面像と新たな正面断面像の位置合わせを逐次に実行する)
画像位置合わせ部236は、断面像形成部232から逐次に入力される新たな正面断面像について、この新たな正面断面像と過去正面断面像との位置合わせを実行する。この画像位置合わせ処理は、たとえば前述の要領で実行される。画像位置合わせ部236は、画像位置合わせ処理が施された新たな正面断面像を表示制御部2111に逐次に送る。
(S27: The alignment of the past front sectional image and the new front sectional image is sequentially performed)
The image alignment unit 236 performs alignment between the new front cross-sectional image and the past front cross-sectional image for new front cross-sectional images sequentially input from the cross-sectional image forming unit 232. This image alignment process is executed, for example, as described above. The image alignment unit 236 sequentially sends new front cross-sectional images that have undergone image alignment processing to the display control unit 2111.

(S28:位置合わせされた新たな正面断面像(および過去正面断面像)を表示する)
表示制御部2111は、画像位置合わせ部236から逐次に入力される新たな正面断面像を所定のレートで表示部241に表示させる。それにより、過去正面断面像と同じ断面を表すライブ動画像が表示される。表示制御部241は、このライブ動画像とともに、過去正面断面像を表示させることができる。これら2種類の画像は、たとえば表示画面に並べて提示される。ステップS27から明らかなように、これら2種類の画像は互いに位置合わせがされている。
(S28: A new front sectional image (and past front sectional image) that has been aligned is displayed)
The display control unit 2111 causes the display unit 241 to display new front sectional images sequentially input from the image alignment unit 236 at a predetermined rate. Thereby, a live moving image representing the same cross section as the past front cross-sectional image is displayed. The display control unit 241 can display the past front cross-sectional image together with the live moving image. These two types of images are presented side by side on a display screen, for example. As is apparent from step S27, these two types of images are aligned with each other.

このステップにおいて、たとえば第1の実施形態または第2の実施形態で説明した要領で、OCT計測が行われる深さ範囲の調整や、測定光LMの焦点位置の調整を、必要に応じて行うことができる。   In this step, for example, in the manner described in the first embodiment or the second embodiment, the depth range in which the OCT measurement is performed and the focus position of the measurement light LM are adjusted as necessary. Can do.

(S29:診断のためのOCT計測を行う)
ユーザは、たとえば第1の実施形態と同様にして断面位置を指定することができる。計測制御部2112は、指定された断面位置に基づいてOCTユニット100やガルバノスキャナ42を制御することによりOCT計測を実行させる。このOCT計測により取得されたOCT画像は、たとえば表示制御部2111により表示部241に表示され、かつ、主制御部211により記憶部212に記憶される。
(S29: Perform OCT measurement for diagnosis)
The user can specify the cross-sectional position in the same manner as in the first embodiment, for example. The measurement control unit 2112 controls the OCT unit 100 and the galvano scanner 42 based on the designated cross-sectional position to execute OCT measurement. The OCT image acquired by the OCT measurement is displayed on the display unit 241 by the display control unit 2111 and stored in the storage unit 212 by the main control unit 211, for example.

第1の実施形態や第2の実施形態で説明した任意の動作(動作例、変形例)を本動作例に適用することが可能である。   Arbitrary operations (operation examples and modifications) described in the first embodiment and the second embodiment can be applied to this operation example.

このステップにおけるOCT計測のスキャンパターンが3次元スキャンである場合(特に、更なる正面断面像を形成する場合)、次のステップS30に進むように構成してよい。それ以外の場合、本動作例の説明はここで終了となる。   When the OCT measurement scan pattern in this step is a three-dimensional scan (particularly when a further front cross-sectional image is formed), the process may proceed to the next step S30. In other cases, the description of this operation example ends here.

(S30:新たな正面断面像と過去正面断面像の位置合わせを行う)
ステップS29で3次元スキャンが適用された場合、画像形成部220および3次元画像形成部231は、この3次元スキャンにより取得されたデータに基づいて3次元画像データを形成する。断面像形成部232は、この3次元画像データに基づいて、任意の断面における断面像を形成する。この処理において、過去正面断面像と(実質的に)同じ断面における正面断面像(新たな正面断面像)を形成してよい。
(S30: A new front sectional image and a past front sectional image are aligned)
When the 3D scan is applied in step S29, the image forming unit 220 and the 3D image forming unit 231 form 3D image data based on the data acquired by the 3D scan. The cross-sectional image forming unit 232 forms a cross-sectional image in an arbitrary cross section based on the three-dimensional image data. In this process, a front cross-sectional image (new front cross-sectional image) in the same cross section as the past front cross-sectional image may be formed.

このステップにおいて新たな正面断面像が形成された場合、画像位置合わせ部236は、この新たな正面断面像と過去正面断面像との位置合わせを行うことができる。さらに、画像位置合わせ部236は、この位置合わせの結果を3次元画像データに拡張することが可能である。つまり、画像位置合わせ部236は、新たな正面断面像と過去正面断面像との間の変位がキャンセルされるように、3次元画像データと過去正面断面像とを相対的に移動させることができる。それにより、3次元画像データと過去正面断面像について、xy方向の位置合わせがなされる。つまり、3次元画像データに基づき形成される任意の画像は、過去正面断面像に対して位置合わせされたものとなる。   When a new front cross-sectional image is formed in this step, the image alignment unit 236 can perform alignment between the new front cross-sectional image and the past front cross-sectional image. Further, the image alignment unit 236 can extend the alignment result to 3D image data. That is, the image alignment unit 236 can relatively move the three-dimensional image data and the past front sectional image so that the displacement between the new front sectional image and the past front sectional image is canceled. . As a result, the three-dimensional image data and the past front cross-sectional image are aligned in the xy direction. That is, an arbitrary image formed based on the three-dimensional image data is aligned with the past frontal cross-sectional image.

(S31:位置合わせされた新たな正面断面像(および過去正面断面像)を表示する)
表示制御部2111は、ステップS30において過去正面断面像に対して位置合わせがなされた新たな正面断面像を、表示部241に表示させることができる。このとき、過去正面断面像を表示させることも可能である。
(S31: A new front sectional image (and a past front sectional image) aligned is displayed)
The display control unit 2111 can cause the display unit 241 to display a new front cross-sectional image that has been aligned with the past front cross-sectional image in step S30. At this time, it is also possible to display a past front cross-sectional image.

ステップS30において3次元画像データと過去正面断面像との間の位置合わせがなされた場合、断面像形成部232は、この3次元画像データに基づいて、任意の断面における断面像を形成することができる。さらに、表示制御部2111は、断面像形成部232により形成された断面像を表示部241に表示させることができる。この断面像は、過去正面断面像に対して位置合わせされている。   When the alignment between the three-dimensional image data and the past front cross-sectional image is performed in step S30, the cross-sectional image forming unit 232 can form a cross-sectional image in an arbitrary cross section based on the three-dimensional image data. it can. Further, the display control unit 2111 can cause the display unit 241 to display the cross-sectional image formed by the cross-sectional image forming unit 232. This cross-sectional image is aligned with the past front cross-sectional image.

他の例として、画像処理部230は、過去正面断面像に対して位置合わせされた3次元画像データにレンダリング処理を施すことにより、擬似的な3次元画像を形成することができる。この擬似的な3次元画像は、表示制御部2111により表示部241に表示される。この擬似的な3次元画像は、過去正面断面像に対して位置合わせされている。以上で、本動作例の説明を終える。   As another example, the image processing unit 230 can form a pseudo three-dimensional image by rendering the three-dimensional image data aligned with the past frontal cross-sectional image. The pseudo three-dimensional image is displayed on the display unit 241 by the display control unit 2111. This pseudo three-dimensional image is aligned with the past front cross-sectional image. This is the end of the description of this operation example.

[変形例]
上記動作例では、先に読み出された過去正面断面像と同じ断面を画像化しているが、これに限定されない。たとえば、今回のOCT計測で得られた正面断面像は所定の断面を表すものであり、この断面に対応する過去正面断面像を記憶部212から選択的に読み出して位置合わせ処理を行うように構成することが可能である。或いは、今回のOCT計測で得られた正面断面像の断面に対応する正面断面像を、記憶部212に記憶された3次元画像データから形成して、位置合わせ処理を行うように構成することも可能である。
[Modification]
In the above operation example, the same cross section as the previous front cross-sectional image read out earlier is imaged, but the present invention is not limited to this. For example, the front cross-sectional image obtained by the current OCT measurement represents a predetermined cross-section, and the past front cross-sectional image corresponding to this cross-section is selectively read out from the storage unit 212 and the alignment process is performed. Is possible. Alternatively, the front cross-sectional image corresponding to the cross-section of the front cross-sectional image obtained by the current OCT measurement may be formed from the three-dimensional image data stored in the storage unit 212, and the alignment process may be performed. Is possible.

[効果]
この実施形態に係る眼科観察装置の効果について説明する。
[effect]
The effect of the ophthalmologic observation apparatus according to this embodiment will be described.

この実施形態に係る眼科観察装置は、第1の実施形態と同様に、OCT計測を行うための光学系と、3次元画像取得部と、断面像形成部とを有する。さらに、眼科観察装置は、記憶部(記憶部212)と、画像位置合わせ部(画像位置合わせ部236)とを有する。   Similar to the first embodiment, the ophthalmic observation apparatus according to this embodiment includes an optical system for performing OCT measurement, a three-dimensional image acquisition unit, and a cross-sectional image formation unit. Furthermore, the ophthalmologic observation apparatus includes a storage unit (storage unit 212) and an image registration unit (image registration unit 236).

記憶部には、被検眼について過去に取得された過去正面断面像があらかじめ記憶されている。画像位置合わせ部は、断面像形成部により形成された正面断面像と、記憶部に記憶された過去正面断面像とを解析することにより、この正面断面像とこの過去正面断面像との位置合わせを行う。   In the storage unit, past front cross-sectional images acquired in the past for the eye to be examined are stored in advance. The image alignment unit analyzes the front sectional image formed by the sectional image forming unit and the past front sectional image stored in the storage unit, thereby aligning the front sectional image and the past front sectional image. I do.

このような眼科観察装置によれば、過去に取得された正面断面像と、新たに取得された正面断面像との間のレジストレーションを行うことができる。なお、従来のレジストレーションは、眼底表面の画像同士を位置合わせするものであった。しかし、眼底の深部領域に注目部位が存在する場合もあり、その場合には、注目部位を考慮したレジストレーションを行うことができない。これに対し、この実施形態によれば、任意の深さ位置を断面とする正面断面像に基づいてレジストレーションを行うことができるので、深部領域に存在する注目部位を考慮したレジストレーションが可能となる。   According to such an ophthalmologic observation apparatus, registration between a front cross-sectional image acquired in the past and a newly acquired front cross-sectional image can be performed. In the conventional registration, images on the fundus surface are aligned with each other. However, there is a case where a site of interest exists in the deep region of the fundus, and in that case, registration in consideration of the site of interest cannot be performed. On the other hand, according to this embodiment, since registration can be performed based on a front cross-sectional image having a cross section at an arbitrary depth position, it is possible to perform registration in consideration of a site of interest existing in a deep region. Become.

断面像形成部は、正面断面像として、あらかじめ設定された被検眼の深さ位置を断面とする画像を形成するように構成されてよい。この場合において、あらかじめ設定された被検眼の深さ位置は、IS/OSに相当する深さ位置、および、RPEに相当する深さ位置のうち、少なくとも一方を含んでいてよい。或いは、あらかじめ設定された被検眼の深さ位置は、眼底表面よりも角膜側の深さ位置を含んでいてよい。この場合、眼底表面よりも角膜側の深さ位置は、硝子体における所定の深さ位置、および、網膜からの剥離組織における所定の深さ位置のうち、少なくとも一方を含んでいてよい。このような構成の断面像形成部を設けることにより、被検眼の所望の深さ位置において特に注目される深さ位置に相当する正面断面像を容易に観察できる。また、断面位置の指定を好適に行うことが可能である。   The cross-sectional image forming unit may be configured to form an image having a cross-section at a preset depth position of the eye as a front cross-sectional image. In this case, the depth position of the eye to be set in advance may include at least one of a depth position corresponding to IS / OS and a depth position corresponding to RPE. Alternatively, the preset depth position of the eye to be examined may include a depth position closer to the cornea than the fundus surface. In this case, the depth position closer to the cornea than the fundus surface may include at least one of a predetermined depth position in the vitreous body and a predetermined depth position in the exfoliated tissue from the retina. By providing the cross-sectional image forming section having such a configuration, it is possible to easily observe a front cross-sectional image corresponding to a particularly focused depth position at a desired depth position of the eye to be examined. Moreover, it is possible to suitably specify the cross-sectional position.

〈第4の実施形態〉
この実施形態では、2以上の深さ位置(断面位置)に対応する2以上の正面断面像を、それぞれライブ動画像として表示することが可能な眼科観察装置について説明する。なお、このような処理のいくつかの例が、上記実施形態において簡単に説明されている。
<Fourth Embodiment>
In this embodiment, an ophthalmic observation apparatus capable of displaying two or more front sectional images corresponding to two or more depth positions (cross-sectional positions) as live moving images will be described. Some examples of such processing are briefly described in the above embodiment.

この実施形態に係る眼科観察装置は、たとえば、第1の実施形態と同様の構成を有する(図1〜図3を参照)。ただし、断面像形成部232は、ライブOCT計測により逐次に形成される3次元画像データのそれぞれに基づいて、深さ位置が異なる2以上の断面に対応する2以上の正面断面像を逐次に形成する。2以上の断面は、手動または自動で指定される。断面の自動指定は、たとえば第1の実施形態で説明したように、画像処理部230(断面位置指定部)によって行われる。以下、この実施形態において適用される2以上の断面の例をいくつか説明する。   The ophthalmologic observation apparatus according to this embodiment has the same configuration as that of the first embodiment (see FIGS. 1 to 3), for example. However, the cross-sectional image forming unit 232 sequentially forms two or more front cross-sectional images corresponding to two or more cross-sections having different depth positions based on each of the three-dimensional image data sequentially formed by live OCT measurement. To do. Two or more cross sections are designated manually or automatically. The automatic designation of the cross section is performed by the image processing unit 230 (cross section position designating unit) as described in the first embodiment, for example. Hereinafter, some examples of two or more cross sections applied in this embodiment will be described.

2つの断面が設定される場合の概要を図10Aに示す。図10Aには、第1の深さ位置z=z1における第1の正面断面像H1と、第2の深さ位置z=z2における第2の正面断面像H2とが示されている。第1の正面断面像H1には病変部A1が描画されており、第2の正面断面像H2には病変部A2が描画されている。第1の正面断面像H1と第2の正面断面像H2は、3次元画像データVに基づき断面像形成部232によって形成される。   FIG. 10A shows an outline when two cross sections are set. FIG. 10A shows a first front cross-sectional image H1 at the first depth position z = z1 and a second front cross-sectional image H2 at the second depth position z = z2. A lesion A1 is drawn on the first front sectional image H1, and a lesion A2 is drawn on the second front sectional image H2. The first front cross-sectional image H1 and the second front cross-sectional image H2 are formed by the cross-sectional image forming unit 232 based on the three-dimensional image data V.

図10Bには、眼底(網膜)の組織の例として、ILM(内境界膜、眼底表面)と、IS/OS(視細胞内節外節接合部)と、RPE(網膜色素上皮)とが示されている。なお、図10Bは、これら組織のBスキャン像における形態を示している。第1の正面断面像H1と第2の正面断面像H2との組み合わせは、ILM、IS/OSおよびRPEのうちの任意の2つの組み合わせに相当する。たとえば、第1の正面断面像H1がILMに設定され、第2の正面断面像H2がIS/OSに設定されている場合、ILM(眼底表面)を表す第1のライブ動画像と、IS/OSを表す第2のライブ動画像とが表示部241に表示される。なお、表示制御部2111は、これらライブ動画像を表示画面に並べて表示させることもできるし、これらライブ動画像を(所定のトリガに応じて)切り替えて表示させることもできる。なお、深さ位置が異なる3つ以上の正面断面像が形成される場合には、ILM、IS/OSおよびRPEを含む3つ以上の深さ位置に対応する、3つ以上のライブ動画像が表示される。   FIG. 10B shows ILM (inner boundary membrane, fundus surface), IS / OS (inner joint segment of photoreceptor cells) and RPE (retinal pigment epithelium) as examples of the fundus (retinal) tissue. Has been. FIG. 10B shows the form of these tissues in a B-scan image. A combination of the first front cross-sectional image H1 and the second front cross-sectional image H2 corresponds to a combination of any two of ILM, IS / OS, and RPE. For example, when the first front cross-sectional image H1 is set to ILM and the second front cross-sectional image H2 is set to IS / OS, a first live moving image representing ILM (fundus surface), IS / A second live moving image representing the OS is displayed on the display unit 241. Note that the display control unit 2111 can display these live moving images side by side on the display screen, or can switch these live moving images (in response to a predetermined trigger) to display them. When three or more front sectional images having different depth positions are formed, three or more live moving images corresponding to three or more depth positions including ILM, IS / OS, and RPE are displayed. Is displayed.

図10Cには、図10Bと同様のILM、IS/OSおよびRPEに加え、網膜剥離部位Dが示されている。なお、符号Gは硝子体を示している。網膜剥離部位Dや硝子体の観察を行う場合、2以上の深さ位置のうち1以上が、網膜よりも角膜側に設定される。つまり、図10Aに示す例においては、少なくとも第1の深さ位置z=z1がそのように設定される。図10Cの符号Fは、網膜よりも角膜側に設定された深さ位置に相当する断面を示す。   FIG. 10C shows a retinal detachment site D in addition to ILM, IS / OS, and RPE similar to FIG. 10B. Reference symbol G indicates a vitreous body. When observing the retinal detachment site D or the vitreous body, one or more of the two or more depth positions are set on the cornea side of the retina. That is, in the example shown in FIG. 10A, at least the first depth position z = z1 is set as such. Reference symbol F in FIG. 10C indicates a cross section corresponding to a depth position set on the cornea side of the retina.

この実施形態に係る眼科観察装置は、第1の実施形態と同様に、OCT計測を行うための光学系と、3次元画像取得部と、断面像形成部と、表示制御部とを有する。断面像形成部は、3次元画像取得部により逐次に取得された3次元画像のそれぞれに基づいて、深さ位置が異なる2以上の断面(z=z1、z2、・・・)に対応する2以上の正面断面像(H1、H2、・・・)を逐次に形成する。表示制御部は、断面像形成部により逐次に形成された2以上の正面断面像をそれぞれ表示手段に動画表示させる。   As in the first embodiment, the ophthalmic observation apparatus according to this embodiment includes an optical system for performing OCT measurement, a three-dimensional image acquisition unit, a cross-sectional image formation unit, and a display control unit. The cross-sectional image forming unit 2 corresponds to two or more cross-sections (z = z1, z2,...) Having different depth positions based on each of the three-dimensional images sequentially acquired by the three-dimensional image acquisition unit. The above front sectional images (H1, H2,...) Are sequentially formed. The display control unit displays two or more frontal cross-sectional images sequentially formed by the cross-sectional image forming unit on the display unit as moving images.

この実施形態に係る眼科観察装置によれば、深さ位置が異なる2以上の断面をそれぞれ動画像として観察することが可能である。   According to the ophthalmologic observation apparatus according to this embodiment, it is possible to observe two or more cross sections having different depth positions as moving images.

断面像形成部は、正面断面像として、あらかじめ設定された被検眼の深さ位置を断面とする画像を形成するように構成されてよい。この場合において、あらかじめ設定された被検眼の深さ位置は、IS/OSに相当する深さ位置、および、RPEに相当する深さ位置のうち、少なくとも一方を含んでいてよい。或いは、あらかじめ設定された被検眼の深さ位置は、眼底表面よりも角膜側の深さ位置を含んでいてよい。この場合、眼底表面よりも角膜側の深さ位置は、硝子体における所定の深さ位置、および、網膜からの剥離組織における所定の深さ位置のうち、少なくとも一方を含んでいてよい。このような構成の断面像形成部を設けることにより、被検眼の所望の深さ位置において特に注目される深さ位置に相当する正面断面像を容易に観察できる。また、断面位置の指定を好適に行うことが可能である。   The cross-sectional image forming unit may be configured to form an image having a cross-section at a preset depth position of the eye as a front cross-sectional image. In this case, the depth position of the eye to be set in advance may include at least one of a depth position corresponding to IS / OS and a depth position corresponding to RPE. Alternatively, the preset depth position of the eye to be examined may include a depth position closer to the cornea than the fundus surface. In this case, the depth position closer to the cornea than the fundus surface may include at least one of a predetermined depth position in the vitreous body and a predetermined depth position in the exfoliated tissue from the retina. By providing the cross-sectional image forming section having such a configuration, it is possible to easily observe a front cross-sectional image corresponding to a particularly focused depth position at a desired depth position of the eye to be examined. Moreover, it is possible to suitably specify the cross-sectional position.

〈変形例〉
以上に説明した構成は、この発明を実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
<Modification>
The configuration described above is merely an example for carrying out the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.

上記の実施形態においては、光路長変更部41の位置を変更することにより、測定光LMの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて測定光LMの光路長を変更することにより当該光路長差を変更するようにしてもよい。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも可能である。   In the above embodiment, the optical path length difference between the optical path of the measurement light LM and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41. However, this optical path length difference is changed. The method is not limited to this. For example, it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light. Is possible. Further, the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the measurement light LM. In particular, when the measured object is not a living body part, the optical path length difference can be changed by moving the measured object in the depth direction (z direction).

上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。   A computer program for realizing the above embodiment can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.

また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。   It is also possible to transmit / receive this program through a network such as the Internet or a LAN.

1 眼科観察装置
2 眼底カメラユニット
2A 光学系駆動部
10 照明光学系
30 撮影光学系
31 合焦レンズ
31A 合焦駆動部
41 光路長変更部
42 ガルバノスキャナ
43 合焦レンズ
43A OCT合焦駆動部
50 アライメント光学系
60 フォーカス光学系
100 OCTユニット
101 光源ユニット
105 光減衰器
106 偏波調整器
115 CCDイメージセンサ
200 演算制御ユニット
210 制御部
211 主制御部
2111 表示制御部
2112 計測制御部
2113 アライメント制御部
2114 フォーカス制御部
2115 トラッキング制御部
212 記憶部
220 画像形成部
230 画像処理部
231 3次元画像形成部
232 断面像形成部
233 画像変位算出部
234 深さ位置算出部
235 被検眼変位取得部
236 画像位置合わせ部
241 表示部
242 操作部
E 被検眼
Ef 眼底
LM 測定光
LR 参照光
LC 干渉光

DESCRIPTION OF SYMBOLS 1 Ophthalmologic observation apparatus 2 Fundus camera unit 2A Optical system drive part 10 Illumination optical system 30 Shooting optical system 31 Focus lens 31A Focus drive part 41 Optical path length change part 42 Galvano scanner 43 Focus lens 43A OCT focus drive part 50 Alignment Optical system 60 Focus optical system 100 OCT unit 101 Light source unit 105 Optical attenuator 106 Polarization adjuster 115 CCD image sensor 200 Arithmetic control unit 210 Control unit 211 Main control unit 2111 Display control unit 2112 Measurement control unit 2113 Alignment control unit 2114 Focus Control unit 2115 Tracking control unit 212 Storage unit 220 Image formation unit 230 Image processing unit 231 Three-dimensional image formation unit 232 Cross-sectional image formation unit 233 Image displacement calculation unit 234 Depth position calculation unit 235 Eye displacement acquisition unit 236 Image alignment 241 display unit 242 operation unit E subject's eye Ef fundus LM measurement light LR reference light LC interference light

Claims (2)

光コヒーレンストモグラフィを行うための光学系と、
被検眼の3次元領域に対する光コヒーレンストモグラフィを繰り返し行うことにより前記光学系によって逐次に取得されたデータに基づいて、被検眼の3次元画像を逐次に取得する3次元画像取得部と、
前記3次元画像取得部により逐次に取得された3次元画像に基づいて正面断面像を逐次に形成する断面像形成部と、
前記断面像形成部により逐次に形成された正面断面像を表示手段に動画表示させる表示制御部と、
前記表示手段に表示されている正面断面像に対し操作手段を介して指定された断面位置に対する光コヒーレンストモグラフィを前記光学系に実行させる計測制御部と
を有し、
前記表示制御部は、前記断面像形成部により形成された前記正面断面像の断面を示す情報を前記正面断面像とともに表示させる
ことを特徴とする眼科観察装置。
An optical system for optical coherence tomography;
A three-dimensional image acquisition unit that sequentially acquires a three-dimensional image of the eye based on data sequentially acquired by the optical system by repeatedly performing optical coherence tomography on a three-dimensional region of the eye;
A cross-sectional image forming unit that sequentially forms front cross-sectional images based on the three-dimensional images sequentially acquired by the three-dimensional image acquisition unit;
A display control unit that displays a moving image of a front cross-sectional image sequentially formed by the cross-sectional image forming unit;
A measurement control unit that causes the optical system to perform optical coherence tomography for a cross-sectional position designated via an operation unit with respect to a front cross-sectional image displayed on the display unit;
The display control unit displays information indicating a cross section of the front cross-sectional image formed by the cross-sectional image forming unit together with the front cross-sectional image.
前記断面像形成部は、前記3次元画像取得部により逐次に取得された3次元画像に基づいて、深さ位置が異なる2以上の断面に対応する2以上の正面断面像を形成し、
前記表示制御部は、前記2以上の正面断面像をそれぞれ動画表示させ、かつ、前記2以上の断面を示す情報を表示させる
ことを特徴とする請求項1に記載の眼科観察装置。

The cross-sectional image forming unit forms two or more front cross-sectional images corresponding to two or more cross-sections having different depth positions based on the three-dimensional images sequentially acquired by the three-dimensional image acquisition unit,
The ophthalmic observation apparatus according to claim 1, wherein the display control unit displays the two or more front cross-sectional images as moving images and displays information indicating the two or more cross-sections.

JP2017199002A 2017-10-13 2017-10-13 Ophthalmological observation device Pending JP2018023819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017199002A JP2018023819A (en) 2017-10-13 2017-10-13 Ophthalmological observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017199002A JP2018023819A (en) 2017-10-13 2017-10-13 Ophthalmological observation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013235301A Division JP6411728B2 (en) 2013-11-13 2013-11-13 Ophthalmic observation device

Publications (1)

Publication Number Publication Date
JP2018023819A true JP2018023819A (en) 2018-02-15

Family

ID=61193466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017199002A Pending JP2018023819A (en) 2017-10-13 2017-10-13 Ophthalmological observation device

Country Status (1)

Country Link
JP (1) JP2018023819A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120194783A1 (en) * 2011-01-28 2012-08-02 Optovue, Inc. Computer-aided diagnosis of retinal pathologies using frontal en-face views of optical coherence tomography
JP2013180127A (en) * 2012-03-02 2013-09-12 Nidek Co Ltd Ophthalmologic photographing apparatus
US20130271757A1 (en) * 2010-12-22 2013-10-17 The John Hopkins University Real-time, three-dimensional optical coherence tomograpny system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130271757A1 (en) * 2010-12-22 2013-10-17 The John Hopkins University Real-time, three-dimensional optical coherence tomograpny system
US20120194783A1 (en) * 2011-01-28 2012-08-02 Optovue, Inc. Computer-aided diagnosis of retinal pathologies using frontal en-face views of optical coherence tomography
JP2013180127A (en) * 2012-03-02 2013-09-12 Nidek Co Ltd Ophthalmologic photographing apparatus

Similar Documents

Publication Publication Date Title
JP5867719B2 (en) Optical image measuring device
JP5989523B2 (en) Ophthalmic equipment
JP6045895B2 (en) Ophthalmic observation device
WO2016027589A1 (en) Ophthalmological imaging device and control method therefor
JP5937163B2 (en) Fundus analysis apparatus and fundus observation apparatus
JP2018199012A (en) Ophthalmologic apparatus
WO2013128680A1 (en) Funduscopic device
JP6392275B2 (en) Ophthalmic photographing apparatus, ophthalmic image display apparatus, and ophthalmic image processing apparatus
JP6411728B2 (en) Ophthalmic observation device
JP2018198967A (en) Ophthalmologic device
JP5514026B2 (en) Fundus image processing apparatus and fundus observation apparatus
JP6279682B2 (en) Ophthalmic observation device
JP2018023818A (en) Ophthalmological observation device
JP6254724B2 (en) Fundus observation device
JP6503040B2 (en) Ophthalmic observation device
JP6404431B2 (en) Ophthalmic observation device
JP6021289B2 (en) Blood flow information generation device, blood flow information generation method, and program
JP6756873B2 (en) Ophthalmologic imaging equipment
JP2018023819A (en) Ophthalmological observation device
JP2018023815A (en) Ophthalmological observation device
WO2016039188A1 (en) Ocular fundus analyzing device and ocular fundus observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191001