JP2012016620A - Fundus observation device - Google Patents

Fundus observation device Download PDF

Info

Publication number
JP2012016620A
JP2012016620A JP2011232411A JP2011232411A JP2012016620A JP 2012016620 A JP2012016620 A JP 2012016620A JP 2011232411 A JP2011232411 A JP 2011232411A JP 2011232411 A JP2011232411 A JP 2011232411A JP 2012016620 A JP2012016620 A JP 2012016620A
Authority
JP
Japan
Prior art keywords
image
fundus
tomographic image
unit
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011232411A
Other languages
Japanese (ja)
Other versions
JP5367047B2 (en
Inventor
Yasufumi Fukuma
康文 福間
Hiroyuki Aoki
弘幸 青木
Hiroshi Tsukada
央 塚田
Tsutomu Kikawa
勉 木川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2011232411A priority Critical patent/JP5367047B2/en
Publication of JP2012016620A publication Critical patent/JP2012016620A/en
Application granted granted Critical
Publication of JP5367047B2 publication Critical patent/JP5367047B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a fundus observation device, which allows effective and efficient follow-up using a tomographic image of fundus.SOLUTION: The fundus observation device includes an image forming means; a position information generation means; and an image processing means. The image forming means detects an interference light between a signal light and a reference light passed through the fundus of a subject eye, and forms a tomographic image in depth direction of the fundus based on the detection result. The position information generation means generates, based on the formed tomographic image, depth information indicating a position in depth direction of the tomographic image. The image processing means performs, based on depth information generated for a tomographic image formed first and depth information generated for a tomographic image formed subsequently, alignment in depth direction of the former tomographic image and the subsequent tomographic image.

Description

本発明は、被検眼の眼底を観察するために用いられる眼底観察装置に関する。   The present invention relates to a fundus oculi observation device used for observing the fundus oculi of a subject eye.

眼底観察装置としては、従来から眼底カメラが広く用いられている。図13は、従来の一般的な眼底カメラの外観構成の一例を表し、図14は、眼底カメラに内蔵される光学系の構成の一例を表している(たとえば特許文献1参照。)。なお、「観察」とは、眼底の撮影画像を観察する場合を少なくとも含むものとする(その他、肉眼による眼底観察を含んでもよい。)。   Conventionally, fundus cameras have been widely used as fundus oculi observation devices. FIG. 13 shows an example of the external configuration of a conventional general fundus camera, and FIG. 14 shows an example of the configuration of an optical system built in the fundus camera (see, for example, Patent Document 1). Note that “observation” includes at least a case where a photographed image of the fundus is observed (others may include fundus observation with the naked eye).

まず、図13を参照しつつ、従来の眼底カメラ1000の外観構成について説明する。この眼底カメラ1000は、ベース2上に前後左右方向(水平方向)にスライド可能に搭載された架台3を備えている。この架台3には、検者が各種操作を行うための操作パネル3aとジョイスティック4が設置されている。   First, an external configuration of a conventional fundus camera 1000 will be described with reference to FIG. The fundus camera 1000 includes a gantry 3 mounted on a base 2 so as to be slidable in the front-rear and left-right directions (horizontal direction). The gantry 3 is provided with an operation panel 3a and a joystick 4 for the examiner to perform various operations.

検者は、ジョイスティック4を操作することによって、架台3をベース2上において3次元的に移動させることができる。ジョイスティック4の頂部には、眼底を撮影するときに押下される操作ボタン4aが配置されている。   The examiner can move the gantry 3 three-dimensionally on the base 2 by operating the joystick 4. On the top of the joystick 4, an operation button 4a that is pressed when photographing the fundus is disposed.

ベース2上には支柱5が立設されている。この支柱5には、被検者の顎部を載置するための顎受け6と、被検眼Eを固視させるための光を発する外部固視灯7とが設けられている。   A support column 5 is erected on the base 2. The column 5 is provided with a chin rest 6 for mounting the subject's jaw and an external fixation lamp 7 for emitting light for fixing the eye E.

架台3上には、眼底カメラ1000の各種の光学系や制御系を格納する本体部8が搭載されている。なお、制御系は、ベース2や架台3の内部等に設けられていることもあるし、眼底カメラ1000に接続されたコンピュータ等の外部装置に設けられていることもある。   On the gantry 3, a main body 8 that stores various optical systems and control systems of the fundus camera 1000 is mounted. The control system may be provided inside the base 2 or the gantry 3 or may be provided in an external device such as a computer connected to the fundus camera 1000.

本体部8の被検眼E側(図13の紙面左方向)には、被検眼Eに対峙して配置される対物レンズ部8aが設けられている。また、本体部8の検者側(図13の紙面右方向)には、被検眼Eの眼底を肉眼観察するための接眼レンズ部8bが設けられている。   On the eye E side of the main body 8 (the left direction in FIG. 13), an objective lens unit 8a is provided so as to face the eye E. Further, an eyepiece 8b for observing the fundus of the eye E to be examined with the naked eye is provided on the examiner side of the main body 8 (the right direction in FIG. 13).

更に、本体部8には、被検眼Eの眼底の静止画像を撮影するためのスチルカメラ9と、眼底の静止画像や動画像を撮影するためのテレビカメラ等の撮像装置10とが設けられている。このスチルカメラ9と撮像装置10は、それぞれ本体部8に対して着脱可能に形成されている。   Further, the main body 8 is provided with a still camera 9 for capturing a still image of the fundus of the eye E and an imaging device 10 such as a television camera for capturing a still image or a moving image of the fundus. Yes. The still camera 9 and the imaging device 10 are detachably attached to the main body 8.

スチルカメラ9としては、検査の目的や撮影画像の保存方法などの各種条件に応じて、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を搭載したデジタルカメラや、フィルムカメラや、インスタントカメラなどを適宜に装着して使用することができる。本体部8には、このような各種のスチルカメラ9を選択的に装着するための装着部8cが形成されている。   As the still camera 9, a digital camera equipped with an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), or a film camera, depending on various conditions such as the purpose of inspection and the method of storing a captured image In addition, an instant camera or the like can be appropriately attached and used. The main body portion 8 is formed with a mounting portion 8c for selectively mounting such various still cameras 9.

スチルカメラ9や撮像装置10がデジタル撮像方式のものである場合、これらにより撮影された眼底画像の画像データを、眼底カメラ1000に接続されたコンピュータ等に送信し、その眼底画像をディスプレイに表示させて観察することができる。また、眼底カメラ1000に接続された画像記録装置に画像データを送信してデータベース化し、たとえば電子カルテ作成用の電子データとして用いることができる。   When the still camera 9 or the imaging device 10 is of a digital imaging system, the image data of the fundus image captured by the still camera 9 or the imaging device 10 is transmitted to a computer or the like connected to the fundus camera 1000, and the fundus image is displayed on the display. Can be observed. Further, the image data can be transmitted to an image recording apparatus connected to the fundus camera 1000 to form a database and used as electronic data for creating an electronic medical chart, for example.

また、本体部8の検者側には、タッチパネルモニタ11が設けられている。このタッチパネルモニタ11には、(デジタル方式の)スチルカメラ9や撮像装置10から出力される映像信号に基づいて作成される被検眼Eの眼底画像が表示される。また、このタッチパネルモニタ11には、その画面中央を原点とする2次元座標系が眼底画像に重ねて表示されるようになっている。検者が画面上の所望の位置に触れると、その触れた位置に対応する座標値が表示されるようになっている。   A touch panel monitor 11 is provided on the examiner side of the main body 8. On the touch panel monitor 11, a fundus image of the eye E to be examined that is created based on a video signal output from the (digital type) still camera 9 or the imaging device 10 is displayed. On the touch panel monitor 11, a two-dimensional coordinate system having the origin at the center of the screen is displayed superimposed on the fundus image. When the examiner touches a desired position on the screen, a coordinate value corresponding to the touched position is displayed.

次に、図14を参照しつつ、眼底カメラ1000の光学系の構成について説明する。眼底カメラ1000には、被検眼Eの眼底Efを照明する照明光学系100と、この照明光の眼底反射光を接眼レンズ部8b、スチルカメラ9、撮像装置10に導く撮影光学系120とが設けられている。   Next, the configuration of the optical system of the fundus camera 1000 will be described with reference to FIG. The fundus camera 1000 is provided with an illumination optical system 100 that illuminates the fundus oculi Ef of the eye E, and an imaging optical system 120 that guides the fundus reflection light of the illumination light to the eyepiece unit 8b, the still camera 9, and the imaging device 10. It has been.

照明光学系100は、観察光源101、コンデンサレンズ102、撮影光源103、コンデンサレンズ104、エキサイタフィルタ105及び106、リング透光板107、ミラー108、LCD109、照明絞り110、リレーレンズ111、孔開きミラー112、対物レンズ113を含んで構成されている。   The illumination optical system 100 includes an observation light source 101, a condenser lens 102, a photographing light source 103, a condenser lens 104, exciter filters 105 and 106, a ring translucent plate 107, a mirror 108, an LCD 109, an illumination diaphragm 110, a relay lens 111, and a perforated mirror. 112 and an objective lens 113 are included.

観察光源101は、たとえばハロゲンランプにより構成され、眼底観察用の定常光(連続光)を出力する。コンデンサレンズ102は、観察光源101から発せられた定常光(観察照明光)を集光して、観察照明光を眼底にほぼ均等に照明させるための光学素子である。   The observation light source 101 is constituted by a halogen lamp, for example, and outputs steady light (continuous light) for fundus observation. The condenser lens 102 is an optical element that collects steady light (observation illumination light) emitted from the observation light source 101 and illuminates the observation illumination light almost evenly on the fundus.

撮影光源103は、たとえばキセノンランプにより構成され、眼底Efの撮影を行うときにフラッシュ発光される。コンデンサレンズ104は、撮影光源103から発せられたフラッシュ光(撮影照明光)を集光して、撮影照明光を眼底Efに均等に照射させるための光学素子である。   The imaging light source 103 is composed of, for example, a xenon lamp, and emits flash light when imaging the fundus oculi Ef. The condenser lens 104 is an optical element that collects flash light (imaging illumination light) emitted from the imaging light source 103 and uniformly irradiates the fundus oculi Ef with the imaging illumination light.

エキサイタフィルタ105、106は、眼底Efの眼底画像の蛍光撮影を行うときに使用されるフィルタである。このエキサイタフィルタ105、106は、それぞれ、ソレノイド等の駆動機構(図示せず)によって光路上に挿脱可能とされている。エキサイタフィルタ105は、FAG(フルオレセイン蛍光造影)撮影時に光路上に配置される。一方、エキサイタフィルタ106は、ICG(インドシアニングリーン蛍光造影)撮影時に光路上に配置される。なお、カラー撮影時には、エキサイタフィルタ105、106はともに光路上から退避される。   The exciter filters 105 and 106 are filters used when performing fluorescence imaging of a fundus image of the fundus oculi Ef. Each of the exciter filters 105 and 106 can be inserted into and removed from the optical path by a drive mechanism (not shown) such as a solenoid. The exciter filter 105 is disposed on the optical path during FAG (fluorescein fluorescence imaging) imaging. On the other hand, the exciter filter 106 is disposed on the optical path during ICG (Indocyanine Green Fluorescence Imaging) imaging. Note that the exciter filters 105 and 106 are both retracted from the optical path during color photographing.

リング透光板107は、被検眼Eの瞳孔と共役な位置に配置されており、照明光学系100の光軸を中心としたリング透光部107aを備えている。ミラー108は、観察光源101や撮影光源103が発した照明光を撮影光学系120の光軸方向に反射させる。LCD109は、被検眼Eの固視を行うための固視標(図示せず)などを表示する。   The ring translucent plate 107 is disposed at a position conjugate with the pupil of the eye E to be examined, and includes a ring translucent portion 107 a centering on the optical axis of the illumination optical system 100. The mirror 108 reflects the illumination light emitted from the observation light source 101 and the photographing light source 103 in the optical axis direction of the photographing optical system 120. The LCD 109 displays a fixation target (not shown) for fixing the eye E to be examined.

照明絞り110は、フレア防止等のために照明光の一部を遮断する絞り部材である。この照明絞り110は、照明光学系100の光軸方向に移動可能に構成されており、それにより眼底Efの照明領域を調整できるようになっている。   The illumination stop 110 is a stop member that blocks part of the illumination light for preventing flare and the like. The illumination stop 110 is configured to be movable in the optical axis direction of the illumination optical system 100, thereby adjusting the illumination area of the fundus oculi Ef.

孔開きミラー112は、照明光学系100の光軸と撮影光学系120の光軸とを合成する光学素子である。孔開きミラー112の中心領域には孔部112aが開口されている。照明光学系100の光軸と撮影光学系120の光軸は、この孔部112aの略中心位置にて交差するようになっている。対物レンズ113は、本体部8の対物レンズ部8a内に設けられている。   The aperture mirror 112 is an optical element that combines the optical axis of the illumination optical system 100 and the optical axis of the photographing optical system 120. A hole 112 a is opened in the center region of the perforated mirror 112. The optical axis of the illumination optical system 100 and the optical axis of the photographing optical system 120 intersect at a substantially central position of the hole 112a. The objective lens 113 is provided in the objective lens portion 8 a of the main body portion 8.

このような構成を有する照明光学系100は、以下のような態様で眼底Efを照明する。まず、眼底観察時には観察光源101が点灯されて観察照明光が出力される。この観察照明光は、コンデンサレンズ102、104を介してリング透光板107を照射する(エキサイタフィルタ105、106は光路上から退避されている。)。リング透光板107のリング透光部107aを通過した光は、ミラー108により反射され、LCD109、照明絞り110及びリレーレンズ111を経由して孔開きミラー112により反射される。孔開きミラー112により反射された観察照明光は、撮影光学系120の光軸方向に進行し、対物レンズ113により集束されて被検眼Eに入射して眼底Efを照明する。   The illumination optical system 100 having such a configuration illuminates the fundus oculi Ef in the following manner. First, at the time of fundus observation, the observation light source 101 is turned on and observation illumination light is output. This observation illumination light irradiates the ring translucent plate 107 through the condenser lenses 102 and 104 (the exciter filters 105 and 106 are retracted from the optical path). The light that has passed through the ring translucent portion 107 a of the ring translucent plate 107 is reflected by the mirror 108 and reflected by the perforated mirror 112 via the LCD 109, the illumination stop 110, and the relay lens 111. The observation illumination light reflected by the aperture mirror 112 travels in the optical axis direction of the imaging optical system 120, is focused by the objective lens 113, and enters the eye E to illuminate the fundus oculi Ef.

このとき、リング透光板107が被検眼Eの瞳孔に共役な位置に配置されていることから、瞳孔上には、被検眼Eに入射する観察照明光のリング状の像が形成される。観察照明光の眼底反射光は、この瞳孔上のリング状の像の中心暗部を通じて被検眼Eから出射するようになっている。このようにして、観察照明光の眼底反射光に対する、被検眼Eに入射してくる観察照明光の影響を防止するようになっている。   At this time, since the ring translucent plate 107 is disposed at a position conjugate to the pupil of the eye E, a ring-shaped image of observation illumination light incident on the eye E is formed on the pupil. The fundus reflection light of the observation illumination light is emitted from the eye E through the central dark part of the ring-shaped image on the pupil. In this manner, the influence of the observation illumination light incident on the eye E on the fundus reflection light of the observation illumination light is prevented.

一方、眼底Efを撮影するときには、撮影光源103がフラッシュ発光され、撮影照明光が同様の経路を通じて眼底Efに照射される。なお、蛍光撮影の場合には、FAG撮影かICG撮影かに応じて、エキサイタフィルタ105又は106が選択的に光路上に配置される。   On the other hand, when photographing the fundus oculi Ef, the photographing light source 103 emits flash light, and the photographing illumination light is irradiated onto the fundus oculi Ef through a similar route. In the case of fluorescent photographing, the exciter filter 105 or 106 is selectively arranged on the optical path depending on whether FAG photographing or ICG photographing.

次に、撮影光学系120について説明する。撮影光学系120は、対物レンズ113、孔開きミラー112(の孔部112a)、撮影絞り121、バリアフィルタ122及び123、変倍レンズ124、リレーレンズ125、撮影レンズ126、クイックリターンミラー127及び撮影媒体9aを含んで構成される。ここで、撮影媒体9aは、スチルカメラ9に用いられる任意の撮影媒体(CCD等の撮像素子、カメラフィルム、インスタントフィルムなど)である。   Next, the photographing optical system 120 will be described. The photographing optical system 120 includes an objective lens 113, a perforated mirror 112 (hole 112a), a photographing aperture 121, barrier filters 122 and 123, a variable power lens 124, a relay lens 125, a photographing lens 126, a quick return mirror 127, and a photographing. The medium 9a is included. Here, the imaging medium 9a is an arbitrary imaging medium (an imaging element such as a CCD, a camera film, an instant film, etc.) used for the still camera 9.

瞳孔上のリング状の像の中心暗部を通じて被検眼Eから出射した照明光の眼底反射光は、孔開きミラー112の孔部112aを通じて撮影絞り121に入射する。孔開きミラー112は、照明光の角膜反射光を反射して、撮影絞り121に入射する眼底反射光に角膜反射光を混入させないように作用する。それにより、観察画像や撮影画像におけるフレアの発生を抑止するようになっている。   The fundus reflection light of the illumination light emitted from the eye E through the central dark part of the ring-shaped image on the pupil enters the photographing aperture 121 through the hole 112a of the aperture mirror 112. The perforated mirror 112 reflects the corneal reflection light of the illumination light and acts so as not to mix the corneal reflection light into the fundus reflection light incident on the photographing aperture 121. Thereby, the occurrence of flare in the observed image or the photographed image is suppressed.

撮影絞り121は、大きさの異なる複数の円形の透光部が形成された板状の部材である。複数の透光部は、絞り値(F値)の異なる絞りを構成し、図示しない駆動機構によって、透光部が択一的に光路上に配置されるようになっている。   The photographing aperture 121 is a plate-like member in which a plurality of circular translucent portions having different sizes are formed. The plurality of light-transmitting portions constitute diaphragms having different aperture values (F values), and the light-transmitting portions are alternatively arranged on the optical path by a driving mechanism (not shown).

バリアフィルタ122、123は、それぞれ、ソレノイド等の駆動機構(図示せず)によって光路上に挿脱可能とされている。FAG撮影を行うときにはバリアフィルタ122が光路上に配置され、ICG撮影を行うときにはバリアフィルタ123が光路上に配置される。また、カラー撮影を行うときには、バリアフィルタ122、123は、光路上からともに退避される。   Each of the barrier filters 122 and 123 can be inserted into and removed from the optical path by a drive mechanism (not shown) such as a solenoid. When performing FAG imaging, the barrier filter 122 is disposed on the optical path, and when performing ICG imaging, the barrier filter 123 is disposed on the optical path. When performing color photography, both the barrier filters 122 and 123 are retracted from the optical path.

変倍レンズ124は、図示しない駆動機構によって撮影光学系120の光軸方向に移動可能とされている。それにより、観察倍率や撮影倍率の変更、眼底画像のフォーカスなどを行うことができる。撮影レンズ126は、被検眼Eからの眼底反射光を撮影媒体9a上に結像させるレンズである。   The variable magnification lens 124 can be moved in the optical axis direction of the photographing optical system 120 by a driving mechanism (not shown). Thereby, it is possible to change the observation magnification and the imaging magnification, focus the fundus image, and the like. The photographing lens 126 is a lens that forms an image of fundus reflected light from the eye E on the photographing medium 9a.

クイックリターンミラー127は、図示しない駆動機構によって回動軸127a周りに回動可能に設けられている。スチルカメラ9で眼底Efの撮影を行う場合には、光路上に斜設されているクイックリターンミラー127を上方に跳ね上げて、眼底反射光を撮影媒体9aに導くようになっている。一方、撮像装置10による眼底撮影時や、検者の肉眼による眼底観察時には、クイックリターンミラー127を光路上に斜設配置させた状態で、眼底反射光を上方に向けて反射するようになっている。   The quick return mirror 127 is rotatably provided around the rotation shaft 127a by a driving mechanism (not shown). When photographing the fundus oculi Ef with the still camera 9, the fundus reflected light is guided to the photographing medium 9a by jumping up the quick return mirror 127 obliquely provided on the optical path. On the other hand, when photographing the fundus with the imaging device 10 or observing the fundus with the examiner's naked eye, the fundus reflected light is reflected upward with the quick return mirror 127 obliquely arranged on the optical path. Yes.

撮影光学系120には、更に、クイックリターンミラー127により反射された眼底反射光を案内するための、フィールドレンズ(視野レンズ)128、切換ミラー129、接眼レンズ130、リレーレンズ131、反射ミラー132、撮影レンズ133及び撮像素子10aが設けられている。撮像素子10aは、撮像装置10に内蔵されたCCD等の撮像素子である。タッチパネルモニタ11には、撮像素子10aにより撮影された眼底画像Ef′が表示される。   The photographing optical system 120 further includes a field lens (field lens) 128, a switching mirror 129, an eyepiece lens 130, a relay lens 131, a reflection mirror 132, for guiding the fundus reflection light reflected by the quick return mirror 127. A photographing lens 133 and an image sensor 10a are provided. The imaging element 10 a is an imaging element such as a CCD built in the imaging apparatus 10. On the touch panel monitor 11, a fundus oculi image Ef ′ photographed by the image sensor 10a is displayed.

切換ミラー129は、クイックリターンミラー127と同様に、回動軸129a周りに回動可能とされている。この切換ミラー129は、肉眼による観察時には光路上に斜設された状態で眼底反射光を接眼レンズ130に向けて反射する。   As with the quick return mirror 127, the switching mirror 129 is rotatable around the rotation shaft 129a. The switching mirror 129 reflects the fundus reflection light toward the eyepiece lens 130 while being obliquely provided on the optical path during observation with the naked eye.

また、撮像装置10を用いて眼底画像を撮影するときには、切換ミラー129を光路上から退避して、眼底反射光を撮像素子10aに向けて導く。その場合、眼底反射光は、リレーレンズ131を経由してミラー132により反射され、撮影レンズ133によって撮像素子10aに結像される。   Further, when a fundus image is captured using the imaging device 10, the switching mirror 129 is retracted from the optical path to guide the fundus reflection light toward the imaging element 10a. In this case, the fundus reflection light is reflected by the mirror 132 via the relay lens 131 and imaged on the image sensor 10 a by the photographing lens 133.

このような眼底カメラ1000は、眼底Efの表面、すなわち網膜の状態を観察するために用いられる眼底観察装置である。換言すると、眼底カメラ1000は、被検眼Eの角膜の方向から眼底Efを見たときの2次元的な眼底画像を得るための装置である。一方、網膜の深層には脈絡膜や強膜といった組織が存在し、これらの組織の状態を観察するための技術が望まれていたが、近年、これら深層組織を観察するための装置の実用化が進んでいる(たとえば特許文献2、3参照)。   Such a fundus camera 1000 is a fundus oculi observation device used for observing the surface of the fundus oculi Ef, that is, the state of the retina. In other words, the fundus camera 1000 is a device for obtaining a two-dimensional fundus image when the fundus oculi Ef is viewed from the cornea direction of the eye E to be examined. On the other hand, there are tissues such as the choroid and sclera in the deep layer of the retina, and a technique for observing the state of these tissues has been desired. In recent years, a device for observing these deep tissues has been put into practical use. (For example, see Patent Documents 2 and 3).

特許文献2、3に開示された眼底観察装置は、いわゆるOCT(Optical Coherence Tomography)技術を応用した装置(光画像計測装置、光コヒーレンストポグラフィ装置などと呼ばれる。)である。この眼底観察装置は、低コヒーレンス光を二分して、その一方(信号光)を眼底に導き、他方(参照光)を所定の参照物体に導くとともに、眼底を経由した信号光と参照物体を経由した参照光とを重畳して得られる干渉光を検出して解析することにより、眼底の表面ないし深層組織の断層画像を形成する装置である。また、光画像計測装置は、複数の断層画像に基づいて、眼底の3次元画像を形成することが可能である。なお、特許文献2に記載の光画像計測装置は、一般に、フーリエドメイン(Fourier Domain)OCTなどと呼ばれている。   The fundus oculi observation device disclosed in Patent Documents 2 and 3 is a device (referred to as an optical image measurement device, an optical coherence topography device, or the like) that applies so-called OCT (Optical Coherence Tomography) technology. This fundus observation device bisects low-coherence light, guides one (signal light) to the fundus, guides the other (reference light) to a predetermined reference object, and passes the signal light and reference object through the fundus The apparatus forms a tomographic image of the fundus surface or deep tissue by detecting and analyzing interference light obtained by superimposing the reference light. Further, the optical image measurement device can form a three-dimensional image of the fundus oculi based on a plurality of tomographic images. Note that the optical image measurement device described in Patent Literature 2 is generally called a Fourier domain (Fourier Domain) OCT or the like.

フーリエドメインOCTは、信号光をスキャンして眼底に照射することにより、その走査線に沿った深度方向の断面を有する断層画像を形成するようになっている。このような信号光のスキャンは、Bスキャンなどと呼ばれている(たとえば非特許文献1参照)。   The Fourier domain OCT forms a tomographic image having a cross section in the depth direction along the scanning line by scanning the signal light and irradiating the fundus. Such scanning of signal light is called B scan or the like (for example, see Non-Patent Document 1).

3次元画像を形成する場合、複数の走査線に沿ってBスキャンを実行し、それにより得られる複数の断層画像に補間処理を施すなどして3次元画像データを生成する。この3次元画像データは、X線CT装置等の医用画像診断装置と同様に、ボリュームデータ或いはボクセルデータなどと呼ばれ、3次元的に配列された各ボクセルに画素データ(明るさ、濃淡、色等のデータ。輝度値やRGB値など)が割り当てられた形態の画像データである。3次元画像は、ボリュームデータをレンダリングして得られる所定の視線方向から見た擬似的な3次元画像として表示される。   In the case of forming a three-dimensional image, a B-scan is executed along a plurality of scanning lines, and three-dimensional image data is generated by performing interpolation processing on the plurality of tomographic images obtained thereby. This three-dimensional image data is called volume data or voxel data as in the case of a medical image diagnostic apparatus such as an X-ray CT apparatus. Pixel data (brightness, shading, color, etc.) is stored in each voxel arranged three-dimensionally. (Brightness values, RGB values, etc.) are assigned to the image data. The three-dimensional image is displayed as a pseudo three-dimensional image viewed from a predetermined viewing direction obtained by rendering the volume data.

特開2004−350849号公報JP 2004-350849 A 特開2003−543号公報JP 2003-543 A 特開2005−241464号公報Japanese Patent Laying-Open No. 2005-241464

NEDOワークショップ「人体の“窓”、眼底から体内を見る(診る)」−最新光学技術を駆使した生活習慣病の超早期診断機器開発−(開催日:2005年4月25日)、インターネット〈URL:http://www.nedo.go.jp/informations/koubo/170627_2/besshi3.pdf〉NEDO Workshop “Human Body“ Window ”, Viewing the Body from the Fundus (Diagnosis)” -Development of ultra-early diagnostic equipment for lifestyle-related diseases using the latest optical technology- (Date: April 25, 2005), Internet < URL: http: // www. nedo. go. jp / informations / koubo / 170627_2 / besshi3. pdf>

眼科に限らず医療分野全般において、傷病の進行状況や治療効果などを診断するための経過観察が広く実施されている。経過観察は、所定期間を介して複数回の検査を行い、その検査結果を比較して診断を行うものである。経過観察においては、所定期間を介して患部等の注目部位の画像を取得し、その画像を比較することによって注目部位の経時的な変化を確認することが多々ある。   Follow-up observations for diagnosing the progress of wounds and treatment effects and the like are widely performed not only in ophthalmology but in the whole medical field. In follow-up observation, a plurality of inspections are performed over a predetermined period, and the inspection results are compared to make a diagnosis. In follow-up observation, there are many cases where an image of a site of interest such as an affected area is acquired over a predetermined period, and the temporal change of the site of interest is confirmed by comparing the images.

画像を用いた経過観察においては、同一部位の画像を複数回取得する必要があるが、従来の眼底観察装置を用いた眼底検査においては、同一部位の画像を取得することは困難であった。すなわち、各検査日時において同一部位の画像を取得するには、被検眼Eを同じ方向に固視させなければならないが、それは困難であった。また、眼球運動や血流による脈動などによって被検眼の向きが変わってしまうことも、同一部位の画像の取得を難しくする要因であった。   In follow-up observation using images, it is necessary to acquire an image of the same part a plurality of times. However, in a fundus examination using a conventional fundus observation device, it is difficult to acquire an image of the same part. That is, in order to acquire an image of the same part at each examination date and time, the eye E to be examined must be fixed in the same direction, which is difficult. Moreover, the direction of the eye to be changed due to eye movement or pulsation due to blood flow is also a factor that makes it difficult to obtain an image of the same part.

特に光画像計測装置によって取得した眼底の断層画像を比較する場合、それらの断層画像が眼底の同一部位(同一の断面)に相当するものであるか否かを画像から判断することは困難であった。また、過去に取得した断層画像と同じ断面の断層画像を再度取得することも難しかった。このような理由により、有効で効率的な眼底の経過観察を行うことは困難であった。   In particular, when comparing tomographic images of the fundus acquired by the optical image measurement device, it is difficult to determine from the images whether or not these tomographic images correspond to the same region (same cross section) of the fundus. It was. In addition, it is difficult to acquire a tomographic image having the same cross section as that of a tomographic image acquired in the past. For these reasons, it is difficult to effectively and efficiently observe the fundus.

本発明は、以上のような問題を解決するためになされたもので、眼底の断層画像を用いた経過観察を有効かつ効率的に行うことが可能な眼底観察装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a fundus oculi observation device capable of effectively and efficiently performing follow-up observation using a fundus tomographic image. .

上記目的を達成するために、請求項1に記載の眼底観察装置は、画像形成手段と、位置情報生成手段と、画像処理手段とを有する。画像形成手段は、被検眼の眼底を経由した信号光と参照光との干渉光を検出し、その検出結果に基づいて眼底の深度方向の断層画像を形成する。位置情報生成手段は、形成された断層画像に基づいて、当該断層画像の深度方向における位置を示す深度情報を生成する。画像処理手段は、先に形成された断層画像について生成された深度情報と、その後に形成された断層画像について生成された深度情報とに基づいて、先の断層画像と後の断層画像との深度方向における位置合わせを行う。   In order to achieve the above object, a fundus oculi observation device according to a first aspect includes an image forming unit, a position information generating unit, and an image processing unit. The image forming means detects the interference light between the signal light and the reference light that has passed through the fundus of the eye to be examined, and forms a tomographic image of the fundus in the depth direction based on the detection result. The position information generation unit generates depth information indicating the position of the tomographic image in the depth direction based on the formed tomographic image. The image processing means calculates the depth between the previous tomographic image and the subsequent tomographic image based on the depth information generated for the previously formed tomographic image and the depth information generated for the subsequently formed tomographic image. Align in the direction.

また、請求項2に記載の発明は、請求項1に記載の眼底観察装置であって、前記深度情報は、前記画像形成手段により形成された断層画像における眼底の所定の層の位置を、前記断層画像上にあらかじめ設定された座標にて表現した情報を含み、前記画像処理手段は、前記先の断層画像に対応する前記座標と、前記後の断層画像に対応する座標とを一致させるようにして、前記先の断層画像と前記後の断層画像との前記深度方向における位置合わせを行う、ことを特徴とする。   The invention according to claim 2 is the fundus oculi observation device according to claim 1, wherein the depth information indicates a position of a predetermined layer of the fundus in a tomographic image formed by the image forming unit. Including information expressed by coordinates set in advance on the tomographic image, and the image processing means matches the coordinates corresponding to the previous tomographic image with the coordinates corresponding to the subsequent tomographic image. The previous tomographic image and the subsequent tomographic image are aligned in the depth direction.

本発明に係る眼底観察装置は、被検眼の眼底を経由した信号光と参照光との干渉光を検出し、その検出結果に基づいて眼底の深度方向の断層画像を形成する画像形成手段と、形成された断層画像に基づいて当該断層画像の深度方向の位置を示す深度情報を生成する位置情報生成手段と、先に形成された断層画像について生成された深度情報と、その後に形成された断層画像について生成された深度情報とに基づいて、先の断層画像と後の断層画像との深度方向における位置合わせを行う画像処理手段とを備えている。このような本発明によれば、検査日時の異なる先の断層画像と後の断層画像との深度方向における位置合わせを好適に行うことができるので、眼底の断層画像を用いた経過観察を有効にかつ効率的に行うことが可能になる。   The fundus oculi observation device according to the present invention detects an interference light between the signal light and the reference light that has passed through the fundus of the subject's eye, and forms a tomographic image in the depth direction of the fundus based on the detection result; Position information generating means for generating depth information indicating the position of the tomographic image in the depth direction based on the formed tomographic image, depth information generated for the previously formed tomographic image, and a tomographic image formed thereafter Image processing means for aligning the previous tomographic image and the subsequent tomographic image in the depth direction based on the depth information generated for the image is provided. According to the present invention as described above, it is possible to suitably perform alignment in the depth direction between the previous tomographic image and the subsequent tomographic image having different examination dates and times, so that the follow-up observation using the tomographic image of the fundus is effectively performed. And can be performed efficiently.

本発明に係る眼底観察装置の好適な実施形態の全体構成の一例を表す概略構成図である。It is a schematic block diagram showing an example of the whole structure of suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態における眼底カメラユニットに内蔵される走査ユニットの構成の一例を表す概略構成図である。It is a schematic block diagram showing an example of a structure of the scanning unit incorporated in the fundus camera unit in a preferred embodiment of the fundus oculi observation device according to the present invention. 本発明に係る眼底観察装置の好適な実施形態におけるOCTユニットの構成の一例を表す概略構成図である。It is a schematic block diagram showing an example of a structure of the OCT unit in suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態における演算制御装置のハードウェア構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of the hardware constitutions of the calculation control apparatus in suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態の制御系の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of the structure of the control system of suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態における操作パネルの外観構成の一例を表す概略図である。It is the schematic showing an example of the external appearance structure of the operation panel in suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態における演算制御装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of a structure of the arithmetic and control unit in suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態による信号光の走査態様の一例を表す概略図である。図8(A)は、被検眼に対する信号光の入射側から眼底を見たときの信号光の走査態様の一例を表している。また、図8(B)は、各走査線上の走査点の配列態様の一例を表している。It is the schematic showing an example of the scanning aspect of the signal light by suitable embodiment of the fundus oculi observation device concerning the present invention. FIG. 8A shows an example of a scanning mode of signal light when the fundus is viewed from the signal light incident side with respect to the eye to be examined. FIG. 8B shows an example of an arrangement mode of scanning points on each scanning line. 本発明に係る眼底観察装置の好適な実施形態による信号光の走査態様、及び、各走査線に沿って形成される断層画像の態様の一例を表す概略図である。It is the schematic showing an example of the scanning aspect of the signal light by the suitable embodiment of the fundus oculi observation device concerning the present invention, and the aspect of the tomographic image formed along each scanning line. 本発明に係る眼底観察装置の好適な実施形態の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態により表示される画面の一例を表す概略図である。It is the schematic showing an example of the screen displayed by suitable embodiment of the fundus oculi observation device concerning the present invention. 本発明に係る眼底観察装置の好適な実施形態の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of suitable embodiment of the fundus oculi observation device concerning the present invention. 従来における眼底観察装置(眼底カメラ)の外観構成の一例を表す概略側面図である。It is a schematic side view showing an example of the appearance composition of the conventional fundus oculi observation device (fundus camera). 従来における眼底観察装置(眼底カメラ)の内部構成(光学系の構成)の一例を表す概略図である。It is the schematic showing an example of the internal structure (structure of an optical system) of the fundus observation apparatus (fundus camera) in the past.

本発明に係る眼底観察装置の好適な実施の形態の一例について、図面を参照しながら詳細に説明する。なお、従来と同様の構成部分については、図13、図14と同じ符号を用いることにする。   An example of a preferred embodiment of a fundus oculi observation device according to the present invention will be described in detail with reference to the drawings. Note that the same reference numerals as those in FIGS. 13 and 14 are used for the same components as in the prior art.

まず、図1〜図7を参照して、本実施形態に係る眼底観察装置の構成について説明する。図1は、本実施形態に係る眼底観察装置1の全体構成の一例を表している。図2は、眼底カメラユニット1A内の走査ユニット141の構成の一例を表している。図3は、OCTユニット150の構成の一例を表している。図4は、演算制御装置200のハードウェア構成の一例を表している。図5は、眼底観察装置1の制御系の構成の一例を表している。図6は、眼底カメラユニット1Aに設けられた操作パネル3aの構成の一例を表している。図7は、演算制御装置200の制御系の構成の一例を表している。   First, the structure of the fundus oculi observation device according to the present embodiment will be described with reference to FIGS. FIG. 1 shows an example of the entire configuration of the fundus oculi observation device 1 according to the present embodiment. FIG. 2 shows an example of the configuration of the scanning unit 141 in the fundus camera unit 1A. FIG. 3 shows an example of the configuration of the OCT unit 150. FIG. 4 illustrates an example of a hardware configuration of the arithmetic control device 200. FIG. 5 shows an example of the configuration of the control system of the fundus oculi observation device 1. FIG. 6 shows an example of the configuration of the operation panel 3a provided in the fundus camera unit 1A. FIG. 7 shows an example of the configuration of the control system of the arithmetic and control unit 200.

[全体構成]
図1に示すように、眼底観察装置1は、眼底カメラとして機能する眼底カメラユニット1Aと、光画像計測装置(OCT装置)の光学系を格納したOCTユニット150と、各種の演算処理や制御処理等を実行する演算制御装置200とを含んで構成されている。
[overall structure]
As shown in FIG. 1, a fundus oculi observation device 1 includes a fundus camera unit 1A that functions as a fundus camera, an OCT unit 150 that stores an optical system of an optical image measurement device (OCT device), and various arithmetic processes and control processes. Etc., and an arithmetic and control unit 200 that executes the above.

OCTユニット150には、接続線152の一端が取り付けられている。この接続線152の他端には、コネクタ部151が取り付けられている。このコネクタ部151は、図13に示した装着部8cに装着される。また、接続線152の内部には光ファイバが導通されている。OCTユニット150と眼底カメラユニット1Aは、接続線152を介して光学的に接続されている。OCTユニット150の詳細構成については、図3を参照しつつ後述することにする。   One end of a connection line 152 is attached to the OCT unit 150. A connector portion 151 is attached to the other end of the connection line 152. The connector portion 151 is attached to the attachment portion 8c shown in FIG. In addition, an optical fiber is conducted inside the connection line 152. The OCT unit 150 and the fundus camera unit 1A are optically connected via a connection line 152. The detailed configuration of the OCT unit 150 will be described later with reference to FIG.

〔眼底カメラユニットの構成〕
眼底カメラユニット1Aは、光学的に取得されるデータ(撮像装置10、12により検出されるデータ)に基づいて被検眼の眼底の表面の2次元画像を形成する装置であり、図13に示した従来の眼底カメラ1000とほぼ同様の外観構成を有している。また、眼底カメラユニット1Aは、図14に示した従来の光学系と同様に、被検眼Eの眼底Efを照明する照明光学系100と、この照明光の眼底反射光を撮像装置10に導く撮影光学系120とを備えている。
[Configuration of fundus camera unit]
The fundus camera unit 1A is a device that forms a two-dimensional image of the surface of the fundus of the subject's eye based on optically acquired data (data detected by the imaging devices 10 and 12), as shown in FIG. The external appearance is almost the same as that of the conventional fundus camera 1000. Similarly to the conventional optical system shown in FIG. 14, the fundus camera unit 1 </ b> A illuminates the fundus oculi Ef of the eye E to be examined, and photographing that guides the fundus reflection light of the illumination light to the imaging device 10. And an optical system 120.

なお、詳細は後述するが、本実施形態の撮影光学系120における撮像装置10は、近赤外領域の波長を有する照明光を検出するものである。また、この撮影光学系120には、可視領域の波長を有する照明光を検出する撮像装置12が別途設けられている。更に、この撮影光学系120は、OCTユニット150からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット150に導くようになっている。   In addition, although mentioned later for details, the imaging device 10 in the imaging | photography optical system 120 of this embodiment detects the illumination light which has a wavelength of a near infrared region. The photographing optical system 120 is separately provided with an imaging device 12 for detecting illumination light having a wavelength in the visible region. Further, the photographing optical system 120 guides the signal light from the OCT unit 150 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 150.

さて、照明光学系100は、従来と同様に、観察光源101、コンデンサレンズ102、撮影光源103、コンデンサレンズ104、エキサイタフィルタ105及び106、リング透光板107、ミラー108、LCD109、照明絞り110、リレーレンズ111、孔開きミラー112、対物レンズ113を含んで構成される。   The illumination optical system 100 includes an observation light source 101, a condenser lens 102, a photographing light source 103, a condenser lens 104, exciter filters 105 and 106, a ring translucent plate 107, a mirror 108, an LCD 109, an illumination stop 110, as in the conventional case. A relay lens 111, a perforated mirror 112, and an objective lens 113 are included.

観察光源101は、約400nm〜700nmの範囲に含まれる可視領域の波長の照明光を出力する。また、撮影光源103は、約700nm〜800nmの範囲に含まれる近赤外領域の波長の照明光を出力する。この撮影光源103から出力される近赤外光は、OCTユニット150で使用する光の波長よりも短く設定されている(後述)。   The observation light source 101 outputs illumination light having a wavelength in the visible region included in the range of about 400 nm to 700 nm. The imaging light source 103 outputs illumination light having a wavelength in the near infrared region included in a range of about 700 nm to 800 nm. The near-infrared light output from the imaging light source 103 is set to be shorter than the wavelength of light used in the OCT unit 150 (described later).

また、撮影光学系120は、対物レンズ113、孔開きミラー112(の孔部112a)、撮影絞り121、バリアフィルタ122及び123、変倍レンズ124、リレーレンズ125、撮影レンズ126、ダイクロイックミラー134、フィールドレンズ(視野レンズ)128、ハーフミラー135、リレーレンズ131、ダイクロイックミラー136、撮影レンズ133、撮像装置10(撮像素子10a)、反射ミラー137、撮影レンズ138、撮影装置12(撮像素子12a)、レンズ139及びLCD(Liquid Crystal Display)140を含んで構成される。   The photographing optical system 120 includes an objective lens 113, a perforated mirror 112 (hole 112a), a photographing aperture 121, barrier filters 122 and 123, a variable power lens 124, a relay lens 125, a photographing lens 126, a dichroic mirror 134, Field lens (field lens) 128, half mirror 135, relay lens 131, dichroic mirror 136, photographing lens 133, imaging device 10 (imaging device 10a), reflection mirror 137, photographing lens 138, photographing device 12 (imaging device 12a), A lens 139 and an LCD (Liquid Crystal Display) 140 are included.

本実施形態に係る撮影光学系120においては、図14に示した従来の撮影光学系120と異なり、ダイクロイックミラー134、ハーフミラー135、ダイクロイックミラー136、反射ミラー137、撮影レンズ138、レンズ139及びLCD140が設けられている。   In the photographing optical system 120 according to the present embodiment, unlike the conventional photographing optical system 120 shown in FIG. 14, the dichroic mirror 134, the half mirror 135, the dichroic mirror 136, the reflection mirror 137, the photographing lens 138, the lens 139, and the LCD 140. Is provided.

ダイクロイックミラー134は、照明光学系100からの照明光の眼底反射光(約400nm〜800nmの範囲に含まれる波長を有する)を反射するとともに、OCTユニット150からの信号光LS(約800nm〜900nmの範囲に含まれる波長を有する;後述)を透過させるように構成されている。   The dichroic mirror 134 reflects the fundus reflection light (having a wavelength included in the range of about 400 nm to 800 nm) of the illumination light from the illumination optical system 100 and the signal light LS (about 800 nm to 900 nm of the OCT unit 150). It is configured to transmit light having a wavelength included in the range;

また、ダイクロイックミラー136は、照明光学系100からの可視領域の波長を有する照明光(観察光源101から出力される波長約400nm〜700nmの可視光)を透過させるとともに、近赤外領域の波長を有する照明光(撮影光源103から出力される波長約700nm〜800nmの近赤外光)を反射するように構成されている。   Further, the dichroic mirror 136 transmits illumination light having a wavelength in the visible region from the illumination optical system 100 (visible light having a wavelength of about 400 nm to 700 nm output from the observation light source 101) and changes the wavelength in the near infrared region. It is configured to reflect the illumination light it has (near infrared light with a wavelength of about 700 nm to 800 nm output from the imaging light source 103).

LCD140には、内部固視標などが表示される。このLCD140からの光は、レンズ139により集光された後に、ハーフミラー135により反射され、フィールドレンズ128を経由してダイクロイックミラー136に反射される。そして、撮影レンズ126、リレーレンズ125、変倍レンズ124、孔開きミラー112(の孔部112a)、対物レンズ113等を経由して、被検眼Eに入射する。それにより、被検眼Eの眼底Efに内部固視標等が投影される。   On the LCD 140, an internal fixation target or the like is displayed. The light from the LCD 140 is collected by the lens 139, reflected by the half mirror 135, and then reflected by the dichroic mirror 136 via the field lens 128. Then, the light enters the eye E through the photographing lens 126, the relay lens 125, the variable power lens 124, the aperture mirror 112 (the aperture 112 a), the objective lens 113, and the like. Thereby, an internal fixation target or the like is projected onto the fundus oculi Ef of the eye E to be examined.

撮像素子10aは、テレビカメラ等の撮像装置10に内蔵されたCCDやCMOS等の撮像素子であり、特に、近赤外領域の波長の光を検出するものである(つまり、撮像装置10は、近赤外光を検出する赤外線テレビカメラである。)。撮像装置10は、近赤外光を検出した結果として映像信号を出力する。タッチパネルモニタ11は、この映像信号に基づいて、眼底Efの表面の2次元画像(眼底画像Ef′)を表示する。また、この映像信号は演算制御装置200に送られ、そのディスプレイ(後述)に眼底画像が表示されるようになっている。なお、この撮像装置10による眼底撮影時には、たとえば照明光学系100の撮影光源103から出力される近赤外領域の波長を有する照明光が用いられる。   The image pickup device 10a is an image pickup device such as a CCD or a CMOS built in the image pickup device 10 such as a television camera, and particularly detects light having a wavelength in the near infrared region (that is, the image pickup device 10 is It is an infrared TV camera that detects near-infrared light.) The imaging device 10 outputs a video signal as a result of detecting near infrared light. The touch panel monitor 11 displays a two-dimensional image (fundus image Ef ′) of the surface of the fundus oculi Ef based on this video signal. The video signal is sent to the arithmetic and control unit 200, and a fundus image is displayed on the display (described later). At the time of fundus photographing by the imaging apparatus 10, for example, illumination light having a wavelength in the near infrared region output from the photographing light source 103 of the illumination optical system 100 is used.

一方、撮像素子12aは、テレビカメラ等の撮像装置12に内蔵されたCCDやCMOS等の撮像素子であり、特に、可視領域の波長の光を検出するものである(つまり、撮像装置12は、可視光を検出するテレビカメラである。)。撮像装置12は、可視光を検出した結果として映像信号を出力する。タッチパネルモニタ11は、この映像信号に基づいて、眼底Efの表面の2次元画像(眼底画像Ef′)を表示する。また、この映像信号は演算制御装置200に送られ、そのディスプレイ(後述)に眼底画像が表示されるようになっている。なお、この撮像装置12による眼底撮影時には、たとえば照明光学系100の観察光源101から出力される可視領域の波長を有する照明光が用いられる。   On the other hand, the image pickup device 12a is an image pickup device such as a CCD or a CMOS built in the image pickup device 12 such as a TV camera, and particularly detects light having a wavelength in the visible region (that is, the image pickup device 12 is TV camera that detects visible light.) The imaging device 12 outputs a video signal as a result of detecting visible light. The touch panel monitor 11 displays a two-dimensional image (fundus image Ef ′) of the surface of the fundus oculi Ef based on this video signal. The video signal is sent to the arithmetic and control unit 200, and a fundus image is displayed on the display (described later). At the time of fundus photographing by the imaging device 12, for example, illumination light having a visible region wavelength output from the observation light source 101 of the illumination optical system 100 is used.

本実施形態の撮影光学系120には、走査ユニット141と、レンズ142とが設けられている。走査ユニット141は、OCTユニット150から出力される光(信号光LS;後述する。)を眼底Ef上において走査する構成を具備している。   The photographing optical system 120 of the present embodiment is provided with a scanning unit 141 and a lens 142. The scanning unit 141 has a configuration that scans light (signal light LS; described later) output from the OCT unit 150 on the fundus oculi Ef.

レンズ142は、OCTユニット150から接続線152を通じて導光された信号光LSを平行な光束にして走査ユニット141に入射させる。また、レンズ142は、走査ユニット141を経由してきた信号光LSの眼底反射光を集束させるように作用する。   The lens 142 makes the signal light LS guided from the OCT unit 150 through the connection line 152 enter the scanning unit 141 as a parallel light beam. The lens 142 acts to focus the fundus reflection light of the signal light LS that has passed through the scanning unit 141.

図2に、走査ユニット141の具体的構成の一例を示す。走査ユニット141は、ガルバノミラー141A、141Bと、反射ミラー141C、141Dとを含んで構成されている。   FIG. 2 shows an example of a specific configuration of the scanning unit 141. The scanning unit 141 includes galvanometer mirrors 141A and 141B and reflection mirrors 141C and 141D.

ガルバノミラー141A、141Bは、それぞれ回動軸141a、141bを中心に回動可能とされている。回動軸141a、141bは、互いに直交するように配設されている。図2においては、ガルバノミラー141Aの回動軸141aは、同図の紙面に対して平行方向に配設されており、ガルバノミラー141Bの回動軸141bは、同図の紙面に対して直交する方向に配設されている。すなわち、ガルバノミラー141Bは、図2中の両側矢印に示す方向に回動可能に構成され、ガルバノミラー141Aは、当該両側矢印に対して直交する方向に回動可能に構成されている。それにより、この一対のガルバノミラー141A、141Bは、信号光LSの反射方向を互いに直交する方向に変更するようにそれぞれ作用する。なお、ガルバノミラー141A、141Bのそれぞれの回動動作は、後述のミラー駆動機構(図5参照)によって駆動される。   The galvanometer mirrors 141A and 141B are rotatable about the rotation shafts 141a and 141b, respectively. The rotating shafts 141a and 141b are disposed so as to be orthogonal to each other. In FIG. 2, the rotation shaft 141a of the galvano mirror 141A is arranged in a direction parallel to the paper surface of FIG. 2, and the rotation shaft 141b of the galvano mirror 141B is orthogonal to the paper surface of FIG. Arranged in the direction. That is, the galvano mirror 141B is configured to be rotatable in a direction indicated by a double-sided arrow in FIG. 2, and the galvano mirror 141A is configured to be rotatable in a direction orthogonal to the double-sided arrow. Accordingly, the pair of galvanometer mirrors 141A and 141B act so as to change the reflection direction of the signal light LS to directions orthogonal to each other. In addition, each rotation operation | movement of the galvanometer mirror 141A, 141B is driven by the below-mentioned mirror drive mechanism (refer FIG. 5).

ガルバノミラー141A、141Bにより反射された信号光LSは、反射ミラー141C、141Dにより反射され、ガルバノミラー141Aに入射したときと同一の向きに進行するようになっている。   The signal light LS reflected by the galvanometer mirrors 141A and 141B is reflected by the reflection mirrors 141C and 141D and travels in the same direction as when incident on the galvanometer mirror 141A.

なお、前述のように、接続線152の内部には光ファイバ152aが導通されており、この光ファイバ152aの端面152bは、レンズ142に対峙して配設される。この端面152bから出射した信号光LSは、レンズ142に向かってビーム径を拡大しつつ進行するが、このレンズ142によって平行な光束とされる。逆に、眼底Efを経由した信号光LSは、このレンズ142により、端面152bに向けて集束されるようになっている。   As described above, the optical fiber 152 a is electrically connected to the inside of the connection line 152, and the end surface 152 b of the optical fiber 152 a is disposed so as to face the lens 142. The signal light LS emitted from the end surface 152b travels toward the lens 142 while expanding the beam diameter, but is converted into a parallel light beam by the lens 142. On the contrary, the signal light LS passing through the fundus oculi Ef is focused toward the end surface 152b by the lens 142.

〔OCTユニットの構成〕
次に、図3を参照しつつOCTユニット150の構成について説明する。同図に示すOCTユニット150は、光学的な走査により取得されるデータ(後述のCCD184により検出されるデータ)に基づいて前記眼底の断層画像を形成するための装置であり、従来の光画像計測装置とほぼ同様の光学系、すなわち、光源から出力された光を参照光と信号光とに分割し、参照物体を経由した参照光と被測定物体(眼底Ef)を経由した信号光とを重畳して干渉光を生成する干渉計と、この干渉光を検出した結果としての信号を演算制御装置200に向けて出力する手段とを具備している。演算制御装置200は、この信号を解析して被測定物体(眼底Ef)の画像を形成する。
[Configuration of OCT unit]
Next, the configuration of the OCT unit 150 will be described with reference to FIG. An OCT unit 150 shown in the figure is an apparatus for forming a tomographic image of the fundus oculi based on data acquired by optical scanning (data detected by a CCD 184 described later), and is a conventional optical image measurement. Optical system almost the same as the device, that is, the light output from the light source is divided into reference light and signal light, and the reference light passing through the reference object and the signal light passing through the object to be measured (fundus Ef) are superimposed Thus, an interferometer that generates interference light and means for outputting a signal as a result of detecting the interference light to the arithmetic and control unit 200 are provided. The arithmetic and control unit 200 analyzes this signal and forms an image of the measured object (fundus Ef).

低コヒーレンス光源160は、低コヒーレンス光L0を出力するスーパールミネセントダイオード(SLD)や発光ダイオード(LED)等の広帯域光源により構成されている。この低コヒーレンス光L0は、たとえば、近赤外領域の波長を有し、かつ、数十マイクロメートル程度の時間的コヒーレンス長を有する光とされる。この低コヒーレンス光源160から出力される低コヒーレンス光L0は、眼底カメラユニット1Aの照明光(波長約400nm〜800nm)よりも長い波長、たとえば約800nm〜900nmの範囲に含まれる波長を有している。この低コヒーレンス光源160は、本発明の「光源」の一例に相当するものである。   The low coherence light source 160 is configured by a broadband light source such as a super luminescent diode (SLD) or a light emitting diode (LED) that outputs low coherence light L0. The low coherence light L0 is, for example, light having a wavelength in the near infrared region and a temporal coherence length of about several tens of micrometers. The low coherence light L0 output from the low coherence light source 160 has a wavelength longer than the illumination light (wavelength of about 400 nm to 800 nm) of the fundus camera unit 1A, for example, a wavelength included in a range of about 800 nm to 900 nm. . This low coherence light source 160 corresponds to an example of the “light source” of the present invention.

低コヒーレンス光源160から出力された低コヒーレンス光L0は、たとえばシングルモードファイバないしはPMファイバ(Polarization maintaining fiber;偏波面保持ファイバ)からなる光ファイバ161を通じて光カプラ(coupler)162に導かれる。光カプラ162は、この低コヒーレンス光L0を参照光LRと信号光LSとに分割する。   The low coherence light L0 output from the low coherence light source 160 is guided to an optical coupler 162 through an optical fiber 161 made of, for example, a single mode fiber or a PM fiber (Polarization maintaining fiber). The optical coupler 162 splits the low coherence light L0 into the reference light LR and the signal light LS.

なお、光カプラ162は、光を分割する手段(スプリッタ;splitter)、及び、光を重畳する手段(カプラ)の双方の作用を有するが、ここでは慣用的に「光カプラ」と称することにする。   The optical coupler 162 has both functions of a means for splitting light (splitter) and a means for superposing light (coupler), but here it is conventionally referred to as “optical coupler”. .

光カプラ162により生成された参照光LRは、シングルモードファイバ等からなる光ファイバ163により導光されてファイバ端面から出射される。出射された参照光LRは、コリメータレンズ171により平行光束とされた後、ガラスブロック172及び濃度フィルタ173を経由し、参照ミラー174(参照物体)によって反射される。   The reference light LR generated by the optical coupler 162 is guided by an optical fiber 163 made of a single mode fiber or the like and emitted from the end face of the fiber. The emitted reference light LR is collimated by the collimator lens 171 and then reflected by the reference mirror 174 (reference object) via the glass block 172 and the density filter 173.

参照ミラー174により反射された参照光LRは、再び濃度フィルタ173及びガラスブロック172を経由し、コリメータレンズ171によって光ファイバ163のファイバ端面に集光される。集光された参照光LRは、光ファイバ163を通じて光カプラ162に導かれる。   The reference light LR reflected by the reference mirror 174 passes through the density filter 173 and the glass block 172 again, and is condensed on the fiber end surface of the optical fiber 163 by the collimator lens 171. The collected reference light LR is guided to the optical coupler 162 through the optical fiber 163.

なお、ガラスブロック172と濃度フィルタ173は、参照光LRと信号光LSの光路長(光学距離)を合わせるための遅延手段として、また参照光LRと信号光LSの分散特性を合わせるための手段として作用している。   The glass block 172 and the density filter 173 are used as delay means for matching the optical path lengths (optical distances) of the reference light LR and the signal light LS, and as means for matching the dispersion characteristics of the reference light LR and the signal light LS. It is working.

また、参照ミラー174は、参照光LRの進行方向(図3に示す矢印方向)に移動されるように構成されている。それにより、被検眼Eの眼軸長などに応じた参照光LRの光路長を確保するようになっている。なお、この参照ミラー174の移動は、モータ等の駆動装置を含んで構成される駆動機構(後述の参照ミラー駆動機構243;図5参照)によって行われる。   Further, the reference mirror 174 is configured to be moved in the traveling direction of the reference light LR (the arrow direction shown in FIG. 3). Thereby, the optical path length of the reference light LR corresponding to the axial length of the eye E to be examined is secured. The reference mirror 174 is moved by a drive mechanism including a drive device such as a motor (reference mirror drive mechanism 243 described later; see FIG. 5).

一方、光カプラ162により生成された信号光LSは、シングルモードファイバ等からなる光ファイバ164により接続線152の端部まで導光される。接続線152の内部には光ファイバ152aが導通されている。ここで、光ファイバ164と光ファイバ152aとは、単一の光ファイバにより構成されていてもよいし、また、各々の端面同士を接合するなどして一体的に形成されたものであってもよい。いずれにしても、光ファイバ164、152aは、眼底カメラユニット1AとOCTユニット150との間で、信号光LSを伝送可能に構成されていれば十分である。   On the other hand, the signal light LS generated by the optical coupler 162 is guided to the end of the connection line 152 by an optical fiber 164 made of a single mode fiber or the like. An optical fiber 152 a is conducted inside the connection line 152. Here, the optical fiber 164 and the optical fiber 152a may be configured by a single optical fiber, or may be formed integrally by joining the end faces thereof. Good. In any case, it is sufficient that the optical fibers 164 and 152a are configured to transmit the signal light LS between the fundus camera unit 1A and the OCT unit 150.

信号光LSは、接続線152内部を導光されて眼底カメラユニット1Aに案内される。そして、レンズ142、走査ユニット141、ダイクロイックミラー134、撮影レンズ126、リレーレンズ125、変倍レンズ124、撮影絞り121、孔開きミラー112の孔部112a、対物レンズ113を経由して、被検眼Eに入射する(このとき、バリアフィルタ122、123は、それぞれ光路から退避されている。)。   The signal light LS is guided through the connection line 152 and guided to the fundus camera unit 1A. Then, the eye E is passed through the lens 142, the scanning unit 141, the dichroic mirror 134, the photographing lens 126, the relay lens 125, the variable magnification lens 124, the photographing aperture 121, the hole 112a of the aperture mirror 112, and the objective lens 113. (At this time, the barrier filters 122 and 123 are respectively retracted from the optical path).

被検眼Eに入射した信号光LSは、眼底(網膜)Ef上にて結像し反射される。このとき、信号光LSは、眼底Efの表面で反射されるだけでなく、眼底Efの深部領域にも到達して屈折率境界において散乱される。したがって、眼底Efを経由した信号光LSは、眼底Efの表面形態を反映する情報と、眼底深部組織の屈折率境界における後方散乱の状態を反映する情報とを含んだ光となる。この光を単に「信号光LSの眼底反射光」と呼ぶことがある。   The signal light LS incident on the eye E is imaged and reflected on the fundus (retina) Ef. At this time, the signal light LS is not only reflected by the surface of the fundus oculi Ef, but also reaches the deep region of the fundus oculi Ef and is scattered at the refractive index boundary. Therefore, the signal light LS passing through the fundus oculi Ef is light including information reflecting the surface morphology of the fundus oculi Ef and information reflecting the state of backscattering at the refractive index boundary of the deep fundus tissue. This light may be simply referred to as “fundus reflected light of the signal light LS”.

信号光LSの眼底反射光は、上記経路を逆向きに進行して光ファイバ152aの端面152bに集光され、この光ファイバ152を通じてOCTユニット150に入射し、光ファイバ164を通じて光カプラ162に戻ってくる。光カプラ162は、この信号光LSと、参照ミラー174にて反射された参照光LRとを重畳して干渉光LCを生成する。生成された干渉光LCは、シングルモードファイバ等からなる光ファイバ165を通じてスペクトロメータ180に導光される。   The fundus reflection light of the signal light LS travels in the reverse direction in the above path, is condensed on the end surface 152b of the optical fiber 152a, enters the OCT unit 150 through the optical fiber 152, and returns to the optical coupler 162 through the optical fiber 164. Come. The optical coupler 162 superimposes the signal light LS and the reference light LR reflected by the reference mirror 174 to generate interference light LC. The generated interference light LC is guided to the spectrometer 180 through an optical fiber 165 made of a single mode fiber or the like.

ここで、本発明の「干渉光生成手段」は、少なくとも、光カプラ162、光ファイバ163、164、参照ミラー174を含む干渉計によって構成される。なお、本実施形態ではマイケルソン型の干渉計を採用したが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜採用することが可能である。   Here, the “interference light generating means” of the present invention is configured by an interferometer including at least an optical coupler 162, optical fibers 163 and 164, and a reference mirror 174. In the present embodiment, a Michelson interferometer is used. However, for example, any type of interferometer such as a Mach-Zehnder type can be appropriately used.

スペクトロメータ(分光計)180は、コリメータレンズ181、回折格子182、結像レンズ183、CCD184を含んで構成される。本実施形態の回折格子182は、透過型回折格子であるが、もちろん反射型回折格子を用いることも可能である。また、CCD184に代えて、その他の光検出素子を適用することももちろん可能である。このような光検出素子は、本発明の「検出手段」の一例に相当するものである。   The spectrometer (spectrometer) 180 includes a collimator lens 181, a diffraction grating 182, an imaging lens 183, and a CCD 184. The diffraction grating 182 of the present embodiment is a transmission diffraction grating, but of course, a reflection diffraction grating can also be used. Of course, other photodetecting elements can be used instead of the CCD 184. Such a light detection element corresponds to an example of the “detection means” of the present invention.

スペクトロメータ180に入射した干渉光LCは、コリメータレンズ181により平行光束とされた後、回折格子182によって分光(スペクトル分解)される。分光された干渉光LCは、結像レンズ183によってCCD184の撮像面上に結像される。CCD184は、この干渉光LCを受光して電気的な検出信号に変換し、この検出信号を演算制御装置200に出力する。   The interference light LC incident on the spectrometer 180 is converted into a parallel light beam by the collimator lens 181 and then split (spectral decomposition) by the diffraction grating 182. The split interference light LC is imaged on the imaging surface of the CCD 184 by the imaging lens 183. The CCD 184 receives this interference light LC and converts it into an electrical detection signal, and outputs this detection signal to the arithmetic and control unit 200.

〔演算制御装置の構成〕
次に、演算制御装置200の構成について説明する。この演算制御装置200は、OCTユニット150のスペクトロメータ180のCCD184から入力される検出信号を解析して、被検眼Eの眼底Efの断層画像を形成する処理を行う。このときの解析手法は、従来のフーリエドメインOCTの手法と同じである。
[Configuration of arithmetic control unit]
Next, the configuration of the arithmetic and control unit 200 will be described. The arithmetic and control unit 200 analyzes a detection signal input from the CCD 184 of the spectrometer 180 of the OCT unit 150 and performs a process of forming a tomographic image of the fundus oculi Ef of the eye E to be examined. The analysis method at this time is the same as the conventional Fourier domain OCT method.

また、演算制御装置200は、眼底カメラユニット1Aの撮像装置10、12から出力される映像信号に基づいて眼底Efの表面(網膜)の形態を示す2次元画像(の画像データ)を形成する処理を行う。   The arithmetic and control unit 200 forms a two-dimensional image (image data) indicating the form of the surface (retina) of the fundus oculi Ef based on video signals output from the imaging devices 10 and 12 of the fundus camera unit 1A. I do.

更に、演算制御装置200は、眼底カメラユニット1A及びOCTユニット150の各部の制御を実行する。   Furthermore, the arithmetic and control unit 200 controls each part of the fundus camera unit 1A and the OCT unit 150.

眼底カメラユニット1Aの制御としては、たとえば、観察光源101や撮影光源103による照明光の出力制御、エキサイタフィルタ105、106やバリアフィルタ122、123の光路上への挿入/退避動作の制御、LCD140等の表示動作の制御、照明絞り110の移動制御(絞り値の制御)、撮影絞り121の絞り値の制御、変倍レンズ124の移動制御(倍率の制御)などを行う。また、演算制御装置200は、走査ユニット141内のガルバノミラー141A、141Bの回動動作の制御を行う。   Control of the fundus camera unit 1A includes, for example, output control of illumination light by the observation light source 101 and the imaging light source 103, control of insertion / retraction operation of the exciter filters 105 and 106 and barrier filters 122 and 123 on the optical path, LCD 140, etc. Display control, movement control of the aperture stop 110 (control of the aperture value), control of the aperture value of the photographing aperture 121, control of movement of the variable power lens 124 (control of magnification), and the like. The arithmetic and control unit 200 controls the rotation operation of the galvanometer mirrors 141A and 141B in the scanning unit 141.

一方、OCTユニット150の制御としては、低コヒーレンス光源160による低コヒーレンス光の出力制御、参照ミラー174の移動制御、CCD184の蓄積時間の制御などを行う。   On the other hand, as control of the OCT unit 150, output control of low coherence light by the low coherence light source 160, movement control of the reference mirror 174, control of the accumulation time of the CCD 184, and the like are performed.

以上のように作用する演算制御装置200のハードウェア構成の一例について、図4を参照しつつ説明する。演算制御装置200は、従来のコンピュータと同様のハードウェア構成を備えている。具体的には、マイクロプロセッサ201(CPU、MPU等)、RAM202、ROM203、ハードディスクドライブ(HDD)204、キーボード205、マウス206、ディスプレイ207、画像形成ボード208及び通信インターフェイス(I/F)208を含んで構成されている。これら各部は、バス200aを介して接続されている。   An example of the hardware configuration of the arithmetic and control unit 200 that operates as described above will be described with reference to FIG. The arithmetic and control unit 200 has a hardware configuration similar to that of a conventional computer. Specifically, it includes a microprocessor 201 (CPU, MPU, etc.), RAM 202, ROM 203, hard disk drive (HDD) 204, keyboard 205, mouse 206, display 207, image forming board 208, and communication interface (I / F) 208. It consists of These units are connected via a bus 200a.

マイクロプロセッサ201は、ハードディスクドライブ204に格納された制御プログラム204aをRAM202上に展開することにより、本実施形態に特徴的な動作を実行する。   The microprocessor 201 executes an operation characteristic of the present embodiment by expanding the control program 204 a stored in the hard disk drive 204 on the RAM 202.

また、マイクロプロセッサ201は、前述した装置各部の制御や、各種の演算処理などを実行する。また、キーボード205やマウス206からの操作信号に対応する装置各部の制御、ディスプレイ207による表示処理の制御、通信インターフェイス209による各種のデータや制御信号等の送受信処理の制御などを実行する。   Further, the microprocessor 201 executes control of each part of the device described above, various arithmetic processes, and the like. Also, control of each part of the device corresponding to operation signals from the keyboard 205 and mouse 206, control of display processing by the display 207, control of transmission / reception processing of various data and control signals by the communication interface 209, and the like are executed.

キーボード205、マウス206及びディスプレイ207は、眼底観察装置1のユーザインターフェイスとして使用される。キーボード205は、たとえば文字や数字等をタイピング入力するためのデバイスとして用いられる。マウス206は、ディスプレイ207の表示画面に対する各種入力操作を行うためのデバイスとして用いられる。   The keyboard 205, the mouse 206, and the display 207 are used as a user interface of the fundus oculi observation device 1. The keyboard 205 is used as a device for inputting, for example, letters and numbers. The mouse 206 is used as a device for performing various input operations on the display screen of the display 207.

また、ディスプレイ207は、LCDやCRT(Cathode Ray Tube)等の任意の表示デバイスであり、眼底観察装置1により形成された眼底Efの画像を表示したり、各種の操作画面や設定画面などを表示したりする。   The display 207 is an arbitrary display device such as an LCD or a CRT (Cathode Ray Tube), displays an image of the fundus oculi Ef formed by the fundus oculi observation device 1, and displays various operation screens and setting screens. To do.

なお、眼底観察装置1のユーザインターフェイスは、このような構成に限定されるものではなく、たとえばトラックボール、ジョイスティック、タッチパネル式のLCD、眼科検査用のコントロールパネルなど、各種情報を表示出力する機能と、各種情報を入力する機能とを具備する任意のユーザインターフェイス手段を用いて構成することが可能である。   Note that the user interface of the fundus oculi observation device 1 is not limited to such a configuration. For example, a function for displaying and outputting various information such as a trackball, a joystick, a touch panel LCD, a control panel for ophthalmic examination, and the like. Any user interface means having a function of inputting various information can be used.

画像形成ボード208は、被検眼Eの眼底Efの画像(画像データ)を形成する処理を行う専用の電子回路である。この画像形成ボード208には、眼底画像形成ボード208aとOCT画像形成ボード208bとが設けられている。眼底画像形成ボード208aは、眼底カメラユニット1Aの撮像装置10や撮像装置12からの映像信号に基づいて眼底画像の画像データを形成するように動作する、専用の電子回路である。また、OCT画像形成ボード208bは、OCTユニット150のスペクトロメータ180のCCD184からの検出信号に基づいて眼底Efの断層画像の画像データを形成するように動作する、専用の電子回路である。このような画像形成ボード208を設けることにより、眼底画像や断層画像の画像データを形成する処理の処理速度を向上させることができる。   The image forming board 208 is a dedicated electronic circuit that performs processing for forming an image (image data) of the fundus oculi Ef of the eye E. The image forming board 208 is provided with a fundus image forming board 208a and an OCT image forming board 208b. The fundus image forming board 208a is a dedicated electronic circuit that operates to form image data of a fundus image based on video signals from the imaging device 10 and the imaging device 12 of the fundus camera unit 1A. The OCT image forming board 208b is a dedicated electronic circuit that operates to form image data of a tomographic image of the fundus oculi Ef based on a detection signal from the CCD 184 of the spectrometer 180 of the OCT unit 150. By providing such an image forming board 208, the processing speed of processing for forming image data of a fundus image or a tomographic image can be improved.

通信インターフェイス209は、マイクロプロセッサ201からの制御信号を、眼底カメラユニット1AやOCTユニット150に送信する処理を行う。また、通信インターフェイス209は、眼底カメラユニット1Aの撮像装置10、12からの映像信号や、OCTユニット150のCCD184からの検出信号を受信して、画像形成ボード208に入力する処理などを行う。このとき、通信インターフェイス209は、撮像装置10、12からの映像信号を眼底画像形成ボード208aに入力し、CCD184からの検出信号をOCT画像形成ボード208bに入力するように動作する。   The communication interface 209 performs a process of transmitting a control signal from the microprocessor 201 to the fundus camera unit 1A or the OCT unit 150. The communication interface 209 receives video signals from the imaging devices 10 and 12 of the fundus camera unit 1 </ b> A and detection signals from the CCD 184 of the OCT unit 150 and inputs them to the image forming board 208. At this time, the communication interface 209 operates to input video signals from the imaging devices 10 and 12 to the fundus image forming board 208a and to input detection signals from the CCD 184 to the OCT image forming board 208b.

また、演算制御装置200がLAN(Local Area Network)やインターネット等のネットワークに接続されている場合には、通信インターフェイス209に、LANカード等のネットワークアダプタやモデム等の通信機器を具備させて、当該ネットワーク経由のデータ通信を行えるように構成することが可能である。その場合、制御プログラム204aを格納するサーバを設置するとともに、演算制御装置200を当該サーバのクライアント端末として構成することができる。   When the arithmetic and control unit 200 is connected to a network such as a LAN (Local Area Network) or the Internet, the communication interface 209 is equipped with a network adapter such as a LAN card and a communication device such as a modem. It is possible to configure to perform data communication via a network. In that case, a server for storing the control program 204a can be installed, and the arithmetic and control unit 200 can be configured as a client terminal of the server.

〔制御系の構成〕
以上のような構成を有する眼底観察装置1の制御系の構成について、図5〜図7を参照しつつ説明する。図5に示すブロック図には、眼底観察装置1が具備する構成のうち、本発明に係る動作や処理に関わる部分が特に記載されている。図6には、眼底カメラユニット1Aに設けられた操作パネル3aの構成の一例が記載されている。図7に示すブロック図には、演算制御装置200の詳細構成が記載されている。
[Control system configuration]
The configuration of the control system of the fundus oculi observation device 1 having the above configuration will be described with reference to FIGS. In the block diagram shown in FIG. 5, the part related to the operation and processing according to the present invention is particularly described in the configuration of the fundus oculi observation device 1. FIG. 6 shows an example of the configuration of the operation panel 3a provided in the fundus camera unit 1A. In the block diagram shown in FIG. 7, the detailed configuration of the arithmetic and control unit 200 is described.

(制御部)
眼底観察装置1の制御系は、演算制御装置200の制御部210を中心に構成される。制御部210は、マイクロプロセッサ201、RAM202、ROM203、ハードディスクドライブ204(制御プログラム204a)、通信インターフェイス209等を含んで構成される。
(Control part)
The control system of the fundus oculi observation device 1 is configured around the control unit 210 of the arithmetic and control unit 200. The control unit 210 includes a microprocessor 201, a RAM 202, a ROM 203, a hard disk drive 204 (control program 204a), a communication interface 209, and the like.

制御部210は、制御プログラム204aに基づいて動作するマイクロプロセッサ201により、前述の制御処理を実行する。特に、ガルバノミラー141A、141Bをそれぞれ独立に動作させるための眼底カメラユニット1Aのミラー駆動機構241、242の制御や、参照光LRの進行方向に参照ミラー174を移動させるための参照ミラー駆動機構243の制御などを実行する。   The control unit 210 executes the above-described control process by the microprocessor 201 that operates based on the control program 204a. In particular, the control of the mirror drive mechanisms 241 and 242 of the fundus camera unit 1A for independently operating the galvanometer mirrors 141A and 141B, and the reference mirror drive mechanism 243 for moving the reference mirror 174 in the traveling direction of the reference light LR. Execute control etc.

また、制御部210は、眼底観察装置1により撮影される2種類の画像、すなわち眼底カメラユニット1Aによる眼底Efの表面の2次元画像(眼底画像Ef′)と、OCTユニット150により得られた検出信号を基に形成される眼底Efの断層画像とを、ユーザインターフェイス240のディスプレイ207に表示させるための制御を行う。これらの画像は、それぞれ別々にディスプレイ207にさせることもできるし、それらを並べて同時に表示させることもできる。なお、制御部210の構成の詳細については、図7に基づいて後述する。   The control unit 210 also detects two types of images captured by the fundus oculi observation device 1, that is, a two-dimensional image (fundus image Ef ′) of the surface of the fundus oculi Ef by the fundus camera unit 1A and the detection obtained by the OCT unit 150. Control is performed to display on the display 207 of the user interface 240 a tomographic image of the fundus oculi Ef formed based on the signal. These images can be displayed separately on the display 207, or they can be displayed side by side at the same time. Details of the configuration of the control unit 210 will be described later with reference to FIG.

(画像形成部)
画像形成部220は、眼底カメラユニット1Aの撮像装置10、12からの映像信号に基づいて眼底画像の画像データを形成する処理と、OCTユニット150のCCD184からの検出信号に基づいて眼底Efの断層画像の画像データを形成する処理とを行う。この画像形成部220は、画像形成ボード208や通信インターフェイス209等を含んで構成される。なお、本明細書において、「画像」と、それに対応する「画像データ」とを同一視することがある。
(Image forming part)
The image forming unit 220 performs processing for forming image data of a fundus image based on video signals from the imaging devices 10 and 12 of the fundus camera unit 1A, and a tomogram of the fundus oculi Ef based on a detection signal from the CCD 184 of the OCT unit 150. And processing for forming image data of the image. The image forming unit 220 includes an image forming board 208, a communication interface 209, and the like. In the present specification, “image” and “image data” corresponding to the “image” may be identified with each other.

画像形成部220は、眼底カメラユニット1A及びOCTユニット150とともに本発明の「画像形成手段」の一例を構成している。ここで、眼底Efの表面の2次元画像を取得するための眼底カメラユニット1Aの各部と、画像形成部220とは、本発明の「第1の画像形成手段」の一例に相当している。また、眼底Efの断層画像を取得するための眼底カメラユニット1Aの各部と、OCTユニット150と、画像形成部220とは、本発明の「第2の画像形成手段」の一例に相当している。   The image forming unit 220 constitutes an example of the “image forming unit” of the present invention together with the fundus camera unit 1A and the OCT unit 150. Here, each part of the fundus camera unit 1A for acquiring a two-dimensional image of the surface of the fundus oculi Ef and the image forming unit 220 correspond to an example of the “first image forming unit” in the present invention. Further, each part of the fundus camera unit 1A for acquiring a tomographic image of the fundus oculi Ef, the OCT unit 150, and the image forming unit 220 correspond to an example of the “second image forming unit” of the present invention. .

(画像処理部)
画像処理部230は、画像形成部220により形成された画像の画像データに対して各種の画像処理を施すものである。たとえば、OCTユニット150からの検出信号に基づく眼底Efの断層画像に基づいて眼底Efの3次元画像の画像データを形成する処理や、画像の輝度調整等の各種補正処理などを実行するものである。
(Image processing unit)
The image processing unit 230 performs various types of image processing on the image data of the image formed by the image forming unit 220. For example, processing for forming image data of a three-dimensional image of the fundus oculi Ef based on a tomographic image of the fundus oculi Ef based on a detection signal from the OCT unit 150, various correction processes such as image brightness adjustment, and the like are executed. .

ここで、3次元画像の画像データとは、3次元的に配列された複数のボクセルのそれぞれに画素値を付与して成る画像データであり、ボリュームデータ、ボクセルデータ等と呼ばれるものである。ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成するように作用する。ディスプレイ207等の表示デバイスには、この画像データに基づく擬似的な3次元画像が表示されることになる。   Here, the image data of a three-dimensional image is image data obtained by assigning pixel values to a plurality of voxels arranged three-dimensionally, and is called volume data, voxel data, or the like. When displaying an image based on volume data, the image processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and views the image from a specific gaze direction. Acts to form image data of a pseudo three-dimensional image. A pseudo three-dimensional image based on this image data is displayed on a display device such as the display 207.

(ユーザインターフェイス)
ユーザインターフェイス(UI)240は、図7に示すように、ディスプレイ207等の表示デバイスからなる表示部240Aと、キーボード205やマウス206などの入力デバイスや操作デバイスからなる操作部240Bとを備えている。
(User interface)
As shown in FIG. 7, the user interface (UI) 240 includes a display unit 240A composed of a display device such as a display 207, and an operation unit 240B composed of an input device and an operation device such as a keyboard 205 and a mouse 206. .

(操作パネル)
眼底カメラユニット1Aの操作パネル3aについて説明する。この撮影パネル3aは、たとえば、図13に示すように、眼底カメラユニット1Aの架台3上に配設されている。本実施形態における操作パネル3aは、[背景技術]の項で説明した従来の構成とは異なり、眼底Efの表面の2次元画像を取得するための操作要求の入力に使用される操作部と、眼底Efの断層画像を取得するための操作入力に使用される操作部とが設けられている(従来は前者の操作部のみ)。それにより、従来の眼底カメラを操作するときと同じ要領でOCTに対する操作も行えるようになっている。
(control panel)
The operation panel 3a of the fundus camera unit 1A will be described. For example, as shown in FIG. 13, the photographing panel 3a is disposed on the gantry 3 of the fundus camera unit 1A. Unlike the conventional configuration described in the section “Background Art”, the operation panel 3a in the present embodiment includes an operation unit used for inputting an operation request for acquiring a two-dimensional image of the surface of the fundus oculi Ef, An operation unit used for operation input for acquiring a tomographic image of the fundus oculi Ef is provided (only the former operation unit is conventionally used). As a result, OCT can be performed in the same manner as when operating a conventional fundus camera.

本実施形態における操作パネル3aには、図6に示すように、メニュースイッチ301、スプリットスイッチ302、撮影光量スイッチ303、観察光量スイッチ304、顎受けスイッチ305、撮影スイッチ306、ズームスイッチ307、画像切替スイッチ308、固視標切替スイッチ309、固視標位置調整スイッチ310、固視標サイズ切替スイッチ311及びモード切替ノブ312が設けられている。   As shown in FIG. 6, the operation panel 3a in this embodiment includes a menu switch 301, a split switch 302, a photographing light amount switch 303, an observation light amount switch 304, a chin rest switch 305, a photographing switch 306, a zoom switch 307, and an image switch. A switch 308, a fixation target changeover switch 309, a fixation target position adjustment switch 310, a fixation target size changeover switch 311 and a mode changeover knob 312 are provided.

メニュースイッチ301は、各種のメニュー(眼底Efの表面の2次元画像や断層画像等を撮影するときの撮影メニュー、各種の設定入力を行うための設定メニューなど)をユーザが選択指定するための所定のメニュー画面を表示させるために操作されるスイッチである。このメニュースイッチ301が操作されると、その操作信号が制御部210に入力される。制御部210は、この操作信号の入力に対応し、タッチパネルモニタ11或いは表示部240Aにメニュー画面を表示させる。なお、眼底カメラユニット1Aに制御部(図示せず)を設け、この制御部がメニュー画面をタッチパネルモニタ11に表示させるようにしてもよい。   The menu switch 301 is a predetermined menu for the user to select and specify various menus (such as a shooting menu for shooting a two-dimensional image or a tomographic image of the surface of the fundus oculi Ef, a setting menu for performing various setting inputs). This switch is operated to display the menu screen. When the menu switch 301 is operated, the operation signal is input to the control unit 210. In response to the input of the operation signal, the control unit 210 displays a menu screen on the touch panel monitor 11 or the display unit 240A. Note that a control unit (not shown) may be provided in the fundus camera unit 1 </ b> A so that the control unit displays a menu screen on the touch panel monitor 11.

スプリットスイッチ302は、ピント合わせ用のスプリット輝線(たとえば特開平9−66031等を参照。スプリット視標、スプリットマークなどとも呼ばれる。)の点灯と消灯とを切り替えるために操作されるスイッチである。なお、このスプリット輝線を被検眼Eに投影させるための構成(スプリット輝線投影部)は、たとえば眼底カメラユニット1A内に格納されている(図1において省略されている。)。スプリットスイッチ302が操作されると、その操作信号が制御部210(又は眼底カメラユニット1A内の上記制御部;以下同様)に入力される。制御部210は、この操作信号の入力に対応し、スプリット輝線投影部を制御して被検眼Eにスプリット輝線を投影させる。   The split switch 302 is a switch operated to switch on / off of a split bright line for focusing (see, for example, JP-A-9-66031, etc., also referred to as a split target, a split mark, etc.). Note that the configuration (split bright line projection unit) for projecting the split bright line onto the eye E is stored, for example, in the fundus camera unit 1A (not shown in FIG. 1). When the split switch 302 is operated, the operation signal is input to the control unit 210 (or the control unit in the fundus camera unit 1A; the same applies hereinafter). In response to the input of the operation signal, the control unit 210 controls the split bright line projection unit to project the split bright line on the eye E.

撮影光量スイッチ303は、被検眼Eの状態(たとえば水晶体の濁り度合い等)などに応じて撮影光源103の出力光量(撮影光量)を調整するために操作されるスイッチである。この撮影光量スイッチ303には、たとえば、撮影光量を増大させるための撮影光量増大スイッチ「+」と、撮影光量を減少させるための撮影光量減少スイッチ「−」と、撮影光量を所定の初期値(デフォルト値)に設定するためのリセットスイッチ(中央のボタン)とが設けられている。撮影光量スイッチ303の一つが操作されると、その操作信号が制御部210に入力される。制御部210は、入力された操作信号に応じて撮影光源103を制御して撮影光量を調整する。   The imaging light amount switch 303 is a switch operated to adjust the output light amount (imaging light amount) of the imaging light source 103 according to the state of the eye E (for example, the degree of turbidity of the crystalline lens). The photographing light amount switch 303 includes, for example, a photographing light amount increase switch “+” for increasing the photographing light amount, a photographing light amount decrease switch “−” for decreasing the photographing light amount, and a predetermined initial value ( And a reset switch (a central button) for setting to a default value. When one of the photographing light amount switches 303 is operated, the operation signal is input to the control unit 210. The control unit 210 controls the photographing light source 103 according to the input operation signal and adjusts the photographing light amount.

観察光量スイッチ304は、観察光源101の出力光量(観察光量)を調整するために操作されるスイッチである。この観察光量スイッチ304には、たとえば、観察光量を増大させるための観察光量増大スイッチ「+」と、観察光量を減少させるための撮影光量減少スイッチ「−」とが設けられている。観察光量スイッチ304の一つが操作されると、その操作信号が制御部210に入力される。制御部210は、入力された操作信号に応じて観察光源101を制御して観察光量を調整する。   The observation light amount switch 304 is a switch operated to adjust the output light amount (observation light amount) of the observation light source 101. The observation light amount switch 304 is provided with, for example, an observation light amount increase switch “+” for increasing the observation light amount and a photographing light amount decrease switch “−” for decreasing the observation light amount. When one of the observation light amount switches 304 is operated, the operation signal is input to the control unit 210. The controller 210 controls the observation light source 101 according to the input operation signal to adjust the observation light quantity.

顎受けスイッチ305は、図13に示す顎受け6の位置を移動させるためのスイッチである。この顎受けスイッチ305には、たとえば、顎受け6を上方に移動させるための上方移動スイッチ(上向き三角形)と、顎受け6を下方に移動させるための下方移動スイッチ(下向き三角形)とが設けられている。顎受けスイッチ305の一つが操作されると、その操作信号が制御部210に入力される。制御部210は、入力された操作信号に応じて顎受け移動機構(図示せず)を制御して、顎受け6を上方又は下方に移動させる。   The chin rest switch 305 is a switch for moving the position of the chin rest 6 shown in FIG. The chin rest switch 305 is provided with, for example, an upward movement switch (upward triangle) for moving the chin rest 6 upward and a downward movement switch (downward triangle) for moving the chin rest 6 downward. ing. When one of the chin rest switches 305 is operated, the operation signal is input to the control unit 210. The control unit 210 controls the chin rest moving mechanism (not shown) according to the input operation signal to move the chin rest 6 upward or downward.

撮影スイッチ306は、眼底Efの表面の2次元画像或いは眼底Efの断層画像を取得するためのトリガスイッチとして使用されるスイッチである。2次元画像を撮影するメニューが選択されているときに撮影スイッチ306が操作されると、その操作信号を受けた制御部210は、撮影光源103を制御して撮影照明光を出力させるとともに、その眼底反射光を検出した撮像装置10から出力される映像信号に基づいて、表示部240Aやタッチパネルモニタ11に眼底Efの表面の2次元画像を表示させる。一方、断層画像を取得するメニューが選択されているときに撮影スイッチ306が操作されると、その操作信号を受けた制御部210は、低コヒーレンス光源160を制御して低コヒーレンス光L0を出力させ、ガルバノミラー141A、141Bを制御して信号光LSを走査させるとともに、干渉光LCを検出したCCD184から出力される検出信号に基づいて画像形成部220(及び画像処理部230)が形成した眼底Efの断層画像を表示部240A或いはタッチパネルモニタ11に表示させる。   The imaging switch 306 is a switch used as a trigger switch for acquiring a two-dimensional image of the surface of the fundus oculi Ef or a tomographic image of the fundus oculi Ef. When the shooting switch 306 is operated when a menu for shooting a two-dimensional image is selected, the control unit 210 that receives the operation signal controls the shooting light source 103 to output shooting illumination light, and A two-dimensional image of the surface of the fundus oculi Ef is displayed on the display 240A or the touch panel monitor 11 based on the video signal output from the imaging device 10 that has detected fundus reflection light. On the other hand, when the imaging switch 306 is operated while the menu for acquiring the tomographic image is selected, the control unit 210 that receives the operation signal controls the low coherence light source 160 to output the low coherence light L0. The fundus Ef formed by the image forming unit 220 (and the image processing unit 230) based on the detection signal output from the CCD 184 that controls the galvanometer mirrors 141A and 141B to scan the signal light LS and detects the interference light LC. Are displayed on the display 240A or the touch panel monitor 11.

ズームスイッチ307は、眼底Efの撮影時の画角(ズーム倍率)を変更するために操作されるスイッチである。このズームスイッチ307を操作する度毎に、たとえば撮影画角45度と22.5度とが交互に設定されるようになっている。このズームスイッチ307が操作されると、その操作信号を受けた制御部210は、図示しない変倍レンズ駆動機構を制御し、変倍レンズ124を光軸方向に移動させて撮影画角を変更する。   The zoom switch 307 is a switch operated to change the angle of view (zoom magnification) when photographing the fundus oculi Ef. Each time the zoom switch 307 is operated, for example, a shooting angle of view of 45 degrees and 22.5 degrees are alternately set. When the zoom switch 307 is operated, the control unit 210 that has received the operation signal controls a variable power lens driving mechanism (not shown) and moves the variable power lens 124 in the optical axis direction to change the shooting angle of view. .

画像切替スイッチ308は、表示画像を切り替えるために操作されるスイッチである。表示部240A或いはタッチパネルモニタ11に眼底観察画像(撮像装置12からの映像信号に基づく眼底Efの表面の2次元画像)が表示されているときに画像切替スイッチ308が操作されると、その操作信号を受けた制御部210は、眼底Efの断層画像を表示部240A或いはタッチパネルモニタ11に表示させる。一方、眼底の断層画像が表示部240A或いはタッチパネルモニタ11に表示されているときに画像切替スイッチ308が操作されると、その操作信号を受けた制御部210は、眼底観察画像を表示部240A或いはタッチパネルモニタ11に表示させる。   The image changeover switch 308 is a switch operated to change the display image. When the image changeover switch 308 is operated while the fundus observation image (two-dimensional image of the surface of the fundus oculi Ef based on the video signal from the imaging device 12) is displayed on the display unit 240A or the touch panel monitor 11, the operation signal is displayed. In response, the control unit 210 displays a tomographic image of the fundus oculi Ef on the display unit 240A or the touch panel monitor 11. On the other hand, when the image changeover switch 308 is operated while a tomographic image of the fundus is displayed on the display unit 240A or the touch panel monitor 11, the control unit 210 that has received the operation signal displays the fundus observation image on the display unit 240A or It is displayed on the touch panel monitor 11.

固視標切替スイッチ309は、LCD140による内部固視標の表示位置(つまり眼底Efにおける内部固視標の投影位置)を切り替えるために操作されるスイッチである。この固視標切替スイッチ309を操作することにより、内部固視標の表示位置が、たとえば、内部固視標の表示位置を「眼底中心の周辺領域の画像を取得するための固視位置」と、「黄斑の周辺領域の画像を取得するための固視位置」と、「視神経乳頭の周辺領域の画像を取得するための固視位置」との間で巡回的に切り替えられるようになっている。制御部210は、固視標切替スイッチ309からの操作信号に対応し、LCD140の表示面上の異なる位置に内部固視標を表示させる。なお、上記3つの固視位置に対応する内部固視標の表示位置は、たとえば臨床データに基づいてあらかじめ設定されているか、或いは、当該被検眼E(眼底Efの画像)ごとに事前に設定されている。   The fixation target switching switch 309 is a switch operated to switch the display position of the internal fixation target on the LCD 140 (that is, the projection position of the internal fixation target on the fundus oculi Ef). By operating this fixation target changeover switch 309, the display position of the internal fixation target is, for example, the display position of the internal fixation target as “a fixation position for acquiring an image of a peripheral region around the fundus oculi”. , "Fixing position for acquiring an image of the peripheral region of the macula" and "Fixing position for acquiring an image of the peripheral region of the optic nerve head" can be switched cyclically . The control unit 210 displays the internal fixation target at different positions on the display surface of the LCD 140 in response to the operation signal from the fixation target switching switch 309. Note that the display positions of the internal fixation target corresponding to the above three fixation positions are set in advance based on, for example, clinical data, or set in advance for each eye E (image of the fundus oculi Ef). ing.

固視標位置調整スイッチ310は、内部固視標の表示位置を調整するために操作されるスイッチである。この固視標位置調整スイッチ310には、たとえば、内部固視標の表示位置を上方に移動させるための上方移動スイッチと、下方に移動させるための下方移動スイッチと、左方に移動させるための左方移動スイッチと、右方に移動させるための右方移動スイッチと、所定の初期位置(デフォルト位置)に移動させるためのリセットスイッチとが設けられている。制御部310は、これらのいずれかのスイッチからの操作信号を受けると、この操作信号に応じてLCD140を制御することにより内部固視標の表示位置を移動させる。   The fixation target position adjustment switch 310 is a switch operated to adjust the display position of the internal fixation target. The fixation target position adjustment switch 310 includes, for example, an upward movement switch for moving the display position of the internal fixation target upward, a downward movement switch for moving downward, and a leftward movement switch. A left movement switch, a right movement switch for moving to the right, and a reset switch for moving to a predetermined initial position (default position) are provided. Upon receiving an operation signal from any of these switches, the control unit 310 controls the LCD 140 in accordance with the operation signal to move the display position of the internal fixation target.

固視標サイズ切替スイッチ311は、内部固視標のサイズを変更するために操作されるスイッチである。この固視標サイズ切替スイッチ311が操作されると、その操作信号を受けた制御部210は、LCD140に表示させる内部固視標の表示サイズを変更する。内部固視標の表示サイズは、たとえば「通常サイズ」と「拡大サイズ」とに交互に切り替えられるようになっている。それにより、眼底Efに投影される固視標の投影像のサイズが変更される。制御部210は、固視標サイズ切替スイッチ311からの操作信号を受けると、この操作信号に応じてLCD140を制御することにより内部固視標の表示サイズを変更させる。   The fixation target size switching switch 311 is a switch operated to change the size of the internal fixation target. When the fixation target size changeover switch 311 is operated, the control unit 210 that has received the operation signal changes the display size of the internal fixation target displayed on the LCD 140. For example, the display size of the internal fixation target can be switched alternately between “normal size” and “enlarged size”. Thereby, the size of the projected image of the fixation target projected onto the fundus oculi Ef is changed. When receiving an operation signal from the fixation target size changeover switch 311, the control unit 210 controls the LCD 140 according to the operation signal to change the display size of the internal fixation target.

モード切替ノブ312は、各種の撮影モード(眼底Efの2次元画像を撮影するための眼底撮影モード、信号光LSのBスキャンを行うためのBスキャンモード、信号光LSを3次元的にスキャンさせるための3次元スキャンモードなど)を選択するために回転操作されるノブである。また、このモード切替ノブ312は、取得された眼底Efの2次元画像や断層画像を再生表示させるための再生モードを選択できるようになっていてもよい。また、信号光LSのスキャンの直後に眼底撮影を行うように制御する撮影モードを選択できるようにしてもよい。これらの各モードを行うための制御は、制御部210が実行する。   The mode switching knob 312 scans various imaging modes (fundus imaging mode for capturing a two-dimensional image of the fundus oculi Ef, B-scan mode for performing a B-scan of the signal light LS, and the signal light LS three-dimensionally. The knob is rotated to select a three-dimensional scan mode for the purpose. Further, the mode switching knob 312 may be configured to select a reproduction mode for reproducing and displaying the acquired two-dimensional image or tomographic image of the fundus oculi Ef. In addition, it may be possible to select an imaging mode for controlling to perform fundus imaging immediately after scanning with the signal light LS. Control for performing each of these modes is executed by the control unit 210.

以下、制御部210による信号光LSの走査の制御態様について説明するとともに、画像形成部220及び画像処理部230によるOCTユニット150からの検出信号に対する処理の態様について説明する。なお、眼底カメラユニット1Aからの映像信号に対する画像形成部220等の処理については、従来と同様に実行されるので説明は省略することにする。   Hereinafter, a control mode of scanning of the signal light LS by the control unit 210 will be described, and a mode of processing of the detection signal from the OCT unit 150 by the image forming unit 220 and the image processing unit 230 will be described. Note that the processing of the image forming unit 220 and the like for the video signal from the fundus camera unit 1A is executed in the same manner as in the prior art, and thus description thereof is omitted.

〔信号光の走査について〕
信号光LSの走査は、前述のように、眼底カメラユニット1Aの走査ユニット141のガルバノミラー141A、141Bの反射面の向きを変更することにより行われる。制御部210は、ミラー駆動機構241、242をそれぞれ制御することで、ガルバノミラー141A、141Bの反射面の向きをそれぞれ変更し、信号光LSを眼底Ef上において走査する。
[Scanning signal light]
As described above, the scanning of the signal light LS is performed by changing the direction of the reflecting surfaces of the galvanometer mirrors 141A and 141B of the scanning unit 141 of the fundus camera unit 1A. The control unit 210 controls the mirror driving mechanisms 241 and 242 to change the directions of the reflecting surfaces of the galvanometer mirrors 141A and 141B, respectively, and scans the signal light LS on the fundus oculi Ef.

ガルバノミラー141Aの反射面の向きが変更されると、信号光LSは、眼底Ef上において水平方向(図1のx方向)に走査される。一方、ガルバノミラー141Aの反射面の向きが変更されると、信号光LSは、眼底Ef上において垂直方向(図1のy方向)に走査される。また、ガルバノミラー141A、141Bの双方の反射面の向きを同時に変更させることにより、x方向とy方向とを合成した方向に信号光LSを走査することができる。すなわち、これら2つのガルバノミラー141A、141Bを制御することにより、xy平面上の任意の方向に信号光LSを走査することができる。   When the direction of the reflecting surface of the galvanometer mirror 141A is changed, the signal light LS is scanned in the horizontal direction (x direction in FIG. 1) on the fundus oculi Ef. On the other hand, when the direction of the reflecting surface of the galvanometer mirror 141A is changed, the signal light LS is scanned in the vertical direction (y direction in FIG. 1) on the fundus oculi Ef. Further, the signal light LS can be scanned in a direction in which the x direction and the y direction are combined by simultaneously changing the directions of the reflecting surfaces of both the galvanometer mirrors 141A and 141B. That is, by controlling these two galvanometer mirrors 141A and 141B, the signal light LS can be scanned in an arbitrary direction on the xy plane.

図8は、眼底Efの画像を形成するための信号光LSの走査態様の一例を表している。図8(A)は、信号光LSが被検眼Eに入射する方向から眼底Efを見た(つまり図1の−z方向から+z方向を見た)ときの、信号光LSの走査態様の一例を表す。また、図8(B)は、眼底Ef上の各走査線における走査点(画像計測を行う位置)の配列態様の一例を表す。   FIG. 8 illustrates an example of a scanning mode of the signal light LS for forming an image of the fundus oculi Ef. FIG. 8A illustrates an example of a scanning mode of the signal light LS when the fundus oculi Ef is viewed from the direction in which the signal light LS is incident on the eye E (that is, viewed from the −z direction to the + z direction in FIG. 1). Represents. FIG. 8B shows an example of an arrangement form of scanning points (positions where image measurement is performed) on each scanning line on the fundus oculi Ef.

図8(A)に示すように、信号光LSは、あらかじめ設定された矩形の走査領域R内を走査される。この走査領域R内には、x方向に複数(m本)の走査線R1〜Rmが設定されている。各走査線Ri(i=1〜m)に沿って信号光LSが走査されるときに、干渉光LCの検出信号が生成されるようになっている。   As shown in FIG. 8A, the signal light LS is scanned in a rectangular scanning region R set in advance. In this scanning region R, a plurality (m) of scanning lines R1 to Rm are set in the x direction. When the signal light LS is scanned along each scanning line Ri (i = 1 to m), a detection signal of the interference light LC is generated.

ここで、各走査線Riの方向を「主走査方向」と呼び、それに直交する方向を「副走査方向」と呼ぶことにする。したがって、信号光LSの主走査方向への走査は、ガルバノミラー141Aの反射面の向きを変更することにより実行され、副走査方向への走査は、ガルバノミラー141Bの反射面の向きを変更することによって実行される。   Here, the direction of each scanning line Ri is referred to as a “main scanning direction”, and a direction orthogonal to the direction is referred to as a “sub-scanning direction”. Therefore, scanning in the main scanning direction of the signal light LS is executed by changing the direction of the reflecting surface of the galvano mirror 141A, and scanning in the sub-scanning direction changes the direction of the reflecting surface of the galvano mirror 141B. Executed by.

各走査線Ri上には、図8(B)に示すように、複数(n個)の走査点Ri1〜Rinがあらかじめ設定されている。   On each scanning line Ri, as shown in FIG. 8B, a plurality (n) of scanning points Ri1 to Rin are set in advance.

図8に示す走査を実行するために、制御部210は、まず、ガルバノミラー141A、141Bを制御し、眼底Efに対する信号光LSの入射目標を第1の走査線R1上の走査開始位置RS(走査点R11)に設定する。続いて、制御部210は、低コヒーレンス光源2を制御し、低コヒーレンス光L0をフラッシュ発光させて、走査開始位置RSに信号光LSを入射させる。CCD184は、この信号光LSの走査開始位置RSにおける眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。   In order to execute the scanning shown in FIG. 8, the control unit 210 first controls the galvanometer mirrors 141A and 141B to set the incidence target of the signal light LS on the fundus oculi Ef to the scanning start position RS ( Set to scan point R11). Subsequently, the control unit 210 controls the low coherence light source 2, causes the low coherence light L0 to flash, and causes the signal light LS to enter the scanning start position RS. The CCD 184 receives the interference light LC based on the fundus reflection light at the scanning start position RS of the signal light LS and outputs a detection signal to the control unit 210.

次に、制御部210は、ガルバノミラー141Aを制御して、信号光LSを主走査方向に走査して、その入射目標を走査点R12に設定し、低コヒーレンス光L0をフラッシュ発光させて走査点R12に信号光LSを入射させる。CCD184は、この信号光LSの走査点R12における眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。   Next, the control unit 210 controls the galvanometer mirror 141A, scans the signal light LS in the main scanning direction, sets the incident target at the scanning point R12, flashes the low coherence light L0, and scans the scanning point. The signal light LS is incident on R12. The CCD 184 receives the interference light LC based on the fundus reflection light at the scanning point R12 of the signal light LS, and outputs a detection signal to the control unit 210.

制御部210は、同様にして、信号光LSの入射目標を走査点R13、R14、・・・、R1(n−1)、R1nと順次移動させつつ、各走査点において低コヒーレンス光L0をフラッシュ発光させることにより、各走査点ごとの干渉光LCに対応してCCD184から出力される検出信号を取得する。   Similarly, the controller 210 sequentially flashes the low coherence light L0 at each scanning point while sequentially moving the incident target of the signal light LS from the scanning points R13, R14,..., R1 (n−1), R1n. By emitting light, a detection signal output from the CCD 184 corresponding to the interference light LC for each scanning point is acquired.

第1の走査線R1の最後の走査点R1nにおける計測が終了したら、制御部210は、ガルバノミラー141A、141Bを同時に制御して、信号光LSの入射目標を、線換え走査rに沿って第2の走査線R2の最初の走査点R21まで移動させる。そして、この第2の走査線R2の各走査点R2j(j=1〜n)について前述の計測を行うことで、各走査点R2jに対応する検出信号をそれぞれ取得する。   When the measurement at the last scanning point R1n of the first scanning line R1 is completed, the control unit 210 controls the galvanometer mirrors 141A and 141B at the same time so that the incident target of the signal light LS is changed along the line changing scan r. The second scanning line R2 is moved to the first scanning point R21. And the detection signal corresponding to each scanning point R2j is each acquired by performing the above-mentioned measurement about each scanning point R2j (j = 1-n) of this 2nd scanning line R2.

同様に、第3の走査線R3、・・・・、第m−1の走査線R(m−1)、第mの走査線Rmのそれぞれについて計測を行い、各走査点に対応する検出信号を取得する。なお、走査線Rm上の符号REは、走査点Rmnに対応する走査終了位置である。   Similarly, measurement is performed for each of the third scanning line R3,..., The m−1th scanning line R (m−1), and the mth scanning line Rm, and a detection signal corresponding to each scanning point. To get. Note that the symbol RE on the scanning line Rm is a scanning end position corresponding to the scanning point Rmn.

それにより、制御部210は、走査領域R内のm×n個の走査点Rij(i=1〜m、j=1〜n)に対応するm×n個の検出信号を取得する。以下、走査点Rijに対応する検出信号をDijと表すことがある。   Thereby, the control unit 210 acquires m × n detection signals corresponding to m × n scanning points Rij (i = 1 to m, j = 1 to n) in the scanning region R. Hereinafter, the detection signal corresponding to the scanning point Rij may be represented as Dij.

以上のような走査点の移動と低コヒーレンス光L0の出力との連動制御は、たとえば、ミラー駆動機構241、242に対する制御信号の送信タイミングと、低コヒーレンス光源2に対する制御信号(出力要求信号)の送信タイミングとを互いに同期させることによって実現することができる。   The linked control of the scanning point movement and the output of the low-coherence light L0 as described above is performed, for example, by transmitting a control signal to the mirror driving mechanisms 241 and 242 and a control signal (output request signal) for the low-coherence light source 2. This can be realized by synchronizing the transmission timing with each other.

制御部210は、上述のように各ガルバノミラー141A、141Bを動作させるときに、その動作内容を示す情報として各走査線Riの位置や各走査点Rijの位置(xy座標系における座標)を記憶しておくようになっている。この記憶内容(走査位置情報)は、従来と同様に画像形成処理において用いられる。   When the galvanometer mirrors 141A and 141B are operated as described above, the control unit 210 stores the position of each scanning line Ri and the position of each scanning point Rij (coordinates in the xy coordinate system) as information indicating the operation content. It has come to keep. This stored content (scanning position information) is used in the image forming process as in the prior art.

〔画像処理について〕
次に、画像形成部220及び画像処理部230によるOCT画像に関する処理の一例を説明する。
[About image processing]
Next, an example of processing related to an OCT image by the image forming unit 220 and the image processing unit 230 will be described.

画像形成部220は、各走査線Ri(主走査方向)に沿った眼底Efの断層画像の形成処理を実行する。また、画像処理部230は、画像形成部220により形成された断層画像に基づく眼底Efの3次元画像の形成処理などを実行する。   The image forming unit 220 executes a process of forming a tomographic image of the fundus oculi Ef along each scanning line Ri (main scanning direction). Further, the image processing unit 230 executes a process for forming a three-dimensional image of the fundus oculi Ef based on the tomographic image formed by the image forming unit 220.

画像形成部220による断層画像の形成処理は、従来と同様に、2段階の演算処理を含んで構成される。第1段階の演算処理においては、各走査点Rijに対応する検出信号Dijに基づいて、その走査点Rijにおける眼底Efの深度方向(図1に示すz方向)の画像を形成する。   The tomographic image forming process by the image forming unit 220 is configured to include a two-stage arithmetic process, as in the prior art. In the first stage of arithmetic processing, an image in the depth direction (z direction shown in FIG. 1) of the fundus oculi Ef at the scanning point Rij is formed based on the detection signal Dij corresponding to each scanning point Rij.

図9は、画像形成部220により形成される断層画像(群)の態様を表している。第2段階の演算処理においては、各走査線Riについて、その上のn個の走査点Ri1〜Rinにおける深度方向の画像に基づき、この走査線Riに沿った眼底Efの断層画像Giを形成する。このとき、画像形成部220は、各走査点Ri1〜Rinの位置情報(前述の走査位置情報)を参照して各走査点Ri1〜Rinの配列及び間隔を決定して、この走査線Riを形成するようになっている。以上の処理により、副走査方向(y方向)の異なる位置におけるm個の断層画像(断層画像群)G1〜Gmが得られる。これらの断層画像G1〜Gmのそれぞれの画像データが、図7に示す断層画像の画像データGa等に相当する(後述)。   FIG. 9 shows an aspect of a tomographic image (group) formed by the image forming unit 220. In the second stage arithmetic processing, a tomographic image Gi of the fundus oculi Ef along this scanning line Ri is formed for each scanning line Ri based on the image in the depth direction at the n scanning points Ri1 to Rin above it. . At this time, the image forming unit 220 determines the arrangement and interval of the scanning points Ri1 to Rin with reference to the positional information (scanning position information described above) of the scanning points Ri1 to Rin, and forms the scanning line Ri. It is supposed to be. Through the above processing, m tomographic images (tomographic image groups) G1 to Gm at different positions in the sub-scanning direction (y direction) are obtained. The respective image data of these tomographic images G1 to Gm correspond to the image data Ga of the tomographic image shown in FIG. 7 (described later).

次に、画像処理部230による眼底Efの3次元画像の形成処理について説明する。眼底Efの3次元画像は、上記の演算処理により得られたm個の断層画像に基づいて形成される。画像処理部230は、隣接する断層画像Gi、G(i+1)の間の画像を補間する公知の補間処理を行うなどして、眼底Efの3次元画像を形成する。   Next, a process for forming a three-dimensional image of the fundus oculi Ef by the image processing unit 230 will be described. A three-dimensional image of the fundus oculi Ef is formed based on the m number of tomographic images obtained by the above arithmetic processing. The image processing unit 230 forms a three-dimensional image of the fundus oculi Ef by performing a known interpolation process for interpolating an image between adjacent tomographic images Gi and G (i + 1).

このとき、画像処理部230は、各走査線Riの位置情報を参照して各走査線Riの配列及び間隔を決定して、この3次元画像を形成するようになっている。この3次元画像には、各走査点Rijの位置情報(前述の走査位置情報)と、深度方向の画像におけるz座標とに基づいて、3次元座標系(x、y、z)が設定される。   At this time, the image processing unit 230 determines the arrangement and interval of each scanning line Ri with reference to the position information of each scanning line Ri, and forms this three-dimensional image. In this three-dimensional image, a three-dimensional coordinate system (x, y, z) is set based on the position information (the above-described scanning position information) of each scanning point Rij and the z coordinate in the image in the depth direction. .

また、画像処理部230は、この3次元画像に基づいて、主走査方向(x方向)以外の任意方向の断面における眼底Efの断層画像を形成することができる。断面が指定されると、画像処理部230は、この指定断面上の各走査点(及び/又は補間された深度方向の画像)の位置を特定し、各特定位置における深度方向の画像(及び/又は補間された深度方向の画像)を3次元画像から抽出し、抽出された複数の深度方向の画像を配列させることにより当該指定断面における眼底Efの断層画像を形成する。   Further, the image processing unit 230 can form a tomographic image of the fundus oculi Ef in a cross section in an arbitrary direction other than the main scanning direction (x direction) based on the three-dimensional image. When a cross section is designated, the image processing unit 230 identifies the position of each scanning point (and / or the interpolated depth direction image) on the designated cross section, and the depth direction image (and / or at each specific position). (Or an interpolated image in the depth direction) is extracted from the three-dimensional image, and a plurality of extracted images in the depth direction are arranged to form a tomographic image of the fundus oculi Ef in the designated cross section.

なお、図9に示す画像Gmjは、走査線Rm上の走査点Rmjにおける深度方向(z方向)の画像を表している。同様に、前述の第1段階の演算処理において形成される、各走査線Ri上の各走査点Rijにおける深度方向の画像を、「画像Gij」と表す。   Note that an image Gmj shown in FIG. 9 represents an image in the depth direction (z direction) at the scanning point Rmj on the scanning line Rm. Similarly, an image in the depth direction at each scanning point Rij on each scanning line Ri, which is formed in the above-described first stage arithmetic processing, is represented as “image Gij”.

〔演算制御装置の詳細構成〕
演算制御装置200の詳細な構成について、図7を参照しつつ説明する。ここでは、演算制御装置200の制御部210及び画像処理部230の構成を説明する。
[Detailed configuration of arithmetic control unit]
A detailed configuration of the arithmetic and control unit 200 will be described with reference to FIG. Here, configurations of the control unit 210 and the image processing unit 230 of the arithmetic and control unit 200 will be described.

制御部210には、主制御部211、画像記憶部212、情報記憶部213及び位置情報生成部214が設けられている。   The control unit 210 includes a main control unit 211, an image storage unit 212, an information storage unit 213, and a position information generation unit 214.

また、画像処理部230には、走査領域変位演算部231、固視位置変位演算部232、深度位置変位演算部233、積算画像生成部234、積算画像変位演算部235及び画像位置変更部236が設けられている。この画像処理部230は、本発明の「画像処理手段」の一例に相当するものである。   The image processing unit 230 includes a scanning region displacement calculation unit 231, a fixation position displacement calculation unit 232, a depth position displacement calculation unit 233, an integrated image generation unit 234, an integrated image displacement calculation unit 235, and an image position change unit 236. Is provided. The image processing unit 230 corresponds to an example of the “image processing unit” of the present invention.

(主制御部)
主制御部211は、マイクロプロセッサ201等を含んで構成され、眼底観察装置1の各部の制御を行う(前述)。
(Main control unit)
The main control unit 211 includes a microprocessor 201 and the like, and controls each part of the fundus oculi observation device 1 (described above).

(画像記憶部)
画像記憶部212は、画像形成部220により形成された眼底Efの表面の2次元画像(眼底画像)の画像データ(たとえば符号212a、212bで示す画像データ)や、断層画像の画像データ(たとえば符号Ga、Gbで示す画像データ)を記憶する。画像記憶部212への画像データの記憶処理と、画像記憶部212からの画像データの読み出し処理は、主制御部211によって実行される。画像記憶部212は、ハードディスクドライブ204等の記憶装置を含んで構成される。
(Image storage unit)
The image storage unit 212 includes image data (for example, image data indicated by reference numerals 212a and 212b) of a two-dimensional image (fundus image) of the surface of the fundus oculi Ef formed by the image forming unit 220, and image data (for example, reference numerals of tomographic images). Image data indicated by Ga and Gb). Processing for storing image data in the image storage unit 212 and processing for reading image data from the image storage unit 212 are executed by the main control unit 211. The image storage unit 212 includes a storage device such as the hard disk drive 204.

なお、眼底画像の画像データ212aと断層画像の画像データGaは、ほぼ同時に取得されたものとする。また、眼底画像の画像データ212bと断層画像の画像データGbは、ほぼ同時に取得されたものとする。ここで、「ほぼ同時(略同時)に取得された」とは、たとえば、双方の画像データが同時に取得された場合や、一方の画像データの取得の直後に他方が取得された場合や、一連の検査プロセスにおいて双方の画像データが取得された場合など、双方の画像データがほとんど時間差無く取得されたことを意味するものとする。逆に、画像データ212a等と画像データ212b等は、たとえば、それらが取得された検査日時が異なるなど、一方の画像データの取得後、相当の時間間隔を介して他方が取得されたものとされる。   It is assumed that the fundus image data 212a and the tomographic image data Ga are acquired almost simultaneously. In addition, it is assumed that the fundus image data 212b and the tomographic image data Gb are acquired almost simultaneously. Here, “obtained almost simultaneously (substantially simultaneously)” means, for example, a case where both image data are acquired simultaneously, a case where the other is acquired immediately after acquisition of one image data, or a series of When both image data are acquired in the inspection process, it means that both image data are acquired with almost no time difference. On the contrary, the image data 212a and the image data 212b and the like are obtained by acquiring the other through a considerable time interval after acquisition of one of the image data, for example, the examination date and time when they were acquired is different. The

(情報記憶部)
情報記憶部213には、位置情報(たとえば符号213a、213bで示す情報)が記憶される。この位置情報は、ほぼ同時に取得された眼底Efの表面の2次元画像(眼底画像)と断層画像について、この眼底画像におけるこの断層画像の位置を示す情報である。位置情報は、位置情報生成部214によって生成される(その生成方法については後述する。)。
(Information storage unit)
The information storage unit 213 stores position information (for example, information indicated by reference numerals 213a and 213b). This position information is information indicating the position of the tomographic image in the fundus image with respect to the two-dimensional image (fundus image) and tomographic image of the surface of the fundus oculi Ef acquired almost simultaneously. The position information is generated by the position information generation unit 214 (the generation method will be described later).

この位置情報について、より詳しく説明する。撮像装置10の撮像素子10aの撮像面上には、2次元のXY座標系があらかじめ定義されている(図示せず)。この撮像装置10により撮影された眼底画像には、このXY座標系に基づく2次元座標が設定される。このXY座標系は、図1に示すxyz座標系のx座標及びy座標が成す平面に平行な平面を定義する。ここで、2つの座標系の座標のスケール(単位距離の長さ)は、等しくてもよいし異なっていてもよい。また、2つの座標系の座標軸の方向は、一致していてもよいし一致していなくてもよい。   This position information will be described in more detail. A two-dimensional XY coordinate system is defined in advance on the imaging surface of the imaging device 10a of the imaging device 10 (not shown). Two-dimensional coordinates based on the XY coordinate system are set in the fundus image captured by the imaging apparatus 10. This XY coordinate system defines a plane parallel to the plane formed by the x and y coordinates of the xyz coordinate system shown in FIG. Here, the coordinate scale (the length of the unit distance) of the two coordinate systems may be the same or different. The directions of the coordinate axes of the two coordinate systems may or may not match.

一般に、2つの座標系の座標軸のスケール及び方向が異なる場合において、平行移動と回転移動によって座標軸の方向を一致させることができ、座標軸の単位距離の長さを拡大/縮小することによってスケールを一致させることができる(すなわち、一意的な座標変換を行うことができる。)。   In general, when the scale and direction of the coordinate axes of two coordinate systems are different, the direction of the coordinate axis can be matched by translation and rotation, and the scale is matched by enlarging / reducing the length of the unit distance of the coordinate axis (Ie, a unique coordinate transformation can be performed).

また、図1に示すように、xy平面(XY平面)に直交する方向には、眼底Efの深度方向を正方向とするz座標(Z座標;図示せず)が定義されている。z座標とZ座標についても、スケールは等しくてもよいし異なっていてもよい。以下、XYZ座標系とxyz座標系とは、対応する各座標軸の方向が一致しており、各座標軸のスケールも等しいものとする。   Further, as shown in FIG. 1, a z coordinate (Z coordinate; not shown) having a positive direction in the depth direction of the fundus oculi Ef is defined in a direction orthogonal to the xy plane (XY plane). The z coordinate and the Z coordinate may be the same or different from each other. Hereinafter, it is assumed that the directions of the corresponding coordinate axes of the XYZ coordinate system and the xyz coordinate system are the same, and the scales of the coordinate axes are also equal.

情報記憶部213に記憶された各位置情報には、たとえば走査領域情報、固視位置情報及び深度情報のうちの少なくともいずれかが含まれている。なお、本発明に係る位置情報は、これらの情報の1つを必ず含んでいなければならない訳ではなく、眼底画像における断層画像の位置を示す任意の情報を含んでいればよい。   Each position information stored in the information storage unit 213 includes, for example, at least one of scanning area information, fixation position information, and depth information. Note that the position information according to the present invention does not necessarily include one of these pieces of information, and may include arbitrary information indicating the position of the tomographic image in the fundus image.

走査領域情報は、断層画像の取得時に信号光LSが走査された領域(走査領域)をxy座標系にて表現した情報である。信号光LSの走査領域については、その一例を図8に示した。同図に示す走査態様では、前述のように主走査方向(x軸に平行な方向)と副走査方向(y軸に平行な方向)とに信号光LSが走査され、矩形状の走査領域Rを形成している。この走査領域Rに対応する走査領域情報は、たとえば(x1≦x≦x2、y1≦y≦y2)のように、主走査方向の範囲と副走査方向の範囲とによって表すことができる。   The scanning area information is information that expresses, in the xy coordinate system, an area (scanning area) scanned with the signal light LS when acquiring a tomographic image. An example of the scanning region of the signal light LS is shown in FIG. In the scanning mode shown in the figure, as described above, the signal light LS is scanned in the main scanning direction (direction parallel to the x-axis) and the sub-scanning direction (direction parallel to the y-axis), and the rectangular scanning region R Is forming. The scanning area information corresponding to the scanning area R can be expressed by a range in the main scanning direction and a range in the sub-scanning direction, for example (x1 ≦ x ≦ x2, y1 ≦ y ≦ y2).

なお、信号光LSの走査領域の形状は矩形に限定されるものではなく、たとえば信号光LSを同心円状若しくは螺旋状に走査する場合には円形状の走査領域が形成される。この場合の走査領域情報は、たとえば円形状の走査領域の中心の座標(x0、y0)と半径rとによって表すことができる。   Note that the shape of the scanning region of the signal light LS is not limited to a rectangular shape. For example, when the signal light LS is scanned concentrically or spirally, a circular scanning region is formed. The scanning area information in this case can be expressed by, for example, the coordinates (x0, y0) of the center of the circular scanning area and the radius r.

固視位置情報は、断層画像の取得時における内部固視標の眼底Efへの投影位置をxy座標系にて表現した情報である。この固視位置情報は、眼底Efに投影された内部固視標のたとえば中心位置の座標値(xf、yf)によって表すことができる。   The fixation position information is information that expresses the projection position of the internal fixation target on the fundus oculi Ef at the time of obtaining the tomographic image in the xy coordinate system. This fixation position information can be expressed by, for example, coordinate values (xf, yf) of the center position of the internal fixation target projected onto the fundus oculi Ef.

なお、固視位置情報は、眼底Efに投影された内部固視標の実際の投影位置を直接にxy座標系で表現した情報に限定されるものではない。たとえば、LCD140における内部固視標の表示位置(LCD140の表示面上に定義された2次元座標系で表現した座標値)をxy座標系の座標値に変換して得られる情報を、固視位置情報として用いることが可能である。ここで、内部固視標は、LCD140に表示され、撮影光学系120を介して眼底Efに投影されるので、その眼底Efにおける投影位置は、LCD140における表示位置、撮影光学系120の光学データ、眼底Efのz方向のアライメント位置等に基づいて演算することができる。   Note that the fixation position information is not limited to information in which the actual projection position of the internal fixation target projected onto the fundus oculi Ef is directly expressed in the xy coordinate system. For example, the information obtained by converting the display position of the internal fixation target on the LCD 140 (the coordinate value expressed in the two-dimensional coordinate system defined on the display surface of the LCD 140) into the coordinate value of the xy coordinate system is used as the fixation position. It can be used as information. Here, since the internal fixation target is displayed on the LCD 140 and projected onto the fundus oculi Ef via the photographing optical system 120, the projection position on the fundus oculi Ef is the display position on the LCD 140, the optical data of the photographing optical system 120, The calculation can be performed based on the alignment position in the z direction of the fundus oculi Ef.

深度情報は、眼底Efの断層画像の深度方向における位置(z座標値)を示す情報であり、換言すると、眼底Efの表面(眼底画像の撮影対象である。)に対する眼底画像の深度方向の位置を示す情報である。   The depth information is information indicating the position (z coordinate value) in the depth direction of the tomographic image of the fundus oculi Ef. In other words, the position of the fundus image in the depth direction with respect to the surface of the fundus oculi Ef (which is the imaging target of the fundus image). It is information which shows.

眼底Efは、網膜、脈絡膜、強膜を有している。深度情報としては、これらの膜のいずれかに含まれる特定の層に相当する画像の断層画像中におけるz方向の位置を用いることができる。たとえば、網膜の網膜色素上皮層(或いは網膜色素上皮と脈絡膜との境界)に相当する画像の、断層画像中におけるz方向の位置を、深度情報として採用することが可能である。ここで、網膜色素上皮層は、信号光LSをよく反射する層であり、断層画像中において比較的明瞭に描写されることから、深度情報の基準として好適に用いることができる。   The fundus oculi Ef has a retina, a choroid, and a sclera. As the depth information, a position in the z direction in a tomographic image of an image corresponding to a specific layer included in any of these films can be used. For example, the position in the z direction in the tomographic image of the image corresponding to the retinal pigment epithelium layer of the retina (or the boundary between the retinal pigment epithelium and the choroid) can be employed as the depth information. Here, the retinal pigment epithelium layer is a layer that reflects the signal light LS well, and is relatively clearly depicted in the tomographic image, and therefore can be suitably used as a reference for depth information.

なお、視神経乳頭を含む断層画像においては、たとえば、視神経乳頭のくぼみの底部に相当する画像の断層画像中におけるz方向の位置(z座標値)を深度情報として用いることができる。   In the tomographic image including the optic disc, for example, the position in the z direction (z coordinate value) in the tomographic image of the image corresponding to the bottom of the optic disc dent can be used as the depth information.

(位置情報生成部)
位置情報生成部214は、前述の位置情報を生成する処理を行うもので、本発明の「位置情報生成手段」の一例に相当する。以下、走査領域情報を生成する処理、固視位置情報を生成する処理、及び、深度情報を生成する処理について、それぞれ説明する。
(Location information generator)
The position information generation unit 214 performs the process of generating the above-described position information, and corresponds to an example of “position information generation unit” of the present invention. Hereinafter, a process for generating scanning area information, a process for generating fixation position information, and a process for generating depth information will be described.

まず、走査領域情報を生成する処理について説明する。信号光LSの走査領域は、眼底Efの断層画像を取得する前に、ユーザが操作部240Bを操作するなどして指定される。この作業は、表示部240Aに眼底Efの観察画像を表示させ、その観察画像上の所望の領域を囲むようにマウスでドラッグアンドドロップ操作を行うことで実行する。たとえば、マウスのドラッグ操作を開始した位置とドロップ操作を行った位置とを結ぶ直線を対角線とする矩形状の走査領域が設定される。   First, processing for generating scanning area information will be described. The scanning region of the signal light LS is specified by operating the operation unit 240B by the user before acquiring a tomographic image of the fundus oculi Ef. This operation is executed by displaying an observation image of the fundus oculi Ef on the display unit 240A and performing a drag-and-drop operation with a mouse so as to surround a desired region on the observation image. For example, a rectangular scanning region having a diagonal line connecting the position where the mouse drag operation is started and the position where the drop operation is performed is set.

位置情報生成部214は、眼底Efの観察画像上に指定された走査領域に基づいて、眼底Efの眼底画像(撮影画像)と断層画像とがほぼ同時に取得されたときの走査領域情報を生成する。このとき、観察画像が表示されているときの被検眼Eの固視位置と、眼底画像及び断層画像が取得されるときの固視位置とは同じであるとする。   The position information generation unit 214 generates scanning region information when the fundus image (captured image) of the fundus oculi Ef and the tomographic image are acquired almost simultaneously based on the scanning region specified on the observation image of the fundus oculi Ef. . At this time, it is assumed that the fixation position of the eye E when the observation image is displayed is the same as the fixation position when the fundus image and the tomographic image are acquired.

走査領域の指定をマウスのドラッグアンドドロップ操作にて行うときの、走査領域情報の生成処理の一具体例を説明する。走査領域が指定されると、ドラッグ開始位置のx座標値及びy座標値と、ドロップ位置のx座標値及びy座標値とが、ユーザインターフェイス240から制御部210に入力され、位置情報生成部214に送られる。ドラッグ開始位置の座標を(x1、y1)とし、ドロップ位置の座標を(x2、y2)とすると、位置情報生成部214は、眼底画像上の領域(x1≦x≦x2、y1≦y≦y2)からなる走査領域情報を生成する。   A specific example of scanning area information generation processing when the scanning area is designated by a mouse drag and drop operation will be described. When the scanning area is designated, the x coordinate value and y coordinate value of the drag start position and the x coordinate value and y coordinate value of the drop position are input from the user interface 240 to the control unit 210, and the position information generation unit 214. Sent to. Assuming that the coordinates of the drag start position are (x1, y1) and the coordinates of the drop position are (x2, y2), the position information generation unit 214 has an area (x1 ≦ x ≦ x2, y1 ≦ y ≦ y2) on the fundus image. ) Is generated.

次に、固視位置情報を生成する処理について説明する。被検眼Eの固視位置は、眼底Efの断層画像を取得する前に、ユーザが操作パネル3aの固視標切替スイッチ309や固視標位置調整スイッチ310や固視標サイズ切替スイッチ311を操作するなどして指定される。   Next, processing for generating fixation position information will be described. As for the fixation position of the eye E, before the tomographic image of the fundus oculi Ef is acquired, the user operates the fixation target changeover switch 309, the fixation target position adjustment switch 310, or the fixation target size changeover switch 311 of the operation panel 3a. It is specified by doing.

内部固視標によって被検眼Eの固視位置が指定されると、位置情報生成部214は、眼底Efに投影された内部固視標のたとえば中心位置の座標値(xf、yf)を求めて固視位置情報とする。このとき、内部固視標が投影された観察画像(撮影前)や眼底画像(撮影後)を解析することにより目的の座標値を求めるように構成することもできるし、LCD140に表示された内部固視標の表示位置に基づいて目的の座標値を演算するように構成することもできる。   When the fixation position of the eye E is designated by the internal fixation target, the position information generation unit 214 obtains, for example, the coordinate value (xf, yf) of the center position of the internal fixation target projected on the fundus oculi Ef. It is set as fixation position information. At this time, it is possible to obtain a target coordinate value by analyzing an observation image (before photographing) or a fundus image (after photographing) on which the internal fixation target is projected, or the internal fixation target displayed on the LCD 140 can be obtained. A target coordinate value may be calculated based on the display position of the fixation target.

続いて、深度情報を生成する処理について説明する。眼底Efの断層画像が取得されると、その断層画像の画像データが位置情報生成部214に入力される。位置情報生成部214は、この画像データを解析して、たとえば網膜色素上皮層に相当する部分を抽出し、この断層画像における当該抽出部分のz座標値を演算して目的の深度情報とする。   Next, processing for generating depth information will be described. When a tomographic image of the fundus oculi Ef is acquired, image data of the tomographic image is input to the position information generation unit 214. The position information generation unit 214 analyzes the image data, extracts, for example, a portion corresponding to the retinal pigment epithelium layer, and calculates the z coordinate value of the extracted portion in the tomographic image to obtain target depth information.

ここで、画像データを解析する代わりに、断層画像の形成に供されるデータ、たとえば各深度位置における干渉光LCの検出強度分布を表すデータを解析し、検出強度がピークとなる深度位置のz座標値を求めて深度情報とすることも可能である。   Here, instead of analyzing the image data, data used for forming the tomographic image, for example, data representing the detected intensity distribution of the interference light LC at each depth position is analyzed, and z at the depth position where the detected intensity reaches a peak is analyzed. It is also possible to obtain coordinate information to obtain depth information.

以上のようにして生成された位置情報は、対応する眼底画像の画像データ及び断層画像の画像データと関連付けられて情報記憶部213に記憶される。   The position information generated as described above is stored in the information storage unit 213 in association with the image data of the corresponding fundus image and the image data of the tomographic image.

(走査領域変位演算部)
走査領域変位演算部231は、2つの走査領域情報のそれぞれに示す信号光LSの走査領域の座標に基づいて、それら2つの座標の(xy方向における)変位を演算する。第1の断層画像を取得するときの走査領域Rに対応する走査領域情報に示す座標を(x1≦x≦x2、y1≦y≦y2)とし、第2の断層画像を取得するときの走査領域R′(図示せず)に対応する走査領域情報に示す座標を(x1′≦x≦x2′、y1′≦y≦y2′)とすると、走査領域変位演算部231は、たとえば、x方向の変位Δx(min)=x1−x1′及びΔx(max)=x2−x2′と、y方向の変位Δy(min)=y1−y1′及びΔy(max)=y2−y2′とをそれぞれ演算する。
(Scanning area displacement calculator)
The scanning area displacement calculation unit 231 calculates the displacement (in the xy direction) of these two coordinates based on the coordinates of the scanning area of the signal light LS indicated in each of the two scanning area information. The coordinates shown in the scanning area information corresponding to the scanning area R when acquiring the first tomographic image are (x1 ≦ x ≦ x2, y1 ≦ y ≦ y2), and the scanning area when acquiring the second tomographic image If the coordinates shown in the scanning area information corresponding to R ′ (not shown) are (x1 ′ ≦ x ≦ x2 ′, y1 ′ ≦ y ≦ y2 ′), the scanning area displacement calculation unit 231 may, for example, Displacement Δx (min) = x1−x1 ′ and Δx (max) = x2−x2 ′ and y direction displacement Δy (min) = y1−y1 ′ and Δy (max) = y2−y2 ′ are calculated, respectively. .

ここで、走査領域R、R′のx方向の長さが等しい場合(つまり、x2−x1=x2′−x1′である場合)、x方向の変位として、Δx=x1−x1′(又はx2−x2′)を算出するだけで十分である。同様に、走査領域R、R′のy方向の長さが等しい場合(つまり、y2−y1=y2′−y1′である場合)、y方向の変位として、Δy=y1−y1′(又はy2−y2′)を算出するだけで十分である。この走査領域変位演算部231は、本発明の「変位演算手段」の一例に相当している。   Here, when the x-direction lengths of the scanning regions R and R ′ are equal (that is, when x2−x1 = x2′−x1 ′), the displacement in the x direction is Δx = x1−x1 ′ (or x2). It is sufficient to calculate -x2 '). Similarly, when the lengths in the y direction of the scanning regions R and R ′ are equal (that is, y2−y1 = y2′−y1 ′), Δy = y1−y1 ′ (or y2) as the displacement in the y direction. It is sufficient to calculate -y2 '). The scanning area displacement calculation unit 231 corresponds to an example of the “displacement calculation unit” of the present invention.

(固視位置変位演算部)
固視位置変位演算部232は、2つの固視位置情報のそれぞれに示す内部固視標の眼底Efへの投影位置の座標に基づいて、それら2つの座標の(xy方向における)変位を演算する。第1の断層画像に対応する固視位置情報に示す内部固視標の投影位置の座標を(xf、yf)とし、第2の断層画像に対応する内部固視標の投影位置の座標を(xf′、yf′)とすると、固視位置変位演算部232は、これら2つの座標のx方向の変位Δxf=xf−xf′と、y方向の変位Δyf=yf−yf′とをそれぞれ演算する。この固視位置変位演算部232は、本発明の「変位演算手段」の一例に相当している。
(Fixed position displacement calculation unit)
The fixation position displacement calculation unit 232 calculates the displacement (in the xy direction) of these two coordinates based on the coordinates of the projection position of the internal fixation target on the fundus oculi Ef shown in each of the two fixation position information. . The coordinates of the projection position of the internal fixation target shown in the fixation position information corresponding to the first tomographic image are (xf, yf), and the coordinates of the projection position of the internal fixation target corresponding to the second tomographic image are ( xf ′, yf ′), the fixation position displacement calculation unit 232 calculates a displacement Δxf = xf−xf ′ in the x direction and a displacement Δyf = yf−yf ′ in the y direction of these two coordinates, respectively. . The fixation position displacement calculation unit 232 corresponds to an example of the “displacement calculation unit” of the present invention.

(深度位置変位演算部)
深度位置変位演算部233は、2つの深度情報のそれぞれに示す深度位置の座標に基づいて、それら2つの座標の(深度方向、つまりz方向における)変位を演算する。第1の断層画像に対応する深度情報に示す座標をzとし、第2の断層画像に対応する深度情報に示す座標をz′とすると、深度位置変位演算部233は、これら2つの座標の変位Δz=z−z′を演算する。この
(Depth position displacement calculation unit)
The depth position displacement calculation unit 233 calculates the displacement (in the depth direction, that is, the z direction) of the two coordinates based on the coordinates of the depth position indicated in each of the two depth information. When the coordinate shown in the depth information corresponding to the first tomographic image is z and the coordinate shown in the depth information corresponding to the second tomographic image is z ′, the depth position displacement calculation unit 233 changes the displacement of these two coordinates. Δz = z−z ′ is calculated. this

(積算画像生成部)
積算画像生成部234は、画像形成部220により形成された断層画像を深度方向に積算して1次元の画像(積算画像)を生成する。すなわち、断層画像を構成する各深度方向の画像Gijを深度方向(z方向)に積算して点状の画像を形成する。各点状の画像は、その基になった深度方向の画像Gijの位置における深度方向の積算輝度を示すものである。ここで、「深度方向に積算する」とは、深度方向の画像の各深度位置における輝度値を深度方向に足し合わせる(投影する)演算処理を意味する。
(Integrated image generator)
The integrated image generation unit 234 generates a one-dimensional image (integrated image) by integrating the tomographic images formed by the image forming unit 220 in the depth direction. That is, the image Gij in each depth direction constituting the tomographic image is integrated in the depth direction (z direction) to form a dot image. Each dot-like image indicates the accumulated luminance in the depth direction at the position of the image Gij in the depth direction that is the basis thereof. Here, “accumulate in the depth direction” means a calculation process of adding (projecting) the luminance values at the respective depth positions of the image in the depth direction in the depth direction.

このような処理を信号光LSの一連の走査によって得られる各断層画像について実行することにより、眼底画像(表面の2次元画像)と同様に、この走査領域における眼底Efの表面の形態を表す画像が得られる。なお、積算画像については、本発明者らによる特願2005−337628に詳しく記載されている。この積算画像生成部234は、本発明の「積算画像生成手段」の一例に相当している。   By executing such processing for each tomographic image obtained by a series of scans of the signal light LS, an image representing the form of the surface of the fundus oculi Ef in this scanning region is obtained in the same manner as the fundus image (two-dimensional image of the surface). Is obtained. The accumulated image is described in detail in Japanese Patent Application No. 2005-337628 by the present inventors. This integrated image generation unit 234 corresponds to an example of “integrated image generation means” of the present invention.

(積算画像変位演算部)
積算画像変位演算部235は、第1、第2の断層画像(群)に基づく2つの積算画像に基づいて、それらの積算画像のxy方向における変位を演算する。積算画像は、その基になった断層画像を取得するときの信号光LSの走査領域と同じxy座標の範囲において形成される。積算画像変位演算部235は、各積算画像に対応する走査領域の座標(たとえば走査領域情報を参照して取得する。)に基づいて、走査領域変位演算部231と同じ要領で、2つの積算画像の変位を演算する。
(Integrated image displacement calculator)
The integrated image displacement calculator 235 calculates the displacement in the xy direction of these integrated images based on the two integrated images based on the first and second tomographic images (group). The integrated image is formed in the same xy coordinate range as the scanning region of the signal light LS when acquiring the tomographic image that is the basis thereof. The integrated image displacement calculation unit 235 performs two integrated images in the same manner as the scanning region displacement calculation unit 231 based on the coordinates of the scanning region corresponding to each integrated image (for example, obtained by referring to the scanning region information). The displacement of is calculated.

2つの積算画像の変位を演算する処理の他の構成例としては、2つの積算画像の間の相関が最も高くなるように変位を演算することもできる。また、2つの積算画像からそれぞれ特徴点を抽出し、それらの特徴点の変位を演算することにより、2つの積算画像の変位を求めるように構成することも可能である。この積算画像変位演算部235は、本発明の「積算画像変位演算手段」の一例に相当している。   As another configuration example of the process of calculating the displacement of the two integrated images, the displacement can be calculated so that the correlation between the two integrated images is the highest. It is also possible to extract the feature points from the two integrated images and calculate the displacements of the feature points to obtain the displacements of the two integrated images. The integrated image displacement calculation unit 235 corresponds to an example of “integrated image displacement calculation means” of the present invention.

(画像位置変更部)
画像位置変更部236は、走査領域変位演算部231や固視位置変位演算部232や深度位置変位演算部233や積算画像変位演算部235から入力される変位の情報に基づいて、断層画像(群)の位置を変更することにより、2つの断層画像(群)の位置合わせを行う。この画像位置変更部236は、本発明の「画像位置変更手段」の一例に相当するものである。
(Image position change part)
The image position changing unit 236 generates a tomographic image (group) based on displacement information input from the scanning region displacement calculating unit 231, the fixation position displacement calculating unit 232, the depth position displacement calculating unit 233, or the integrated image displacement calculating unit 235. ), The two tomographic images (groups) are aligned. The image position changing unit 236 corresponds to an example of the “image position changing unit” of the present invention.

以下、走査領域変位演算部231から入力される変位に基づく画像の位置合わせ処理、固視位置変位演算部232から入力される変位に基づく画像の位置合わせ処理、深度位置変位演算部233から入力される変位に基づく画像の位置合わせ処理、積算画像変位演算部235から入力される変位に基づく画像の位置合わせ処理について、それぞれ説明する。また、画像位置変位変更部236による断層画像(群)の詳細な位置合わせ処理についても説明する。   Hereinafter, the image alignment processing based on the displacement input from the scanning region displacement calculation unit 231, the image alignment processing based on the displacement input from the fixation position displacement calculation unit 232, and the depth position displacement calculation unit 233. An image alignment process based on displacement and an image alignment process based on displacement input from the integrated image displacement calculation unit 235 will be described. Further, detailed positioning processing of the tomographic image (group) by the image position displacement changing unit 236 will be described.

まず、走査領域変位演算部231から入力される変位に基づく画像の位置合わせ処理について説明する。画像位置変更部236は、走査領域変位演算部231から入力される2つの断層画像(群)のx方向の変位Δx=x1−x1′(又はx2−x2′)とy方向の変位Δy=y1−y1′(又はy2−y2′)とに基づいて、この2つの断層画像(群)の少なくとも一方をx方向及びy方向に移動させることにより、双方の断層画像のx方向及びy方向のそれぞれの位置合わせをする。たとえば、第2の断層画像をx方向にΔxだけ移動させ、y方向にΔyだけ移動させることにより、第2の断層画像の位置を第1の断層画像の位置に合わせる処理を実行する。   First, an image alignment process based on the displacement input from the scanning region displacement calculation unit 231 will be described. The image position changing unit 236 includes the displacement Δx = x1−x1 ′ (or x2−x2 ′) in the x direction and the displacement Δy = y1 in the y direction of the two tomographic images (groups) input from the scanning region displacement calculation unit 231. Based on -y1 '(or y2-y2'), by moving at least one of the two tomographic images (group) in the x direction and the y direction, Align the position. For example, by moving the second tomographic image by Δx in the x direction and by moving Δy in the y direction, a process for adjusting the position of the second tomographic image to the position of the first tomographic image is executed.

なお、走査領域R、R′のx方向の長さが等しくない場合(つまり、x2−x1≠x2′−x1′である場合)には、x方向の変位Δx(min)=x1−x1′とΔx(max)=x2−x2′)とに基づいて、たとえば、各走査領域R、R′の双方のx方向の中点を一致させるように、2つの断層画像(群)の少なくとも一方を移動させるように構成することができる。同様に、走査領域R、R′のy方向の長さが等しくない場合(つまり、y2−y1≠y2′−y1′である場合)には、y方向の変位Δy(min)=y1−y1′とΔy(may)=y2−y2′)とに基づいて、たとえば、各走査領域R、R′の双方のy方向の中点を一致させるように、2つの断層画像(群)の少なくとも一方を移動させるように構成することができる。   When the lengths in the x direction of the scanning regions R and R ′ are not equal (that is, when x2−x1 ≠ x2′−x1 ′), the displacement Δx (min) in the x direction = x1−x1 ′. And Δx (max) = x2−x2 ′), for example, at least one of the two tomographic images (group) is set so that the midpoints in the x direction of both scanning regions R and R ′ are matched. It can be configured to move. Similarly, when the lengths in the y direction of the scanning regions R and R ′ are not equal (that is, y2−y1 ≠ y2′−y1 ′), the displacement Δy (min) in the y direction = y1−y1. ′ And Δy (may) = y2−y2 ′), for example, at least one of the two tomographic images (groups) so as to match the midpoints in the y direction of both scanning regions R and R ′. Can be configured to move.

次に、固視位置変位演算部232から入力される変位に基づく画像の位置合わせ処理について説明する。画像位置変更部236は、固視位置変位演算部232から入力される2つの断層画像(群)の取得時における内部固視標の眼底Efへの投影位置のx方向の変位Δxf=xf−xf′と、y方向の変位Δyf=yf−yf′とに基づいて、この2つの断層画像(群)の少なくとも一方をx方向及びy方向に移動させることにより、双方の断層画像のx方向及びy方向のそれぞれの位置合わせをする。たとえば、第2の断層画像をx方向にΔxfだけ移動させ、y方向にΔyfだけ移動させることにより、第2の断層画像の位置を第1の断層画像の位置に合わせる処理を実行する。   Next, image alignment processing based on displacement input from the fixation position displacement calculation unit 232 will be described. The image position changing unit 236 has a displacement Δxf = xf−xf in the x direction of the projection position of the internal fixation target onto the fundus oculi Ef when the two tomographic images (groups) input from the fixation position displacement calculation unit 232 are acquired. ′ And the displacement in the y direction Δyf = yf−yf ′, by moving at least one of the two tomographic images (group) in the x direction and the y direction, Align each direction. For example, the second tomographic image is moved by Δxf in the x direction and is moved by Δyf in the y direction, thereby executing a process for adjusting the position of the second tomographic image to the position of the first tomographic image.

続いて、深度位置変位演算部233から入力される変位に基づく画像の位置合わせ処理について説明する。画像位置変更部236は、深度位置変位演算部233から入力される2つの断層画像の深度位置の座標の変位Δz=z−z′に基づいて、この2つの断層画像(群)の深度方向(z方向)の位置合わせをする。たとえば、第2の断層画像をz方向にΔzだけ移動させることにより、第2の断層画像の位置を第1の断層画像の位置に合わせる処理を実行する。   Next, an image alignment process based on the displacement input from the depth position displacement calculation unit 233 will be described. Based on the displacement Δz = z−z ′ of the coordinates of the depth positions of the two tomographic images input from the depth position displacement calculating unit 233, the image position changing unit 236 performs the depth direction ( Align in the z direction). For example, the process of matching the position of the second tomographic image with the position of the first tomographic image is performed by moving the second tomographic image by Δz in the z direction.

次に、積算画像変位演算部235から入力される変位に基づく画像の位置合わせ処理について説明する。画像位置変更部236は、積算画像変位演算部235から入力される2つの断層画像(群)に基づく2つの積算画像のxy方向における変位(走査領域の変位と同様にΔx、Δyで表す。)に基づいて、この2つの断層画像(群)の少なくとも一方をx方向及びy方向に移動させることにより、双方の断層画像のx方向及びy方向のそれぞれの位置合わせをする。たとえば、第2の断層画像をx方向にΔxだけ移動させ、y方向にΔyだけ移動させることにより、第2の断層画像の位置を第1の断層画像の位置に合わせる処理を実行する。なお、双方の積算画像の領域が異なる場合には、走査領域の変位に基づく場合と同様に、x方向、y方向の中点を一致させるなどして位置合わせを行う。   Next, image alignment processing based on displacement input from the integrated image displacement calculation unit 235 will be described. The image position changing unit 236 displaces the two accumulated images in the xy direction based on the two tomographic images (groups) input from the accumulated image displacement calculating unit 235 (represented by Δx and Δy similarly to the displacement of the scanning region). Based on the above, by moving at least one of the two tomographic images (group) in the x direction and the y direction, the respective tomographic images are aligned in the x direction and the y direction, respectively. For example, by moving the second tomographic image by Δx in the x direction and by moving Δy in the y direction, a process for adjusting the position of the second tomographic image to the position of the first tomographic image is executed. When the areas of the integrated images are different from each other, alignment is performed by matching the midpoints in the x direction and the y direction, as in the case based on the displacement of the scanning area.

最後に、断層画像(群)の詳細な位置合わせ処理について説明する。画像位置変更部236は、2つの眼底画像(眼底Efの表面の2次元画像)について、相関が最も高くなるように変位を演算し、この変位に基づいて2つの眼底画像の位置合わせをする。また、2つの眼底画像からそれぞれ特徴点を抽出し、それらの特徴点の変位を演算し、この変位に基づいて2つの眼底画像の位置合わせを行う。更に、この2つの眼底画像の位置合わせの結果を用いて、これら2つの眼底画像とほぼ同時に取得された2つの断層画像のx方向及びy方向の位置合わせを行う。   Finally, a detailed alignment process of the tomographic image (group) will be described. The image position changing unit 236 calculates a displacement for two fundus images (a two-dimensional image of the surface of the fundus oculi Ef) so that the correlation is the highest, and aligns the two fundus images based on the displacement. Also, feature points are extracted from the two fundus images, the displacements of these feature points are calculated, and the two fundus images are aligned based on the displacements. Further, using the result of the alignment of the two fundus images, the two tomographic images acquired almost simultaneously with the two fundus images are aligned in the x direction and the y direction.

このような眼底画像の位置合わせに基づく断層画像の位置合わせを、たとえば、走査領域変位演算部231(又は、固視位置変位演算部232、度位置変位演算部233若しくは積算画像変位演算部235)から入力される変位の情報に基づく(大まかな)位置合わせの後に実行することにより、2つの断層画像(群)の位置合わせをより詳細に行うことが可能である。   The alignment of the tomographic image based on the alignment of the fundus image is performed by, for example, the scanning region displacement calculation unit 231 (or the fixation position displacement calculation unit 232, the degree position displacement calculation unit 233, or the integrated image displacement calculation unit 235). By executing after the (rough) alignment based on the displacement information input from, it is possible to perform the alignment of the two tomographic images (group) in more detail.

[動作]
以上のような構成を有する眼底観察装置1の動作について、図10〜図12を参照しつつ説明する。これらの図は、眼の疾患の経過観察において、異なる検査日時に取得された画像を比較するときの、眼底観察装置1の動作の一例を表している。このフローチャートに示す動作は、位置情報を用いて画像の位置合わせを行う場合に相当する。なお、積算画像を用いて画像の位置合わせを行う場合については後述する。
[Operation]
The operation of the fundus oculi observation device 1 having the above configuration will be described with reference to FIGS. These drawings show an example of the operation of the fundus oculi observation device 1 when comparing images acquired at different examination dates and times in the follow-up of eye diseases. The operation shown in this flowchart corresponds to the case where image alignment is performed using position information. A case where image alignment is performed using the accumulated image will be described later.

〔位置情報を用いた画像の位置合わせ処理〕
まず、図10、図11を参照しつつ、位置情報を用いた画像の位置合わせ処理について説明する。最初に、第1の検査日時に眼底Efの眼底画像と断層画像(断層画像群;以下同様)とを取得する(S1)。取得された眼底画像の画像データ212aと断層画像の画像データGaは、それぞれ画像記憶部212に記憶される(S2)。なお、眼底観察装置1がLAN等のネットワークに接続されている場合、このネットワーク上のデータベースに画像データ212a、Gaを保管するようにしてもよい。
[Image registration processing using location information]
First, an image alignment process using position information will be described with reference to FIGS. 10 and 11. First, a fundus image and a tomographic image (a tomographic image group; the same applies hereinafter) of the fundus oculi Ef are acquired at the first examination date and time (S1). The acquired fundus image image data 212a and tomographic image data Ga are respectively stored in the image storage unit 212 (S2). If the fundus oculi observation device 1 is connected to a network such as a LAN, the image data 212a and Ga may be stored in a database on this network.

位置情報生成部214は、画像取得前に設定された情報(信号光LSの走査領域Rの指定情報、固視位置の指定情報等)や、取得された画像情報に基づいて、位置情報213aを生成する(S3)。生成された位置情報213aは、情報記憶部213に記憶される(S4)。   The position information generation unit 214 obtains the position information 213a based on information set before the image acquisition (designation information on the scanning region R of the signal light LS, designation information on the fixation position, etc.) and the acquired image information. Generate (S3). The generated position information 213a is stored in the information storage unit 213 (S4).

ここで、xy方向の画像位置合わせ用の位置情報としては、走査領域情報及び固視位置情報のうちのいずれか一方が生成されれば十分であるが、ここでは双方の情報を生成するものとする。また、z方向の画像位置合わせ用の位置情報である深度情報も生成されるものとする。   Here, as the position information for image alignment in the xy direction, it is sufficient that either one of the scanning region information and the fixation position information is generated. However, here, both pieces of information are generated. To do. It is also assumed that depth information that is position information for image alignment in the z direction is also generated.

第1の検査日時から所定期間(たとえば数日、数週間、数ヶ月、数年等)が経過した第2の検査日時に、眼底Efの眼底画像と断層画像(断層画像群;以下同様)とを取得する(S5)。取得された眼底画像の画像データ212bと断層画像の画像データGbは、それぞれ画像記憶部212に記憶される(S6)。   A fundus image of the fundus oculi Ef and a tomographic image (a tomographic image group; the same applies hereinafter) at a second examination date and time when a predetermined period (for example, several days, weeks, months, years, etc.) has passed since the first examination date and time. Is acquired (S5). The acquired image data 212b of the fundus image and the image data Gb of the tomographic image are respectively stored in the image storage unit 212 (S6).

位置情報生成部214は、第1の検査日時のときと同様に、走査領域情報、固視位置情報及び深度情報を含む位置情報213bを生成する(S7)。生成された位置情報213bは、情報記憶部213に記憶される(S8)。   The position information generation unit 214 generates position information 213b including scanning area information, fixation position information, and depth information, similar to the first examination date and time (S7). The generated position information 213b is stored in the information storage unit 213 (S8).

眼底Efの画像の比較を開始するための所定の操作がなされると、主制御部211は、画像記憶部212から眼底画像の画像データ212b(又は画像データ212a)を読み出し、この画像データ212bに基づく眼底画像Ef′を表示部240Aに表示させる(S9)。   When a predetermined operation for starting comparison of images of the fundus oculi Ef is performed, the main control unit 211 reads out image data 212b (or image data 212a) of the fundus image from the image storage unit 212, and stores the image data 212b in the image data 212b. The based fundus image Ef ′ is displayed on the display unit 240A (S9).

更に、主制御部211は、情報記憶部213から位置情報213a、213bのそれぞれの走査領域情報と固視位置情報とを読み出し、この2つの走査領域情報に基づく2つの走査領域を示す画像と、この2つの固視位置情報に基づく内部固視標の投影位置を示す画像とを、それぞれ眼底画像Ef′に重畳して表示させる(S10)。   Further, the main control unit 211 reads the respective scanning area information and fixation position information of the position information 213a and 213b from the information storage unit 213, an image showing two scanning areas based on the two scanning area information, An image indicating the projection position of the internal fixation target based on the two fixation position information is superimposed and displayed on the fundus oculi image Ef ′ (S10).

また、主制御部211は、画像記憶部212から断層画像の画像データGb(又は画像データGa)を読み出し、この画像データに基づく断層画像Gbを表示部240Aに表示させる(S11)。この断層画像Gb(Ga)は、眼底画像212b(212a)等と並列して表示部240Aに表示される。   Further, the main control unit 211 reads the image data Gb (or image data Ga) of the tomographic image from the image storage unit 212, and causes the display unit 240A to display the tomographic image Gb based on this image data (S11). The tomographic image Gb (Ga) is displayed on the display unit 240A in parallel with the fundus oculi image 212b (212a) and the like.

図11は、ステップS9、S10、S11により表示部240Aに表示される画面の一例を表している。表示部240Aの表示画面には、同図に示すように、眼底Efの表面の2次元画像(眼底画像212b)等が表示される眼底画像表示部240aと、眼底Efの断層画像Gbが表示される断層画像表示部240bとが設けられている。   FIG. 11 illustrates an example of a screen displayed on the display unit 240A by steps S9, S10, and S11. On the display screen of the display unit 240A, a fundus image display unit 240a on which a two-dimensional image (fundus image 212b) of the surface of the fundus oculi Ef is displayed and a tomographic image Gb of the fundus oculi Ef are displayed as shown in FIG. And a tomographic image display unit 240b.

ステップS9により、眼底画像表示部240aに眼底画像Ef′が表示される。また、ステップS10により、第1の検査日時に断層画像を取得したときの走査領域(を示す画像)Rと、第2の検査日時に断層画像を取得したときの走査領域(を示す画像)R′とが、眼底画像Ef′に重畳して表示される。更に、ステップS10により、第1の検査日時における内部固視標の投影位置(を示す画像)Fと、第2の検査日時における内部固視標の投影位置(を示す画像)F′とが、眼底画像Ef′に重畳して表示される。   By step S9, the fundus image Ef ′ is displayed on the fundus image display unit 240a. Further, in step S10, a scanning region (an image indicating R) when a tomographic image is acquired at the first examination date and time, and a scanning region (an image indicating R) when a tomographic image is acquired at the second inspection date and time. 'Is displayed superimposed on the fundus oculi image Ef'. Furthermore, by step S10, the projection position (indicating image) F of the internal fixation target at the first examination date and time, and the projection position (image showing) of the internal fixation target at the second examination date and time, It is displayed superimposed on the fundus image Ef ′.

走査領域R、R′及び投影位置F、F′は、それぞれ対応する走査領域情報又は固視位置情報に示す座標に基づいて表示される。ここで、走査領域R′と投影位置F′については、表示されている眼底画像Ef′と同じ第2の検査日時における画像取得時に生成されたものであるから、この眼底画像Ef′上に対する第2の検査日時の断層画像Gbの位置(つまり、走査領域の位置と内部固視標の投影位置)をそのまま表すものである。   The scanning areas R and R ′ and the projection positions F and F ′ are displayed based on the coordinates indicated in the corresponding scanning area information or fixation position information, respectively. Here, the scanning region R ′ and the projection position F ′ are generated at the time of image acquisition at the same second examination date and time as the displayed fundus image Ef ′. 2 shows the position of the tomographic image Gb at the inspection date and time 2 (that is, the position of the scanning region and the projection position of the internal fixation target) as they are.

一方、走査領域Rと投影位置Fは、表示されている眼底画像Ef′と異なり第1の検査日時における画像取得時に生成されたものである。したがって、第1、第2の検査日時の検査において、走査領域として指定される画像領域のずれや、内部固視標の投影位置のずれ(つまり眼底画像が撮影された眼底Efの領域のずれ)や、被検眼Eに対する装置のアライメントのずれなど、検査時における各種の条件のずれが生じるおそれがある。また、これらの条件が一致していても、内部固視標によって被検眼Eが確実に固視されていない場合などには、眼底画像として撮影される眼底Efの領域にずれが生じるおそれがある。   On the other hand, the scanning region R and the projection position F are generated at the time of image acquisition at the first examination date and time, unlike the displayed fundus image Ef ′. Accordingly, in the examinations on the first and second examination dates and times, the deviation of the image area designated as the scanning area and the deviation of the projection position of the internal fixation target (that is, the deviation of the area of the fundus oculi Ef where the fundus image was taken). In addition, there is a risk that various conditions may be deviated during the examination, such as misalignment of the apparatus with respect to the eye E. Even if these conditions are met, there is a possibility that the region of the fundus oculi Ef captured as a fundus image may be shifted when the eye E is not firmly fixed by the internal fixation target. .

それにより、図11に示すように、走査領域R、R′は互いに異なる位置に表示され、投影位置F、F′は互いに異なる位置に表示されるのが一般的である。   Accordingly, as shown in FIG. 11, the scanning regions R and R ′ are generally displayed at different positions, and the projection positions F and F ′ are generally displayed at different positions.

なお、第1、第2の検査日時において複数の断層画像(つまり断層画像群)を取得した場合、主制御部211は、その断層画像群Gb(Ga)のうちの一つを断層画像表示部240bに表示させる。表示される断層画像としては、たとえば、走査開始位置RSを含む断面の断層画像や、副走査方向(y方向)において中間に位置する断面の断層画像など、任意の断層画像が選択される。   When a plurality of tomographic images (that is, tomographic image groups) are acquired at the first and second examination dates and times, the main control unit 211 selects one of the tomographic image groups Gb (Ga) as a tomographic image display unit. 240b is displayed. As the tomographic image to be displayed, for example, an arbitrary tomographic image such as a tomographic image of a cross section including the scanning start position RS or a tomographic image of a cross section located in the middle in the sub-scanning direction (y direction) is selected.

主制御部211は、位置情報213a、213bを情報記憶部213から読み出して画像処理部230に送るとともに、眼底画像の画像データ212a、212b及び断層画像の画像データGa、Gbを画像記憶部212から読み出して画像処理部230に送る。   The main control unit 211 reads the position information 213a and 213b from the information storage unit 213 and sends the position information 213a and 213b to the image processing unit 230, and the image data 212a and 212b of the fundus image and the image data Ga and Gb of the tomographic image from the image storage unit 212. Read out and send to image processing unit 230.

走査領域変位演算部231は、位置情報213a、213bのそれぞれの走査領域情報に示す信号光LSの走査領域の座標に基づいて、この2つの座標の(xy方向における)変位を演算する(S12)。   Based on the coordinates of the scanning area of the signal light LS indicated in the respective scanning area information of the position information 213a and 213b, the scanning area displacement calculation unit 231 calculates the displacement (in the xy direction) of these two coordinates (S12). .

また、固視位置変位演算部232は、位置情報213a、213bのそれぞれの固視位置情報に示す内部固視標の眼底Efへの投影位置の座標に基づいて、この2つの座標の(xy方向における)変位を演算する(S13)。   Further, the fixation position displacement calculation unit 232 determines the (x and y directions) of the two coordinates based on the coordinates of the projection position of the internal fixation target on the fundus oculi Ef indicated by the fixation position information of the position information 213a and 213b. The displacement is calculated (S13).

更に、深度位置変位演算部233は、位置情報213a、213bのそれぞれの深度情報に示す深度位置の座標に基づいて、この2つの座標の(z方向における)変位を演算する(S14)。ステップS12〜S14にてそれぞれ演算された変位は、画像位置変更部236に入力される。   Further, the depth position displacement calculation unit 233 calculates the displacement (in the z direction) of these two coordinates based on the depth position coordinates indicated in the depth information of the position information 213a and 213b (S14). The displacements calculated in steps S12 to S14 are input to the image position changing unit 236.

画像位置変更部236は、ステップS12にて演算された走査領域の座標の変位に基づいて、第1の検査日時の断層画像Ga及び/又は第2の検査日時の断層画像Gbをx方向及びy方向に移動させて、これら2つの断層画像のxy方向の位置合わせを実行する(S15)。   The image position changing unit 236 converts the tomographic image Ga at the first examination date and / or the tomographic image Gb at the second examination date into the x direction and y based on the displacement of the coordinates of the scanning area calculated in step S12. Then, the two tomographic images are aligned in the xy direction (S15).

また、画像位置変更部236は、ステップS13にて演算された内部固視標の投影位置の座標の変位に基づいて、第1の検査日時の断層画像Ga及び/又は第2の検査日時の断層画像Gbをx方向及びy方向に移動させて、これら2つの断層画像のxy方向の位置合わせを実行する(S16)。   Further, the image position changing unit 236 calculates the tomographic image Ga at the first examination date and / or the tomogram at the second examination date based on the displacement of the coordinates of the projection position of the internal fixation target calculated in step S13. The image Gb is moved in the x direction and the y direction, and the alignment of these two tomographic images in the xy direction is executed (S16).

また、画像位置変更部236は、ステップS14にて演算された断層画像の深度位置の変位に基づいて、第1の検査日時の断層画像Ga及び/又は第2の検査日時の断層画像Gbをz方向に移動させて、これら2つの断層画像のz方向(深度方向)の位置合わせを実行する(S17)。   In addition, the image position changing unit 236 generates the tomographic image Ga at the first examination date and / or the tomographic image Gb at the second examination date and time z based on the displacement of the depth position of the tomographic image calculated in step S14. The two tomographic images are aligned in the z direction (depth direction) by moving in the direction (S17).

更に、画像位置変更部236は、眼底画像の画像データ212a、212bに基づき、これら2つの眼底画像の相関が最も高くなるように変位を演算し、この変位に基づいて2つの眼底画像の位置合わせを行い、この位置合わせの結果を用いて、断層画像Ga、Gbのxy方向の位置合わせを行う(S18)。以上で、位置情報を用いた断層画像の位置合わせ処理は終了となる。   Further, the image position changing unit 236 calculates a displacement based on the image data 212a and 212b of the fundus image so that the correlation between the two fundus images is the highest, and based on the displacement, aligns the two fundus images. Using the alignment result, alignment of the tomographic images Ga and Gb in the xy direction is performed (S18). This completes the tomographic image alignment process using the position information.

主制御部211は、この位置合わせの結果に基づいて、眼底画像表示部240aにおける走査領域の画像R、R′及び内部固視標の投影位置の画像F、F′の表示位置を変更することができる。この表示位置の変更により、走査領域の画像R、R′は、ほとんど同じ位置に表示され、投影位置の画像F、F′は、ほとんど同じ位置に表示される。これは、第1の検査日時における断層画像(群)Gaと、第2の検査日時における断層画像(群)との位置合わせがなされたことを意味する。   Based on the result of this alignment, the main control unit 211 changes the display positions of the images R and R ′ of the scanning area and the images F and F ′ of the projection positions of the internal fixation target in the fundus image display unit 240a. Can do. By changing the display position, the images R and R ′ in the scanning area are displayed at almost the same position, and the images F and F ′ at the projection position are displayed at almost the same position. This means that the tomographic image (group) Ga at the first examination date and time is aligned with the tomographic image (group) at the second examination date and time.

〔積算画像を用いた画像の位置合わせ処理〕
次に、図12を参照しつつ、積算画像を用いた画像の位置合わせ処理について説明する。まず、位置情報を用いた位置合わせ処理と同様に、第1の検査日時に眼底Efの眼底画像と断層画像(断層画像群;以下同様)とを取得し(S21)、その眼底画像の画像データ212aと断層画像の画像データGaを画像記憶部212に記憶する(S22)。
[Image registration processing using accumulated images]
Next, with reference to FIG. 12, an image alignment process using the accumulated image will be described. First, similarly to the alignment process using position information, a fundus image and a tomographic image (a tomographic image group; the same applies hereinafter) of the fundus oculi Ef are acquired at the first examination date and time (S21), and image data of the fundus image is obtained. 212a and tomographic image data Ga are stored in the image storage unit 212 (S22).

また、第1の検査日時から所定期間経過後の第2の検査日時に、眼底Efの眼底画像と断層画像(断層画像群;以下同様)とを取得し(S23)、その眼底画像の画像データ212bと断層画像の画像データGbを画像記憶部212に記憶する(S24)。   Also, a fundus image and a tomographic image (a tomographic image group; the same applies hereinafter) of the fundus oculi Ef are acquired at a second examination date and time after a predetermined period has elapsed from the first examination date and time (S23), and image data of the fundus image is obtained. 212b and tomographic image data Gb are stored in the image storage unit 212 (S24).

なお、第1、第2の検査日時のそれぞれにおいて、断層画像を取得したときの信号光LSの走査領域を示す情報(前述の走査領域情報)を生成し、情報記憶部213に記憶しておく。   Note that information indicating the scanning area of the signal light LS when the tomographic image is acquired (the above-described scanning area information) is generated and stored in the information storage unit 213 at each of the first and second examination dates and times. .

主制御部211は、所定の操作に対応し、画像記憶部212から眼底画像の画像データ212b(又は画像データ212a)を読み出し、この画像データ212bに基づく眼底画像Ef′を表示部240Aに表示させるとともに(S25)、情報記憶部213から走査領域情報を読み出し、第1、第2の検査日時の走査領域を示す画像を眼底画像Ef′に重畳して表示させる(S26)。更に、主制御部211は、画像記憶部212から断層画像の画像データGb(又は画像データGa)を読み出し、この画像データに基づく断層画像Gbを表示部240Aに表示させる(S27)。ステップS25〜S27による画像の表示態様は、たとえば前述の図11と同様とされる。   In response to a predetermined operation, the main control unit 211 reads out image data 212b (or image data 212a) of the fundus image from the image storage unit 212, and causes the display unit 240A to display a fundus image Ef ′ based on the image data 212b. At the same time (S25), the scanning area information is read from the information storage unit 213, and an image showing the scanning areas of the first and second examination dates is superimposed and displayed on the fundus image Ef '(S26). Further, the main control unit 211 reads the image data Gb (or image data Ga) of the tomographic image from the image storage unit 212 and displays the tomographic image Gb based on this image data on the display unit 240A (S27). The image display mode in steps S25 to S27 is the same as that shown in FIG. 11, for example.

また、主制御部211は、眼底画像の画像データ212a、212b及び断層画像の画像データGa、Gbを画像記憶部212から読み出して画像処理部230に送る。積算画像生成部234は、断層画像の画像データ212a、212bのそれぞれを深度方向に積算して、第1の検査日時に対応する積算画像及び第2の検査日時に対応する積算画像をそれぞれ生成する(S28)。積算画像変位演算部235は、これら第1、第2の検査日時に対応する積算画像のxy方向における変位を演算する(S29)。   Further, the main control unit 211 reads out the image data 212 a and 212 b of the fundus image and the image data Ga and Gb of the tomographic image from the image storage unit 212 and sends them to the image processing unit 230. The integrated image generation unit 234 integrates each of the tomographic image data 212a and 212b in the depth direction, and generates an integrated image corresponding to the first inspection date and an integrated image corresponding to the second inspection date and time, respectively. (S28). The integrated image displacement calculation unit 235 calculates the displacement in the xy direction of the integrated image corresponding to the first and second inspection dates (S29).

続いて、画像位置変更部236は、演算された積算画像の変位に基づいて、断層画像Ga、Gbのxy方向の位置合わせを行う(S30)。   Subsequently, the image position changing unit 236 aligns the tomographic images Ga and Gb in the xy directions based on the calculated displacement of the integrated image (S30).

更に、画像位置変更部236は、眼底画像212a、212bの相関が最も高くなるように変位を演算し、この変位に基づいて2つの眼底画像の位置合わせを行い、この位置合わせの結果を用いて、断層画像Ga、Gbのxy方向の位置合わせを行う(S31)。以上で、積算画像を用いた断層画像の位置合わせ処理は終了となる。主制御部211は、位置情報を用いた位置合わせの場合と同様に、眼底画像表示部240aにおける走査領域の画像R、R′の表示位置を変更できる。   Further, the image position changing unit 236 calculates the displacement so that the correlation between the fundus images 212a and 212b is the highest, aligns the two fundus images based on the displacement, and uses the result of the alignment. Then, the tomographic images Ga and Gb are aligned in the xy direction (S31). The tomographic image alignment process using the integrated image is thus completed. The main control unit 211 can change the display positions of the images R and R ′ in the scanning region on the fundus image display unit 240a, as in the case of the alignment using the position information.

なお、以上の積算画像による位置合わせは、xy方向における位置合わせであるから、位置情報を用いた位置合わせ処理の場合と同様の深度情報によるz方向の位置合わせを行って、断層画像Ga、Gbの3次元的な位置合わせを行うことが望ましい。   In addition, since the alignment by the above integrated image is the alignment in the xy direction, the alignment in the z direction by the depth information similar to the case of the alignment process using the position information is performed, and the tomographic images Ga, Gb It is desirable to perform the three-dimensional alignment.

〔位置合わせ結果の利用例〕
以上に説明した断層画像の位置合わせの結果は、眼底Efの経過観察において、次のように利用することができる。
[Use example of alignment result]
The result of the alignment of tomographic images described above can be used as follows in the follow-up observation of the fundus oculi Ef.

(第1の利用例)
まず、断層画像の位置合わせ結果を利用した画像の表示態様の一例について説明する。ここで、第1、第2の検査日時において、それぞれm枚の断層画像(つまり断層画像群)が取得されたものとする。第1の検査日時における断層画像群に属するm枚の断層画像を符号Ga1〜Gamで表し、第2の検査日時における断層画像群に属するm枚の断層画像を符号Gb1〜Gbmで表すことにする。なお、2つの断層画像群に属する断層画像群の枚数が異なっていても、以下と同様に処理することが可能である。
(First use example)
First, an example of an image display mode using the tomographic image alignment result will be described. Here, it is assumed that m pieces of tomographic images (that is, a group of tomographic images) have been acquired at the first and second examination dates and times. The m pieces of tomographic images belonging to the tomographic image group at the first examination date and time are represented by symbols Ga1 to Gam, and the m pieces of tomographic images belonging to the tomographic image group at the second examination date and time are represented by the symbols Gb1 to Gbm. . Even if the number of tomographic image groups belonging to the two tomographic image groups is different, the same processing as described below can be performed.

画像位置変更部236による処理は、第1の検査日時における断層画像Ga1〜Gamと、第2の検査日時における断層画像Gb1〜Gbmとの位置合わせを行うものである。ここで、隣接する断層画像の間隔が等しく設定されているものとする。つまり、各i=1〜m−1について、断層画像Gaiと断層画像Ga(i+1)との間隔をΔdaと表し、断層画像Gbiと断層画像Gb(i+1)との間隔をΔdbと表したときに、Δda=Δdbに設定されているとする。   The processing by the image position changing unit 236 performs alignment between the tomographic images Ga1 to Gam at the first examination date and time and the tomographic images Gb1 to Gbm at the second examination date and time. Here, it is assumed that the intervals between adjacent tomographic images are set equal. That is, for each i = 1 to m−1, the interval between the tomographic image Gai and the tomographic image Ga (i + 1) is expressed as Δda, and the interval between the tomographic image Gbi and the tomographic image Gb (i + 1) is expressed as Δdb. , Δda = Δdb is set.

このとき、断層画像Ga1〜Gamと断層画像Gb1〜Gbmは、画像位置変換部236により、各i=1〜mについて、断層画像Gaiと断層画像Gbiとの位置合わせが施される。   At this time, the tomographic images Ga1 to Gam and the tomographic images Gb1 to Gbm are subjected to alignment between the tomographic image Gai and the tomographic image Gbi for each i = 1 to m by the image position conversion unit 236.

主制御部211は、この位置合わせ結果を受けて、各i=1〜mについて、第1の検査日時の断層画像Gaiと第2の検査日時の断層画像Gbiとを関連付ける画像関連情報を生成するように作用する。生成された画像関連情報は、たとえば情報記憶部213に記憶される。   In response to this alignment result, the main control unit 211 generates, for each i = 1 to m, image-related information that associates the tomographic image Gai on the first examination date and time with the tomographic image Gbi on the second examination date and time. Acts as follows. The generated image related information is stored in the information storage unit 213, for example.

図11に示す表示部240Aの表示画面には、断層画像表示部240bに表示させる断層画像を切り替えるための図示しない表示画面切替部(ソフトキー等からなる)が表示される。この関連画像切替部の操作は、たとえば操作部のマウス206によるクリック操作とされる。   On the display screen of the display unit 240A shown in FIG. 11, a display screen switching unit (not shown) (including soft keys) for switching tomographic images to be displayed on the tomographic image display unit 240b is displayed. The operation of the related image switching unit is, for example, a click operation with the mouse 206 of the operation unit.

表示画面切替部には、第1の検査日時の断層画像Gai(又は第2の検査日時の断層画像Gbi)が表示されているときに、第1の検査日時の他の断層画像Gaj(又は第2の検査日時の他の断層画像Gbj;j≠i)に表示を切り替えるための同一検査画像切替部が設けられている。この同一検査画像切替部を操作すると、たとえば次の断層画像Ga(i+1)に表示が切り替わる。また、たとえば断層画像Ga1〜Gam(又は断層画像Gb1〜Gbm)のうちの所望のものを選択表示できるようになっていてもよい(具体的には、たとえば各断層画像のサムネイルを選択可能に表示する等の構成を適用できる。)。   When the tomographic image Gai of the first examination date and time (or the tomographic image Gbi of the second examination date and time) is displayed on the display screen switching unit, the other tomographic image Gaj (or the first tomographic image Gaj of the first examination date and time) is displayed. The same inspection image switching unit for switching the display to another tomographic image Gbj; j ≠ i) of the inspection date and time of 2 is provided. When the same inspection image switching unit is operated, for example, the display is switched to the next tomographic image Ga (i + 1). Further, for example, a desired one of the tomographic images Ga1 to Gam (or tomographic images Gb1 to Gbm) may be selected and displayed (specifically, for example, thumbnails of the tomographic images can be selected and displayed). It is possible to apply a configuration such as

更に、表示画面切替部には、表示されている断層画像に関連付けられた断層画像に表示を切り替えるための関連画像切替部が設けられている。すなわち、第1の検査日時の断層画像Gai(又は第2の検査日時の断層画像Gbi)が表示されているときに、関連画像切替部を操作すると、この断層画像Gaiに関連付けられた第2の検査日時の断層画像Gbi(又は、この断層画像Gbiに関連付けられた第1の検査日時の断層画像Gai)に表示が切り替えられる。   Furthermore, the display screen switching unit is provided with a related image switching unit for switching display to a tomographic image associated with the displayed tomographic image. That is, when the tomographic image Gai at the first examination date and time (or the tomographic image Gbi at the second examination date and time) is displayed, if the related image switching unit is operated, the second image associated with the tomographic image Gai is displayed. The display is switched to the tomographic image Gbi at the examination date and time (or the tomographic image Gai at the first examination date and time associated with the tomographic image Gbi).

ユーザは、同一検査画像切替部を操作することにより、所望の断面の断層画像Gai(又は断層画像Gbi)を表示させることができる。更に、関連画像切替部を操作することにより、この断層画像Gai(又は断層画像Gbi)に関連付けられた断層画像Gbi(又は断層画像Gai)を表示させることができる。また、関連画像切替部を再度操作することにより、断層画像Gaiを再度表示させることができる。このようにして表示画像を切り替えることにより、ほぼ同じ断面位置における断層画像Gaiと断層画像Gbiとを交互に表示させることができるので、その断面位置の状態(たとえば網膜の厚さ)の時間的な変化を容易に比較することができる。   The user can display a tomographic image Gai (or tomographic image Gbi) of a desired cross section by operating the same examination image switching unit. Furthermore, the tomographic image Gbi (or tomographic image Gai) associated with the tomographic image Gai (or tomographic image Gbi) can be displayed by operating the related image switching unit. Further, the tomographic image Gai can be displayed again by operating the related image switching unit again. By switching the display image in this way, the tomographic image Gai and the tomographic image Gbi at substantially the same cross-sectional position can be alternately displayed, so that the state of the cross-sectional position (for example, the thickness of the retina) is temporally changed. Changes can be easily compared.

この表示態様の変形として、複数の断層画像表示部240bを並べて表示させ、その一つに断層画像Gaiを表示させるとともに、他の一つに断層画像Gbiを表示させるように構成することも可能である。更に、同一検査画像切替部によって一方の断層画像表示部240bに表示された断層画像が切り替えられたことに対応して、当該断層画像に関連付けられた断層画像を他方の断層画像表示部240bに表示させるように構成することもできる。   As a modification of this display mode, a plurality of tomographic image display units 240b can be displayed side by side, one of which can display the tomographic image Gai, and the other can be configured to display the tomographic image Gbi. is there. Further, in response to the switching of the tomographic image displayed on one tomographic image display unit 240b by the same examination image switching unit, the tomographic image associated with the tomographic image is displayed on the other tomographic image display unit 240b. It is also possible to configure it.

(第2の利用例)
次に、断層画像の位置合わせ結果を利用した画像解析処理の一例について説明する。経過観察では、眼底の状態に関する様々な指標を解析することがある。この指標の一例として、たとえば網膜の厚さがある。網膜の厚さは、たとえば、断層画像における網膜表面のz座標値と網膜色素上皮層のz座標値とを差を演算することにより得られる。
(Second usage example)
Next, an example of image analysis processing using the alignment result of tomographic images will be described. In the follow-up observation, various indices related to the state of the fundus may be analyzed. An example of this index is the thickness of the retina. The thickness of the retina is obtained, for example, by calculating the difference between the z coordinate value of the retina surface and the z coordinate value of the retinal pigment epithelium layer in the tomographic image.

各i=1〜mについて、第1の検査日時の断層画像Gaiと第2の検査日時の断層画像Gbiとが関連付けられているとする。このとき、主制御部211は、各断層画像Gaiに基づいて当該断面位置における網膜の厚さを演算するとともに、各断層画像Gbiに基づいて当該断面位置における網膜の厚さを演算する。   Assume that for each i = 1 to m, a tomographic image Gai on the first examination date and time and a tomographic image Gbi on the second examination date and time are associated with each other. At this time, the main control unit 211 calculates the thickness of the retina at the cross-sectional position based on each tomographic image Gai, and calculates the thickness of the retina at the cross-sectional position based on each tomographic image Gbi.

更に、主制御部211は、各断面位置について(すなわち各i=1〜mについて)、断層画像Gaiに基づく網膜の厚さと、断層画像Gbiに基づく網膜の厚さとの差を演算する。それにより、各断面位置ごとの網膜の厚さの時間的な変化の分布が得られる。主制御部211は、得られた分布をたとえばグラデーションで表現した画像(分布画像)を、表示部240bに表示させることができる。ユーザは、この分布画像を見ることにより、眼底Efにおける網膜の厚さの時間的変化の分布状態を容易に把握することができる。   Further, the main controller 211 calculates the difference between the thickness of the retina based on the tomographic image Gai and the thickness of the retina based on the tomographic image Gbi for each cross-sectional position (that is, for each i = 1 to m). Thereby, a distribution of temporal changes in the thickness of the retina for each cross-sectional position is obtained. The main control unit 211 can cause the display unit 240b to display an image (distribution image) in which the obtained distribution is expressed in gradation, for example. The user can easily grasp the distribution state of the temporal change in the thickness of the retina in the fundus oculi Ef by viewing this distribution image.

[作用・効果]
以上のような眼底観察装置1の作用及び効果について説明する。この眼底観察装置1は、第1の検査日時に取得された眼底画像212a及び断層画像Gaについて、眼底画像212aにおける断層画像Gaの位置を示す位置情報213aを生成するとともに、第2の検査日時に取得された眼底画像212b及び断層画像Gbについて、その眼底画像212bにおける断層画像Gbの位置を示す位置情報213bとを生成する。そして、この位置情報213a、213bに基づいて、第1の検査日時の断層画像Gaと第2の検査日時の断層画像Gbとの位置合わせを行うように作用する。
[Action / Effect]
The operation and effect of the fundus oculi observation device 1 as described above will be described. The fundus oculi observation device 1 generates position information 213a indicating the position of the tomographic image Ga in the fundus image 212a for the fundus image 212a and the tomographic image Ga acquired at the first examination date and time, and at the second examination date and time. For the acquired fundus image 212b and tomographic image Gb, position information 213b indicating the position of the tomographic image Gb in the fundus image 212b is generated. Based on the position information 213a and 213b, the tomographic image Ga at the first examination date and time and the tomographic image Gb at the second examination date and time are aligned.

より具体的には、眼底観察装置1は、位置情報213a、213bに含まれる走査領域情報や固視位置情報を用いて、眼底Efの表面方向(xy方向)における断層画像Ga、Gbの位置合わせを行うように作用する。また、各断層画像Ga、Gbの積算画像の位置合わせ結果に基づいてxy方向の位置合わせを行うこともできる。更に、位置情報213a、213bに含まれる深度情報を用いて、眼底Efの深度方向(z方向)における断層画像Ga、Gbの位置合わせを行うように作用する。このような位置合わせ処理を組み合わせることにより、3次元的な位置合わせを行うことができる。   More specifically, the fundus oculi observation device 1 uses the scanning area information and fixation position information included in the position information 213a and 213b to align the tomographic images Ga and Gb in the surface direction (xy direction) of the fundus oculi Ef. Act to do. Further, the alignment in the xy directions can be performed based on the alignment result of the accumulated images of the tomographic images Ga and Gb. Further, the depth information included in the position information 213a and 213b is used to perform alignment of the tomographic images Ga and Gb in the depth direction (z direction) of the fundus oculi Ef. By combining such alignment processing, three-dimensional alignment can be performed.

また、第1の検査日時の眼底画像212aと第2の検査日時の眼底画像212bとの位置合わせを行い、その結果に基づいて断層画像Ga、Gbのxy方向の詳細な位置合わせを行うように作用する。   Also, the fundus image 212a at the first examination date and time and the fundus image 212b at the second examination date and time are aligned, and based on the result, detailed alignment in the xy directions of the tomographic images Ga and Gb is performed. Works.

このように、本実施形態に係る眼底観察装置1によれば、検査日時の異なる眼底Efの断層画像Ga、Gbの位置合わせを好適に行うことができるので、眼底Efの断層画像を用いた経過観察を有効にかつ効率的に行うことが可能になる。   As described above, according to the fundus oculi observation device 1 according to the present embodiment, the tomographic images Ga and Gb of the fundus oculi Ef having different examination dates and times can be suitably aligned, so that the process using the tomographic image of the fundus oculi Ef is performed. Observation can be performed effectively and efficiently.

[変形例]
以上に詳述した構成は、本発明に係る眼底観察装置を好適に実施するための一例に過ぎないものである。したがって、本発明の要旨の範囲内における任意の変形を適宜に施すことが可能である。以下、このような変形例のいくつかを説明する。
[Modification]
The configuration detailed above is merely an example for favorably implementing the fundus oculi observation device according to the present invention. Therefore, arbitrary modifications within the scope of the present invention can be appropriately made. Hereinafter, some of such modifications will be described.

上記の実施形態に係る眼底観察装置1は、走査領域情報、固視位置情報、深度情報及び積算画像のそれぞれに基づいて、眼底の断層画像の位置合わせを行えるように構成されているが、本発明に係るこれら4つのうちの1つ以上に基づいて位置合わせを行えるように構成されていれば十分である。   The fundus oculi observation device 1 according to the above embodiment is configured to perform alignment of the fundus tomographic image based on each of the scanning region information, fixation position information, depth information, and integrated image. It is sufficient if it is configured to perform alignment based on one or more of these four according to the invention.

特に、眼底の表面方向xy方向における位置合わせについては、走査領域情報、固視位置情報及び積算画像のうちのいずれか1つに基づいて行うようになっていれば十分である。なお、積算画像のみに基づいて位置合わせを行う場合には、光画像計測装置(OCT装置)としての構成のみを備えていれば十分である。   In particular, it is sufficient that the alignment in the surface direction xy direction of the fundus is performed based on any one of the scanning area information, the fixation position information, and the integrated image. In addition, when performing alignment based only on the integrated image, it is sufficient to have only a configuration as an optical image measurement device (OCT device).

眼底の断層画像の位置合わせは、走査領域情報、固視位置情報又は積算画像に基づくxy方向の位置合わせと、深度情報に基づくz方向の位置合わせとを組み合わせてx方向、y方向、z方向の3次元的な位置合わせを行うことにより、位置合わせの精度を高めることが望ましい。   The alignment of the tomographic image of the fundus is performed by combining the alignment in the xy direction based on the scanning area information, the fixation position information or the integrated image and the alignment in the z direction based on the depth information. It is desirable to improve the alignment accuracy by performing the three-dimensional alignment.

上記の実施形態では、既に取得した2つの断層画像の位置合わせ処理について説明したが、過去の検査と(ほぼ)同じ部位の断層画像を取得するために上記実施形態の構成を適用することも可能である。そのために、たとえば、過去の検査における固視位置情報に基づいて、過去の検査と同じ位置に内部固視標を表示させるようにLCD140を制御し、被検眼を過去の検査と同じ方向に固視させる。更に、現在の眼底画像を表示させるとともに、過去の検査における走査領域情報に基づく走査領域を示す画像を当該眼底画像に重畳して表示させる。このとき、過去の検査における眼底画像と現在の眼底画像との変位を演算し(たとえば相関が最も高くなるように位置合わせするときの変位を演算する。)、この変位に応じて移動させた位置に過去の検査の走査領域を表示させる。この表示された走査領域の位置を今回の検査における信号光LSの走査領域として指定する。それにより、過去の検査と同じ走査領域を指定することができる。なお、眼底画像や走査領域は、必ずしも表示させる必要はない。   In the above-described embodiment, the alignment processing of two acquired tomographic images has been described. However, the configuration of the above-described embodiment can also be applied to acquire a tomographic image of (substantially) the same part as a past examination. It is. Therefore, for example, based on the fixation position information in the past examination, the LCD 140 is controlled to display the internal fixation target at the same position as the past examination, and the eye to be examined is fixed in the same direction as the past examination. Let Further, the current fundus image is displayed, and an image indicating a scanning area based on the scanning area information in the past examination is displayed superimposed on the fundus image. At this time, the displacement between the fundus image in the past examination and the current fundus image is calculated (for example, the displacement when aligning so that the correlation is the highest is calculated), and the position moved according to this displacement To display the scanning area of the past examination. The position of the displayed scanning area is designated as the scanning area of the signal light LS in the current examination. Thereby, it is possible to designate the same scanning area as in the past inspection. Note that the fundus image and the scanning region are not necessarily displayed.

本発明に係る眼底観察装置は、眼底表面の2次元画像の形成する装置として眼底カメラ(ユニット)を有しているが、たとえばスリットランプ(細隙灯顕微鏡装置)などの任意の眼科装置を用いて眼底表面の2次元画像を形成するように構成することも可能である。   The fundus oculi observation device according to the present invention has a fundus camera (unit) as a device for forming a two-dimensional image of the fundus surface. For example, any ophthalmologic device such as a slit lamp (slit lamp microscope device) is used. It is also possible to form a two-dimensional image of the fundus surface.

また、上記の実施形態では、画像形成部220(画像形成ボード208)によって眼底Efの表面の2次元画像や断層画像の形成処理を行うとともに、制御部210(マイクロプロセッサ201等)によって各種制御処理を行うようになっているが、これら双方の処理を1台若しくは複数台のコンピュータによって行うように構成することができる。   In the above-described embodiment, the image forming unit 220 (image forming board 208) performs two-dimensional image and tomographic image formation processing on the surface of the fundus oculi Ef, and the control unit 210 (microprocessor 201 or the like) performs various control processes. However, both of these processes can be performed by one or a plurality of computers.

1 眼底観察装置
1A 眼底カメラユニット
3a 操作パネル
301 メニュースイッチ
302 スプリットスイッチ
303 撮影光量スイッチ
304 観察光量スイッチ
305 顎受けスイッチ
306 撮影スイッチ
307 ズームスイッチ
308 画像切替スイッチ
309 固視標切替スイッチ
310 固視標位置調整スイッチ
311 固視標サイズ切替スイッチ
312 モード切替ノブ
8c 装着部
10、12 撮像装置
100 照明光学系
101 観察光源
103 撮影光源
120 撮影光学系
134、136 ダイクロイックミラー
140 LCD
141 走査ユニット
141A、141B ガルバノミラー
142 レンズ
150 OCTユニット
151 コネクタ部
152 接続線
152a、161、163、164、165 光ファイバ
160 低コヒーレンス光源
162 光カプラ
174 参照ミラー
180 スペクトロメータ
184 CCD
200 演算制御装置
201 マイクロプロセッサ
208 画像形成ボード
208a 眼底画像形成ボード
208b OCT画像形成ボード
210 制御部
211 主制御部
212 画像記憶部
212a、212b 眼底画像(の画像データ)
213 情報記憶部
213a、213b 位置情報
214 位置情報生成部
220 画像形成部
230 画像処理部
231 走査領域変位演算部
232 固視位置変位演算部
233 深度位置変位演算部
234 積算画像生成部
235 積算画像変位演算部
236 画像位置変更部
240 ユーザインターフェイス
240A 表示部
240a 眼底画像表示部
240b 断層画像表示部
240B 操作部
241、242 ミラー駆動機構
243 参照ミラー駆動機構
L0 低コヒーレンス光
LR 参照光
LS 信号光
LC 干渉光
R、R′ 走査領域
R1〜Rm 走査線
Rij(i=1〜m、j=1〜n) 走査点
G、G1〜Gm、Ga、Gb 断層画像(の画像データ)
Gij(i=1〜m、j=1〜n) 深度方向の画像
E 被検眼
Ef 眼底
Ef′ 眼底画像(眼底の表面の2次元画像)
F、F′ 固視位置
1 fundus observation apparatus 1A fundus camera unit 3a operation panel 301 menu switch 302 split switch 303 photographing light amount switch 304 observation light amount switch 305 chin rest switch 306 photographing switch 307 zoom switch 308 image changeover switch 309 fixation target changeover switch 310 fixation target position Adjustment switch 311 Fixation target size switching switch 312 Mode switching knob 8c Mounting unit 10, 12 Imaging device 100 Illumination optical system 101 Observation light source 103 Imaging light source 120 Imaging optical system 134, 136 Dichroic mirror 140 LCD
141 Scan unit 141A, 141B Galvano mirror 142 Lens 150 OCT unit 151 Connector part 152 Connection line 152a, 161, 163, 164, 165 Optical fiber 160 Low coherence light source 162 Optical coupler 174 Reference mirror 180 Spectrometer 184 CCD
200 Arithmetic Control Device 201 Microprocessor 208 Image Forming Board 208a Fundus Image Forming Board 208b OCT Image Forming Board 210 Control Unit 211 Main Control Unit 212 Image Storage Units 212a and 212b Fundus Image (Image Data)
213 Information storage unit 213a, 213b Position information 214 Position information generation unit 220 Image forming unit 230 Image processing unit 231 Scanning region displacement calculation unit 232 Fixation position displacement calculation unit 233 Depth position displacement calculation unit 234 Integrated image generation unit 235 Integrated image displacement Calculation unit 236 Image position changing unit 240 User interface 240A Display unit 240a Fundus image display unit 240b Tomographic image display unit 240B Operation units 241 and 242 Mirror drive mechanism 243 Reference mirror drive mechanism L0 Low coherence light LR Reference light LS Signal light LC Interference light R, R 'scanning regions R1-Rm scanning lines Rij (i = 1-m, j = 1-n) scanning points G, G1-Gm, Ga, Gb tomographic image (image data thereof)
Gij (i = 1 to m, j = 1 to n) Image E in the depth direction Eye Ef Examination fundus Ef ′ Fundus image (two-dimensional image of the surface of the fundus)
F, F 'fixation position

Claims (2)

被検眼の眼底を経由した信号光と参照光との干渉光を検出し、その検出結果に基づいて前記眼底の深度方向の断層画像を形成する画像形成手段と、
該形成された断層画像に基づいて、当該断層画像の前記深度方向における位置を示す深度情報を生成する位置情報生成手段と、
先に形成された前記断層画像について生成された前記深度情報と、その後に形成された前記断層画像について生成された前記深度情報とに基づいて、前記先の断層画像と前記後の断層画像との前記深度方向における位置合わせを行う画像処理手段と、
を備える、
ことを特徴とする眼底観察装置。
Image forming means for detecting interference light between the signal light and the reference light via the fundus of the eye to be examined, and forming a tomographic image in the depth direction of the fundus based on the detection result;
Position information generating means for generating depth information indicating the position of the tomographic image in the depth direction based on the formed tomographic image;
Based on the depth information generated for the tomographic image formed earlier and the depth information generated for the tomographic image formed thereafter, the previous tomographic image and the subsequent tomographic image Image processing means for performing alignment in the depth direction;
Comprising
A fundus oculi observation device characterized by that.
前記深度情報は、前記画像形成手段により形成された断層画像における眼底の所定の層の位置を、前記断層画像上にあらかじめ設定された座標にて表現した情報を含み、
前記画像処理手段は、前記先の断層画像に対応する前記座標と、前記後の断層画像に対応する座標とを一致させるようにして、前記先の断層画像と前記後の断層画像との前記深度方向における位置合わせを行う、
ことを特徴とする請求項1に記載の眼底観察装置。
The depth information includes information expressing the position of a predetermined layer of the fundus in the tomographic image formed by the image forming unit, using coordinates set in advance on the tomographic image,
The image processing means matches the coordinates corresponding to the previous tomographic image with the coordinates corresponding to the subsequent tomographic image, so that the depths of the previous tomographic image and the subsequent tomographic image are the same. Align in the direction,
The fundus oculi observation device according to claim 1.
JP2011232411A 2011-10-24 2011-10-24 Fundus observation device Active JP5367047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011232411A JP5367047B2 (en) 2011-10-24 2011-10-24 Fundus observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011232411A JP5367047B2 (en) 2011-10-24 2011-10-24 Fundus observation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006082121A Division JP4869756B2 (en) 2006-03-24 2006-03-24 Fundus observation device

Publications (2)

Publication Number Publication Date
JP2012016620A true JP2012016620A (en) 2012-01-26
JP5367047B2 JP5367047B2 (en) 2013-12-11

Family

ID=45602275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011232411A Active JP5367047B2 (en) 2011-10-24 2011-10-24 Fundus observation device

Country Status (1)

Country Link
JP (1) JP5367047B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187146A1 (en) * 2012-06-11 2013-12-19 株式会社トプコン Ophthalmologic photographing device and ophthalmologic image processing device
JP2015029559A (en) * 2013-07-31 2015-02-16 キヤノン株式会社 Imaging apparatus and imaging method
WO2015064531A1 (en) * 2013-10-29 2015-05-07 株式会社ニデック Fundus analysis device and fundus analysis program
JP2016104306A (en) * 2016-03-02 2016-06-09 株式会社トプコン Ophthalmological imaging device
US9420951B2 (en) 2012-12-28 2016-08-23 Canon Kabushiki Kaisha Image processing apparatus and method of controlling same
JP2017104343A (en) * 2015-12-10 2017-06-15 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2019171220A (en) * 2019-07-23 2019-10-10 株式会社トプコン Ophthalmological photographing apparatus
CN111164373A (en) * 2017-06-30 2020-05-15 锐珂牙科技术顶阔有限公司 Surface mapping using an intraoral scanner with penetration capability
JP2020124569A (en) * 2020-04-28 2020-08-20 キヤノン株式会社 Image processing apparatus, image processing method and program
WO2022030201A1 (en) * 2020-08-03 2022-02-10 コニカミノルタ株式会社 Photometer

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765146A (en) * 1993-08-24 1995-03-10 Toshiba Corp Ultrasonic diagnostic system
JP2003000543A (en) * 2001-06-11 2003-01-07 Carl Zeiss Jena Gmbh Instrument for measuring coherence topographic raytracing of eye
JP2003180635A (en) * 2001-12-19 2003-07-02 Topcon Corp Fundus camera
JP2004350849A (en) * 2003-05-28 2004-12-16 Topcon Corp Fundus camera
JP2005241464A (en) * 2004-02-26 2005-09-08 Topcon Corp Optical image measuring instrument
JP2005291752A (en) * 2004-03-31 2005-10-20 Topcon Corp Optical image measuring instrument
JP2007130403A (en) * 2005-10-12 2007-05-31 Topcon Corp Optical image measuring device, optical image measuring program, fundus observation device, and fundus observation program
JP2007202952A (en) * 2006-02-06 2007-08-16 Nidek Co Ltd Retinal function measuring apparatus
JP2011098221A (en) * 2011-02-08 2011-05-19 Nidek Co Ltd Ocular fundus image processing apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765146A (en) * 1993-08-24 1995-03-10 Toshiba Corp Ultrasonic diagnostic system
JP2003000543A (en) * 2001-06-11 2003-01-07 Carl Zeiss Jena Gmbh Instrument for measuring coherence topographic raytracing of eye
JP2003180635A (en) * 2001-12-19 2003-07-02 Topcon Corp Fundus camera
JP2004350849A (en) * 2003-05-28 2004-12-16 Topcon Corp Fundus camera
JP2005241464A (en) * 2004-02-26 2005-09-08 Topcon Corp Optical image measuring instrument
JP2005291752A (en) * 2004-03-31 2005-10-20 Topcon Corp Optical image measuring instrument
JP2007130403A (en) * 2005-10-12 2007-05-31 Topcon Corp Optical image measuring device, optical image measuring program, fundus observation device, and fundus observation program
JP2007202952A (en) * 2006-02-06 2007-08-16 Nidek Co Ltd Retinal function measuring apparatus
JP2011098221A (en) * 2011-02-08 2011-05-19 Nidek Co Ltd Ocular fundus image processing apparatus

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187146A1 (en) * 2012-06-11 2013-12-19 株式会社トプコン Ophthalmologic photographing device and ophthalmologic image processing device
JP2013255533A (en) * 2012-06-11 2013-12-26 Topcon Corp Ophthalmologic photographing apparatus and ophthalmologic image processor
US9486134B2 (en) 2012-06-11 2016-11-08 Kabushiki Kaisha Topcon Ophthalmologic imaging apparatus and ophthalmologic image processing apparatus
US9420951B2 (en) 2012-12-28 2016-08-23 Canon Kabushiki Kaisha Image processing apparatus and method of controlling same
JP2015029559A (en) * 2013-07-31 2015-02-16 キヤノン株式会社 Imaging apparatus and imaging method
WO2015064531A1 (en) * 2013-10-29 2015-05-07 株式会社ニデック Fundus analysis device and fundus analysis program
JP2015084865A (en) * 2013-10-29 2015-05-07 株式会社ニデック Fundus analyzer and fundus analysis program
US10251551B2 (en) 2013-10-29 2019-04-09 Nidek Co., Ltd. Fundus analysis device and fundus analysis program
JP2017104343A (en) * 2015-12-10 2017-06-15 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2016104306A (en) * 2016-03-02 2016-06-09 株式会社トプコン Ophthalmological imaging device
CN111164373A (en) * 2017-06-30 2020-05-15 锐珂牙科技术顶阔有限公司 Surface mapping using an intraoral scanner with penetration capability
JP2020525783A (en) * 2017-06-30 2020-08-27 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド Surface mapping using an intraoral scanner with penetrating function
CN111164373B (en) * 2017-06-30 2022-10-28 登塔尔图像科技公司 Surface mapping using an intraoral scanner with penetration capability
JP7245794B2 (en) 2017-06-30 2023-03-24 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド Surface mapping using intraoral scanner with penetrating function
JP2019171220A (en) * 2019-07-23 2019-10-10 株式会社トプコン Ophthalmological photographing apparatus
JP2020124569A (en) * 2020-04-28 2020-08-20 キヤノン株式会社 Image processing apparatus, image processing method and program
WO2022030201A1 (en) * 2020-08-03 2022-02-10 コニカミノルタ株式会社 Photometer

Also Published As

Publication number Publication date
JP5367047B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP4869756B2 (en) Fundus observation device
JP4864515B2 (en) Fundus observation device
JP5523658B2 (en) Optical image measuring device
JP4855150B2 (en) Fundus observation apparatus, ophthalmic image processing apparatus, and ophthalmic image processing program
JP5061380B2 (en) Fundus observation apparatus, ophthalmologic image display apparatus, and program
JP4969925B2 (en) Fundus observation device
JP4864516B2 (en) Ophthalmic equipment
JP4971864B2 (en) Optical image measuring device and program for controlling the same
JP5007114B2 (en) Fundus observation apparatus, fundus image display apparatus, and program
JP5095167B2 (en) Fundus observation apparatus, fundus image display apparatus, and fundus observation program
JP5058627B2 (en) Fundus observation device
JP4823693B2 (en) Optical image measuring device
JP5085086B2 (en) Fundus observation apparatus, fundus image display apparatus, and program
JP4884777B2 (en) Fundus observation device
JP5367047B2 (en) Fundus observation device
JP4971863B2 (en) Optical image measuring device
JP4996917B2 (en) Optical image measurement device and program for controlling optical image measurement device
JP4916779B2 (en) Fundus observation device
JP4921201B2 (en) Optical image measurement device and program for controlling optical image measurement device
JP4890878B2 (en) Fundus observation device
JP2007181631A (en) Fundus observation system
JP2008289642A (en) Optical image measuring apparatus
JP2008054773A (en) Eye movement measuring apparatus, eye movement measuring method and eye movement measuring program
JP2008246158A (en) Optical image measurement instrument, program controlling it, and optical image measurement method
JP2007181632A (en) Fundus observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130910

R150 Certificate of patent or registration of utility model

Ref document number: 5367047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250