JP2012249715A - Fundus photographing apparatus - Google Patents

Fundus photographing apparatus Download PDF

Info

Publication number
JP2012249715A
JP2012249715A JP2011122903A JP2011122903A JP2012249715A JP 2012249715 A JP2012249715 A JP 2012249715A JP 2011122903 A JP2011122903 A JP 2011122903A JP 2011122903 A JP2011122903 A JP 2011122903A JP 2012249715 A JP2012249715 A JP 2012249715A
Authority
JP
Japan
Prior art keywords
image
acquired
fundus
observation
addition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011122903A
Other languages
Japanese (ja)
Other versions
JP5948739B2 (en
JP2012249715A5 (en
Inventor
Yukihiro Higuchi
幸弘 樋口
Norimasa Satake
倫全 佐竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2011122903A priority Critical patent/JP5948739B2/en
Publication of JP2012249715A publication Critical patent/JP2012249715A/en
Publication of JP2012249715A5 publication Critical patent/JP2012249715A5/ja
Application granted granted Critical
Publication of JP5948739B2 publication Critical patent/JP5948739B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire a clear eye-fundus image concerning a fundus photographing apparatus for photographing the tomographic image of a subject eye.SOLUTION: The fundus photographing apparatus includes: an optical coherence tomography device that has an optical scanner for two-dimensionally scanning light emitted from a measurement light source on the fundus of the subject eye and a detector for detecting an interference state between measurement light emitted from the measurement light source and reference light, processes an output signal from the detector, and acquires the tomographic image or frontal view of the fundus of the subject eye as an observation image; a compound image processing means for acquiring a compound image by allowing multiple observation images acquired in time sequence to be processed by compounding with an observation image to be newly acquired by the coherence tomography device; and a display control means for updating the compound image being displayed on a monitor in accordance with the acquisition of the new compound image by the compound image processing means in order to display the compound image on the monitor as a moving image.

Description

被検眼の断層像を撮影する眼底撮影装置に関する。   The present invention relates to a fundus photographing apparatus for photographing a tomographic image of an eye to be examined.

光走査部(例えば、ガルバノミラー)を用いて眼底上で測定光を走査し、眼底像を得る眼底撮影装置として、眼底断層像撮影装置(例えば、光干渉断層計(Optical Coherence Tomography:OCT))や眼底正面像撮影装置(例えば、走査型検眼装置(Scanning Laser Opthalmoscope:SLO))などが知られている(特許文献1参照)。   A fundus tomography device (for example, optical coherence tomography (OCT)) is used as a fundus imaging device that scans measurement light on the fundus using an optical scanning unit (for example, a galvanomirror) to obtain a fundus image. And a fundus front image capturing apparatus (for example, a scanning laser opthalmoscope (SLO)) are known (see Patent Document 1).

そして、これらの装置は、取得した眼底断層像や眼底正面像をモニタ上で、観察することによって、病変部の観察や眼底像に対するアライメントを行っている。例えば、眼底断層像撮影装置においては、測定光束を二次元的に走査させ、XY各点について受光素子からの干渉信号のスペクトル強度を積算することにより、正面像を得る(特許文献2参照)。   These apparatuses observe the acquired fundus tomographic image and fundus front image on the monitor, thereby observing the lesion and aligning the fundus image. For example, in a fundus tomography apparatus, a front image is obtained by scanning a measurement light beam two-dimensionally and integrating the spectral intensity of an interference signal from a light receiving element for each XY point (see Patent Document 2).

特開2008−29467号公報JP 2008-29467 A 米国特許登録第7301644号明細書US Patent Registration No. 7301644

従来、眼底上で測定光を走査し、眼底像を得る眼底撮影装置において、白内障等の被検眼に対しては、眼底からの戻り光が少なく、干渉信号のS/N比が十分取れないため、明瞭な眼底画像を取得することが困難であった。   Conventionally, in a fundus photographing apparatus that scans measurement light on the fundus and obtains a fundus image, there is little return light from the fundus for a subject eye such as a cataract, and the S / N ratio of an interference signal cannot be sufficiently obtained. It was difficult to obtain a clear fundus image.

例えば、前述の装置のように、スペクトル干渉信号に基づいて正面像を得る場合、正面像化を行うための時間がかかるため、正面像の画像形成に用いるXYの各点(ポイント数)を少なくすることにより、正面像取得時間の軽減を行っている。しかしながら、ポイント数を少なくすることによって、感度と分解能が低下するため、形成される正面像の画質が低下し、明瞭な眼底画像を取得することが困難であった。このため、取得した眼底画像によって、病変部の観察や眼底像に対するアライメントを行ったり、所望する眼底部位の断層像を得ることは、困難であった。   For example, when the front image is obtained based on the spectrum interference signal as in the above-described apparatus, it takes time to perform the front image formation. Therefore, each XY point (number of points) used for image formation of the front image is reduced. By doing so, the front image acquisition time is reduced. However, by reducing the number of points, the sensitivity and resolution are lowered, so that the image quality of the formed front image is lowered and it is difficult to obtain a clear fundus image. For this reason, it is difficult to observe the lesioned part, align the fundus image, or obtain a desired tomographic image of the fundus site using the acquired fundus image.

上記従来技術の問題点に鑑み、明瞭な眼底画像を取得することができる眼底撮影装置を提供することを技術課題とする。   In view of the above-described problems of the prior art, it is an object of the present invention to provide a fundus imaging apparatus capable of acquiring a clear fundus image.

上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present invention is characterized by having the following configuration.

(1) 測定光源から発せられた光を被検眼眼底上で二次元的に走査する光スキャナと、測定光源から発せられた測定光と参照光との干渉状態を検出する検出器と、を有し、検出器からの出力信号を処理して被検眼眼底の断層像又は正面像を観察画像として取得する光コヒーレンストモグラフィーデバイスと、時系列に取得された複数の観察画像と、前記コヒーレンストモグラフィーデバイスによって新たに取得される観察画像とを複合処理させることによって複合画像を取得する複合画像処理手段と、複合画像を動画像としてモニタに表示するため、前記複合画像処理手段によって新たに複合画像が取得されるのに応じて、モニタ上に表示された複合画像を更新する表示制御手段と、を備えることを特徴とする。
(2) 前記複合画像形成手段は、時系列に取得された複数の観察画像と、前記コヒーレンストモグラフィーデバイスによって新たに取得される観察画像とを加算平均処理することにより加算平均画像を取得する加算平均処理手段であって、前記表示制御手段は、加算平均画像を動画像としてモニタに表示するため、前記加算平均処理手段によって新たに加算平均画像が取得されるのに応じて、モニタ上に表示された加算平均画像を更新することを特徴とする(1)の眼底撮影装置。
(3) 前記時系列に取得された複数の観察画像は、正面画像であって、前記コヒーレンストモグラフィーデバイスによって時系列に取得された複数の観察画像を記憶する記憶手段を備え、前記加算平均処理手段は、前記記憶手段に記憶された複数の観察画像が所定枚数に達した場合に、過去に取得された観察画像を消去し、新たに取得された正面像と入れ換えを行い、前記加算処理手段は、該記憶手段に記憶された複数の観察画像を加算平均処理することを特徴とする(1)〜(2)のいずれかの眼底撮影装置。
(4) 前記加算平均処理手段は、新たに取得された観察画像と,時系列に取得された複数の観察画像との加算平均処理の適否を判定処理し、前記表示制御手段は、適正と判定された場合、加算平均処理手段によって取得された該観察画像を含む加算平均画像をモニタ上に表示させ、適正でないと判定された場合、新たに取得された観察画像をモニタ上に表示する(1)〜(3)のいずれかの眼底撮影装置。
(5) 前記加算平均処理手段は、新たに取得された観察画像を判定処理し、該記憶手段に前記観察画像を記憶させるか否かを判定する(1)〜(4)の眼底撮影装置。
(6) 前記加算平均処理手段は、前記コヒーレンストモグラフィーデバイスによって取得された観察画像において、加算平均処理の基準となる基準画像を設定し、該基準画像と複数の観察画像とのずれを画像処理により検出し、ずれ検出結果に基づいて、加算処理の適否を判定処理すると共に、基準画像と複数の観察画像とのずれを補正する(1)〜(5)の眼底撮影装置。
(1) An optical scanner that two-dimensionally scans light emitted from the measurement light source on the fundus of the eye to be examined, and a detector that detects an interference state between the measurement light emitted from the measurement light source and the reference light. An optical coherence tomography device that processes an output signal from the detector to obtain a tomographic image or a front image of the fundus of the eye to be examined as an observation image, a plurality of observation images acquired in time series, and the coherence tomography device. A composite image processing unit that acquires a composite image by performing composite processing with a newly acquired observation image, and a composite image is newly acquired by the composite image processing unit in order to display the composite image on a monitor as a moving image. Display control means for updating the composite image displayed on the monitor in response to the display.
(2) The composite image forming unit obtains an addition average image by performing an averaging process on the plurality of observation images acquired in time series and the observation image newly acquired by the coherence tomography device. The display control means displays the addition average image on the monitor as a moving image, so that the display control means displays the addition average image on the monitor in response to a new acquisition average image being acquired by the addition average processing means. The fundus imaging apparatus according to (1), wherein the addition average image is updated.
(3) The plurality of observation images acquired in time series is a front image, and includes storage means for storing a plurality of observation images acquired in time series by the coherence tomography device, and the addition averaging processing means When a plurality of observation images stored in the storage means reaches a predetermined number, the observation images acquired in the past are erased and replaced with newly acquired front images, and the addition processing means The fundus imaging apparatus according to any one of (1) to (2), wherein a plurality of observation images stored in the storage means are added and averaged.
(4) The addition average processing means determines whether or not the addition average processing of the newly acquired observation image and the plurality of observation images acquired in time series is appropriate, and the display control means determines that it is appropriate. If it is determined, the addition average image including the observation image acquired by the addition average processing means is displayed on the monitor, and if it is determined that it is not appropriate, the newly acquired observation image is displayed on the monitor (1). ) To (3).
(5) The fundus imaging apparatus according to any one of (1) to (4), wherein the addition average processing unit performs a determination process on a newly acquired observation image and determines whether or not the observation image is stored in the storage unit.
(6) The addition average processing means sets a reference image serving as a reference for the addition average processing in the observation image acquired by the coherence tomography device, and detects a difference between the reference image and the plurality of observation images by image processing. The fundus imaging apparatus according to any one of (1) to (5), wherein the fundus photographing apparatus detects and corrects the shift between the reference image and the plurality of observation images while determining whether or not the addition process is appropriate based on the shift detection result.

本発明によれば、明瞭な眼底画像を取得することができる。   According to the present invention, a clear fundus image can be acquired.

本発明の実施形態を図面に基づいて説明する。図1は、本実施形態に係る眼底撮影装置の光学系及び制御系を示す図である。なお、以下の説明においては、眼底撮影装置の一つである眼底撮影用光干渉断層計を例にとって説明する。また、本実施形態においては、被検眼の奥行き方向をZ方向(光軸L1方向)、奥行き方向に垂直な平面上の水平方向成分をX方向、鉛直方向成分をY方向として説明する。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an optical system and a control system of the fundus imaging apparatus according to the present embodiment. In the following description, a fundus imaging optical coherence tomography, which is one of the fundus imaging apparatuses, will be described as an example. In this embodiment, the depth direction of the eye to be examined is described as the Z direction (optical axis L1 direction), the horizontal component on the plane perpendicular to the depth direction is defined as the X direction, and the vertical component is described as the Y direction.

本装置は、光コヒーレンストモグラフィーデバイス(OCTデバイス)1である。図1において、OCTデバイス1は、干渉光学系(OCT光学系)200と、固視標投影ユニット300と、制御部(CPU)70と、を備える。   This apparatus is an optical coherence tomography device (OCT device) 1. In FIG. 1, the OCT device 1 includes an interference optical system (OCT optical system) 200, a fixation target projection unit 300, and a control unit (CPU) 70.

OCT光学系200は、測定光源から発せられた光束を測定光と参照光に分割し、測定光束を被検眼眼底に導き,参照光を参照光学系に導いた後、前記眼底から反射された測定光と参照光との干渉状態を検出器により検出する。   The OCT optical system 200 divides the light beam emitted from the measurement light source into measurement light and reference light, guides the measurement light beam to the fundus of the eye to be examined, guides the reference light to the reference optical system, and then reflects the measurement light reflected from the fundus An interference state between the light and the reference light is detected by a detector.

OCT光学系200は、測定光学系200aと参照光学系200bを含む。また、干渉光学系200は、参照光と測定光による干渉光を周波数(波長)毎に分光し、分光された干渉光を受光手段(本実施形態においては、1次元受光素子)に受光させる分光光学系800を有する。また、ダイクロイックミラー40は、OCT光学系200の測定光として用いられる波長成分の光を反射し、固視標投影ユニット300に用いられる波長成分の光を透過する特性を有する。   The OCT optical system 200 includes a measurement optical system 200a and a reference optical system 200b. In addition, the interference optical system 200 splits the interference light generated by the reference light and the measurement light for each frequency (wavelength) and causes the light receiving means (in this embodiment, a one-dimensional light receiving element) to receive the split interference light. An optical system 800 is included. Further, the dichroic mirror 40 has a characteristic of reflecting light having a wavelength component used as measurement light of the OCT optical system 200 and transmitting light having a wavelength component used for the fixation target projection unit 300.

まず、ダイクロイックミラー40の反射側に設けられたOCT光学系200の構成について説明する。27はOCT光学系200の測定光及び参照光として用いられる低コヒーレントな光を発するOCT光源であり、例えばSLD光源等が用いられる。OCT光源27には、例えば、中心波長840nmで50nmの帯域を持つ光源が用いられる。26は光分割部材と光結合部材としての役割を兼用するファイバーカップラーである。OCT光源27から発せられた光は、導光路としての光ファイバ38aを介して、ファイバーカップラー26によって参照光と測定光とに分割される。測定光は光ファイバ38bを介して被検眼Eへと向かい、参照光は光ファイバ38c(ポラライザ(偏光素子)33)を介して参照ミラー31へと向かう。   First, the configuration of the OCT optical system 200 provided on the reflection side of the dichroic mirror 40 will be described. Reference numeral 27 denotes an OCT light source that emits low-coherent light used as measurement light and reference light of the OCT optical system 200. For example, an SLD light source is used. For the OCT light source 27, for example, a light source having a center wavelength of 840 nm and a bandwidth of 50 nm is used. Reference numeral 26 denotes a fiber coupler that doubles as a light splitting member and a light coupling member. The light emitted from the OCT light source 27 is split into reference light and measurement light by the fiber coupler 26 via an optical fiber 38a as a light guide. The measurement light goes to the eye E through the optical fiber 38b, and the reference light goes to the reference mirror 31 through the optical fiber 38c (polarizer (polarizing element) 33).

測定光を被検眼Eへ向けて出射する光路には、測定光を出射する光ファイバ38bの端部39b、コリメータレンズ21、フォーカス用光学部材(フォーカシングレンズ)24、走査部(光スキャナ)23と、リレーレンズ22が配置されている。走査部23は、2つのガルバノミラーによって構成され、走査駆動機構51の駆動により、測定光源から発せられた光を眼底上で二次元的(XY方向)に走査させるために用いられる。なお、走査部23は、例えば、AOM(音響光学素子)やレゾナントスキャナ等によって構成されていてもよい。   In the optical path for emitting the measurement light toward the eye E, the end 39b of the optical fiber 38b for emitting the measurement light, the collimator lens 21, the focusing optical member (focusing lens) 24, the scanning unit (optical scanner) 23, and A relay lens 22 is arranged. The scanning unit 23 includes two galvanometer mirrors, and is used to scan light emitted from the measurement light source two-dimensionally (XY direction) on the fundus by driving the scanning drive mechanism 51. Note that the scanning unit 23 may be configured by, for example, an AOM (acousto-optic element), a resonant scanner, or the like.

ダイクロイックミラー40及び対物レンズ10は、OCT光学系200からのOCT測定光を被検眼眼底へと導光する導光光学系としての役割を有する。   The dichroic mirror 40 and the objective lens 10 serve as a light guide optical system that guides OCT measurement light from the OCT optical system 200 to the fundus of the eye to be examined.

フォーカシングレンズ24は、駆動機構24aの駆動によって、光軸方向に移動可能となっており、被検者眼底に対する視度を補正するために用いられる。   The focusing lens 24 is movable in the optical axis direction by driving of the driving mechanism 24a, and is used for correcting the diopter for the subject's fundus.

光ファイバ38bの端部39bから出射した測定光は、コリメータレンズ21によってコリメートされた後、フォーカシングレンズ24を介して、走査部23に達し、2つのガルバノミラーの駆動により反射方向が変えられる。そして、走査部23で反射された測定光は、リレーレンズ22を介して、ダイクロイックミラー40で反射された後、対物レンズ10を介して、被検眼眼底に集光される。   The measurement light emitted from the end 39b of the optical fiber 38b is collimated by the collimator lens 21, and then reaches the scanning unit 23 via the focusing lens 24, and the reflection direction is changed by driving the two galvanometer mirrors. Then, the measurement light reflected by the scanning unit 23 is reflected by the dichroic mirror 40 via the relay lens 22 and then condensed on the fundus of the eye to be examined via the objective lens 10.

そして、眼底で反射した測定光は、対物レンズ10を介して、ダイクロイックミラー40で反射し、OCT光学系200に向かい、リレーレンズ22、走査部23の2つのガルバノミラー、フォーカシングレンズ24及びコリメータレンズ21を介して、光ファイバ38bの端部39bに入射する。端部39bに入射した測定光は、光ファイバ38b、ファイバーカップラー26、光ファイバ38dを介して、光ファイバ38dの端部84aに達する。   Then, the measurement light reflected from the fundus is reflected by the dichroic mirror 40 via the objective lens 10, travels toward the OCT optical system 200, relay lens 22, two galvanometer mirrors of the scanning unit 23, focusing lens 24, and collimator lens. 21 enters the end 39b of the optical fiber 38b. The measurement light incident on the end 39b reaches the end 84a of the optical fiber 38d through the optical fiber 38b, the fiber coupler 26, and the optical fiber 38d.

一方、参照光を参照ミラー31に向けて出射する光路には、光ファイバ38c、参照光を出射する光ファイバ38cの端部39c、コリメータレンズ29、参照ミラー31が配置されている。光ファイバ38cは、参照光の偏光方向を変化させるため、駆動機構34により回転移動される。すなわち、光ファイバ38c及び駆動機構34は、偏光方向を調整するためのポラライザ33として用いられる。なお、ポラライザとしては、上記構成に限定されず、測定光の光路又は参照光の光路に配置されるポラライザを駆動させることにより、測定光と参照光の偏光状態を略一致させるものであればよい。例えば、1/2波長板や1/4波長板を用いることやファイバーに圧力を加えて変形させることで偏光状態を変えるもの等が適用できる。   On the other hand, an optical fiber 38 c, an end portion 39 c of the optical fiber 38 c that emits the reference light, a collimator lens 29, and the reference mirror 31 are arranged in the optical path that emits the reference light toward the reference mirror 31. The optical fiber 38c is rotated by the drive mechanism 34 in order to change the polarization direction of the reference light. That is, the optical fiber 38c and the drive mechanism 34 are used as a polarizer 33 for adjusting the polarization direction. The polarizer is not limited to the above-described configuration, and any polarizer may be used as long as the polarization state of the measurement light and the reference light is substantially matched by driving the polarizer disposed in the optical path of the measurement light or the optical path of the reference light. . For example, a half-wave plate or a quarter-wave plate can be used, or one that changes the polarization state by applying pressure to the fiber to deform it can be applied.

なお、ポラライザ33(偏光コントローラ)は、測定光と参照光の偏光方向を一致させるために、測定光と参照光の少なくともいずれかの偏光方向を調整する構成であればよい。例えば、ポラライザは、測定光の光路に配置された構成であってもよい。   The polarizer 33 (polarization controller) may be configured to adjust the polarization direction of at least one of the measurement light and the reference light in order to match the polarization directions of the measurement light and the reference light. For example, the polarizer may be arranged in the optical path of the measurement light.

また、参照ミラー駆動機構50は、参照光との光路長を調整するために参照光の光路中に配置された参照ミラー31を駆動させる。参照ミラー31は、本実施形態においては、参照光の光路中に配置され、参照光の光路長を変化させるべく、光軸方向に移動可能な構成となっている。   The reference mirror drive mechanism 50 drives the reference mirror 31 arranged in the optical path of the reference light in order to adjust the optical path length with the reference light. In this embodiment, the reference mirror 31 is arranged in the optical path of the reference light, and is configured to be movable in the optical axis direction so as to change the optical path length of the reference light.

光ファイバー38cの端部39cから出射した参照光は、コリメータレンズ29で平行光束とされ、参照ミラー31で反射された後、コリメータレンズ29により集光されて光ファイバ38cの端部39cに入射する。端部39cに入射した参照光は、光ファイバ38c、光ファイバ38c(ポラライザ33)を介して、ファイバーカップラー26に達する。   The reference light emitted from the end 39c of the optical fiber 38c is converted into a parallel light beam by the collimator lens 29, reflected by the reference mirror 31, collected by the collimator lens 29, and incident on the end 39c of the optical fiber 38c. The reference light incident on the end 39c reaches the fiber coupler 26 via the optical fiber 38c and the optical fiber 38c (polarizer 33).

そして、光源27から発せられた光によって前述のように生成される参照光と被検眼眼底に照射された測定光による眼底反射光は、ファイバーカップラー26にて合成され干渉光とされた後、光ファイバ38dを通じて端部84aから出射される。周波数毎の干渉信号を得るために干渉光を周波数成分に分光する分光光学系800(スペクトロメータ部)は、コリメータレンズ80、グレーティング(回折格子)81、集光レンズ82、受光素子83を有する。受光素子83は、赤外域に感度を有する一次元素子(ラインセンサ)を用いている。   Then, the reference light generated as described above by the light emitted from the light source 27 and the fundus reflection light by the measurement light irradiated on the eye fundus to be examined are combined by the fiber coupler 26 to be interference light, The light is emitted from the end portion 84a through the fiber 38d. A spectroscopic optical system 800 (spectrometer unit) that separates interference light into frequency components to obtain an interference signal for each frequency includes a collimator lens 80, a grating (diffraction grating) 81, a condensing lens 82, and a light receiving element 83. The light receiving element 83 is a one-dimensional element (line sensor) having sensitivity in the infrared region.

ここで、端部84aから出射された干渉光は、コリメータレンズ80にて平行光とされた後、グレーティング81にて周波数成分に分光される。そして、周波数成分に分光された干渉光は、集光レンズ82を介して、検出器(受光素子)83の受光面に集光する。これにより、受光素子83上で干渉縞のスペクトル情報が記録される。そして、受光素子83からの出力信号に基づいて眼の断層像を撮像する。すなわち、そのスペクトル情報が制御部70へと入力され、フーリエ変換を用いて解析することで、被検眼の深さ方向における情報が計測可能となる。ここで、制御部70は、走査部23により測定光を眼底上で所定の横断方向に走査することにより断層像を取得できる。例えば、X方向もしくはY方向に走査することにより、被検眼眼底のXZ面もしくはYZ面における断層像(眼底断層像)を取得できる(なお、本実施形態においては、このように測定光を眼底に対して一次元走査し、断層像を得る方式をBスキャンとする)。なお、取得された眼底断層像は、制御部70に接続されたフレームメモリ72に記憶される。さらに、走査部23の駆動を制御して、測定光をXY方向に二次元的に走査することにより、受光素子83からの出力信号に基づき被検眼眼底のXY方向に関する二次元動画像や被検眼眼底の三次元画像を取得することも可能である。   Here, the interference light emitted from the end portion 84 a is converted into parallel light by the collimator lens 80, and then split into frequency components by the grating 81. Then, the interference light split into frequency components is condensed on the light receiving surface of the detector (light receiving element) 83 via the condenser lens 82. Thereby, spectrum information of interference fringes is recorded on the light receiving element 83. Then, a tomographic image of the eye is taken based on the output signal from the light receiving element 83. That is, the spectrum information is input to the control unit 70 and analyzed using Fourier transform, whereby information in the depth direction of the eye to be examined can be measured. Here, the control unit 70 can acquire a tomographic image by causing the scanning unit 23 to scan the measurement light on the fundus in a predetermined transverse direction. For example, by scanning in the X direction or the Y direction, a tomographic image (fundus tomographic image) on the XZ plane or YZ plane of the subject's fundus can be acquired (in this embodiment, the measurement light is applied to the fundus in this way. On the other hand, a method of performing one-dimensional scanning and obtaining a tomographic image is referred to as B-scan). The acquired fundus tomographic image is stored in a frame memory 72 connected to the control unit 70. Furthermore, by controlling the driving of the scanning unit 23 and scanning the measurement light in the XY direction two-dimensionally, based on the output signal from the light receiving element 83, the two-dimensional moving image and the eye to be examined in the XY direction of the fundus It is also possible to acquire a three-dimensional image of the fundus.

眼底正面像を得る場合、制御部70は、走査部23を用いて測定光を眼底Ef上でXY方向に二次元走査させる。そして、制御部70は、XY各点について受光素子83から出力される受光信号に基づいて正面像を取得する。例えば、制御部70は、XY各点について受光素子83から出力される干渉信号のスペクトル強度を積算することにより、正面画像化する。もちろん、正面像を取得する手法は、これに限定されず、例えば、XY各点について取得された干渉信号のゼロクロス点の数を輝度値に変換するようにしてもよい。(詳細は、特願2010−594439号参照)
次に、固視標投影ユニット300について説明する。固視標投影ユニット300は、眼Eの視線方向を誘導するための光学系を有する。投影ユニット300は、眼Eに呈示する固視標を有し、複数の方向に眼Eを誘導できる。
When obtaining a fundus front image, the control unit 70 uses the scanning unit 23 to two-dimensionally scan the measurement light on the fundus oculi Ef in the XY directions. And the control part 70 acquires a front image based on the light reception signal output from the light receiving element 83 about XY each point. For example, the control unit 70 forms a front image by integrating the spectral intensities of the interference signals output from the light receiving element 83 for each XY point. Of course, the method of acquiring the front image is not limited to this. For example, the number of zero cross points of the interference signal acquired for each XY point may be converted into a luminance value. (For details, see Japanese Patent Application No. 2010-594439)
Next, the fixation target projection unit 300 will be described. The fixation target projecting unit 300 includes an optical system for guiding the line-of-sight direction of the eye E. The projection unit 300 has a fixation target presented to the eye E, and can guide the eye E in a plurality of directions.

例えば、固視標投影ユニット300は、可視光を発する可視光源を有し、視標の呈示位置を二次元的に変更させる。これにより、視線方向が変更され、結果的に撮像部位が変更される。例えば、撮影光軸と同方向から固視標が呈示されると、眼底の中心部が撮像部位として設定される。また、撮影光軸に対して固視標が上方に呈示されると、眼底の上部が撮像部位として設定される。すなわち、撮影光軸に対する視標の位置に応じて撮影部位が変更される。   For example, the fixation target projection unit 300 has a visible light source that emits visible light, and changes the presentation position of the target two-dimensionally. Thereby, the line-of-sight direction is changed, and as a result, the imaging region is changed. For example, when the fixation target is presented from the same direction as the imaging optical axis, the center of the fundus is set as the imaging site. When the fixation target is presented upward with respect to the imaging optical axis, the upper part of the fundus is set as the imaging region. That is, the imaging region is changed according to the position of the target with respect to the imaging optical axis.

固視標投影ユニット300としては、例えば、マトリクス状に配列されたLEDの点灯位置により固視位置を調整する構成、光源からの光を光スキャナを用いて走査させ、光源の点灯制御により固視位置を調整する構成、等、種々の構成が考えられる。また、投影ユニット300は、内部固視灯タイプであってもよいし、外部固視灯タイプであってもよい。   As the fixation target projection unit 300, for example, a configuration in which the fixation position is adjusted by the lighting positions of LEDs arranged in a matrix, light from a light source is scanned using an optical scanner, and fixation is performed by lighting control of the light source. Various configurations such as a configuration for adjusting the position are conceivable. The projection unit 300 may be an internal fixation lamp type or an external fixation lamp type.

また、制御部70には、表示モニタ75、フレームメモリ(例えば、RAM)72、補助記憶装置としてのメモリ(例えば、ハードディスク)77、コントロール部74、参照ミラー駆動機構50、駆動機構24a、ポラライザ駆動機構34、等が接続されている。   The control unit 70 includes a display monitor 75, a frame memory (for example, RAM) 72, a memory (for example, a hard disk) 77 as an auxiliary storage device, a control unit 74, a reference mirror drive mechanism 50, a drive mechanism 24a, and a polarizer drive. The mechanism 34, etc. are connected.

フレームメモリ72には、時系列に取得された複数の観察画像(例えば、正面画像)が記憶される。例えば、OCT光学系200によって随時取得された加算処理用の複数の観察画像が一時的に記憶される。また、メモリ77には、図無き撮影スイッチ等の操作によって、取得される撮影画像が記憶される。   The frame memory 72 stores a plurality of observation images (for example, front images) acquired in time series. For example, a plurality of observation images for addition processing acquired as needed by the OCT optical system 200 are temporarily stored. The memory 77 stores a photographed image acquired by operating a photographing switch or the like (not shown).

以上のような構成を備える装置において、その制御動作について説明する。検者は、固視標投影ユニット300の固視標を注視するように被検者に指示した後、図示無き前眼部観察用カメラで撮影される前眼部観察像をモニタ75で見ながら、被検眼の瞳孔中心に測定光軸がくるように、図示無きジョイスティックを用いて、アライメント操作を行う。   The control operation of the apparatus having the above configuration will be described. The examiner instructs the subject to gaze at the fixation target of the fixation target projection unit 300, and then observes the anterior ocular segment observation image captured by the anterior ocular segment observation camera (not shown) on the monitor 75. The alignment operation is performed using a joystick (not shown) so that the measurement optical axis is at the center of the pupil of the eye to be examined.

次いで、最適化を行うことによって、検者が所望する眼底部位が高感度・高解像度で観察できるようにする。なお、本実施形態において、最適化の制御は、光路長調整、フォーカス調整、偏光状態の調整(ポラライザ調整)、の制御である。   Next, optimization is performed so that the fundus site desired by the examiner can be observed with high sensitivity and high resolution. In the present embodiment, the optimization control is control of optical path length adjustment, focus adjustment, and polarization state adjustment (polarizer adjustment).

検者により、コントロール部74に配置された最適化開始スイッチ(Optimizeスイッチ)74aが押されると、制御部70は、最適化制御を開始するためのトリガ信号を発し、最適化の制御動作を開始する。そして、最適化の制御が完了されることにより、検者が所望する眼底部位が高感度・高解像度で観察できるようになる。   When the examiner presses an optimization start switch (Optimize switch) 74a arranged in the control unit 74, the control unit 70 issues a trigger signal for starting the optimization control and starts an optimization control operation. To do. When the optimization control is completed, the fundus site desired by the examiner can be observed with high sensitivity and high resolution.

そして、制御部70は、走査部23の駆動を制御し、眼底上で測定光を所定方向に関して走査させ、走査中に受光素子83から出力される出力信号から所定の走査領域に対応する受光信号を取得して眼底像を形成する。   Then, the control unit 70 controls the driving of the scanning unit 23, scans the measurement light on the fundus in a predetermined direction, and receives a light receiving signal corresponding to a predetermined scanning region from an output signal output from the light receiving element 83 during the scanning. To obtain a fundus image.

以下、本実施形態に係る眼底断層像(以下、断層像と記載する)及び眼底正面像(以下、正面像と記載する)の取得手法の一例を示す。制御部70は、受光素子83によって検出されたスペクトルデータを処理し、画像処理により断層像及び正面像を形成させる。断層像と正面像は、同時に取得されてもよいし、交互に取得されてもよいし、順次取得されてもよい。すなわち、スペクトルデータは、断層像及び正面像の少なくともいずれかの取得に用いられる。なお、取得された断層像及び正面像は、モニタ75に表示される。   Hereinafter, an example of a method for acquiring a fundus tomographic image (hereinafter referred to as a tomographic image) and a fundus frontal image (hereinafter referred to as a front image) according to the present embodiment will be described. The control unit 70 processes the spectral data detected by the light receiving element 83 and forms a tomographic image and a front image by image processing. The tomographic image and the front image may be acquired at the same time, may be acquired alternately, or may be acquired sequentially. That is, the spectrum data is used for obtaining at least one of a tomographic image and a front image. Note that the acquired tomographic image and front image are displayed on the monitor 75.

そして、検者は、モニタ75に表示された断層像及び正面像を観察しながら、眼底像に対するアライメントを行う。また、病変部等の観察を行う。   Then, the examiner performs alignment with the fundus image while observing the tomographic image and the front image displayed on the monitor 75. Observe the affected area.

ここで、眼底像に対するアライメントや病変部の観察を行うために、明瞭な眼底画像を取得する手段について説明する。   Here, a means for acquiring a clear fundus image in order to align the fundus image and observe the lesioned part will be described.

制御部(複合画像処理手段)70は、時系列に取得された複数の観察画像とOCTデバイス1によって新たに取得される観察画像とを複合させることによって複合画像を取得する。制御部(表示制御手段)70は、複合画像を動画像としてモニタ75に表示するため、新たに複合画像が取得されるのに応じて、モニタ75上に表示された複合画像を更新する。これにより、撮影画像の画質を良好にする。   The control unit (composite image processing means) 70 acquires a composite image by combining a plurality of observation images acquired in time series with an observation image newly acquired by the OCT device 1. The control unit (display control means) 70 displays the composite image on the monitor 75 as a moving image, and updates the composite image displayed on the monitor 75 in response to a new composite image being acquired. Thereby, the image quality of the captured image is improved.

例えば、制御部70は、OCTデバイス1よって時系列に取得された複数の観察画像と、OCTデバイス1によって新たに取得される観察画像とを加算平均処理することにより加算平均画像を取得する。制御部70は、新たに加算平均画像が取得されるのに応じて、モニタ75上に表示された加算平均画像を更新し、加算平均画像を動画像としてモニタ75に表示する。これにより、観察される撮影画像の画質を良好にする。なお、本実施形態においては、OCTデバイス1によって取得される観察画像として正面像を例に挙げて、以下の説明をしていく。   For example, the control unit 70 obtains an addition average image by performing an averaging process on a plurality of observation images acquired in time series by the OCT device 1 and an observation image newly acquired by the OCT device 1. The control unit 70 updates the addition average image displayed on the monitor 75 in response to a new addition average image being acquired, and displays the addition average image on the monitor 75 as a moving image. Thereby, the image quality of the observed captured image is improved. In the present embodiment, a front image is taken as an example of an observation image acquired by the OCT device 1 and will be described below.

初めに、OCTデバイス1によって取得される正面像を複数取得し、加算平均画像を作成する場合の流れについて、図2に示すフローチャートを用いて説明する。   First, a flow in the case of acquiring a plurality of front images acquired by the OCT device 1 and creating an addition average image will be described using the flowchart shown in FIG.

<加算処理に用いる正面像の取得>
初めに、制御部70は、OCT光学系200を用いて、受光素子83によって検出されたスペクトルデータを処理し、画像処理により1フレーム(1枚)の正面像を形成させる。そして、正面像をフレームメモリ72に記憶させる。そして、制御部70は、加算平均画像を作成するための複数の正面像(本実施形態においては、例えば、20枚の正面像)を取得するために、逐次、正面像を取得してフレームメモリ72に記憶させていく。なお、取得した正面像が適正か否かの判定が行われ、適正と判定された画像がフレームメモリ72に記憶される(詳しくは後述する)。これにより、瞬き等によるエラー画像が加算平均画像に利用されることが回避される。
<Acquisition of front image used for addition processing>
First, the control unit 70 processes the spectral data detected by the light receiving element 83 using the OCT optical system 200, and forms a front image of one frame (one sheet) by image processing. Then, the front image is stored in the frame memory 72. Then, in order to obtain a plurality of front images (for example, 20 front images in the present embodiment) for creating the addition average image, the control unit 70 sequentially obtains the front images and obtains the frame memory. 72 is stored. It is determined whether or not the acquired front image is appropriate, and the image determined to be appropriate is stored in the frame memory 72 (details will be described later). Thereby, it is avoided that an error image due to blinking or the like is used for the addition average image.

なお、フレームメモリ72に記憶することのできるデータの容量は限られている。本実施形態においては、最大で20枚の撮影画像が記憶可能である。もちろん、フレームメモリ72に容量によっては、記憶可能な枚数を変更することが可能であるし、フレームメモリ72の容量が無くなるほど、撮影画像を記憶させなくてもよい。記憶させる最大枚数を任意に設定できる構成としてもよい。   Note that the amount of data that can be stored in the frame memory 72 is limited. In the present embodiment, a maximum of 20 captured images can be stored. Of course, depending on the capacity of the frame memory 72, the number of images that can be stored can be changed, and as the capacity of the frame memory 72 is reduced, the captured image need not be stored. The maximum number of images to be stored may be set arbitrarily.

<正面像の記憶における判定>
制御部70は、OCT光学系200によって正面像の取得を開始すると、加算処理に用いるための正面像の取得を開始する。正面像を取得すると、制御部70は、新たに取得された正面像を判定処理し、フレームメモリ72に正面像を記憶させるか否かを判定する。フレームメモリ72には、記憶可能な容量が限定されているため、加算処理用に使用しない画像の記憶を回避することによって、加算処理に用いることのできる画像の枚数を増加させる。判定は、所定の評価値Sが用いられる。
<Determination in memory of front image>
When the acquisition of the front image is started by the OCT optical system 200, the control unit 70 starts acquiring the front image for use in the addition process. When the front image is acquired, the control unit 70 performs a determination process on the newly acquired front image, and determines whether to store the front image in the frame memory 72. Since the frame memory 72 has a limited storable capacity, the number of images that can be used for addition processing is increased by avoiding storage of images that are not used for addition processing. For the determination, a predetermined evaluation value S is used.

ここで、評価値Sについて説明する。評価値Sは、S=((画像の平均最大輝度値)−(画像の背景領域の平均輝度値))/(背景領域の輝度値の標準偏差)の式より求められる。すなわち、画像として良好でない画像は、ノイズが大きいため、評価値Sが小さくなる。評価値Sを得る場合、例えば、正面像の信号強度が用いられる。   Here, the evaluation value S will be described. The evaluation value S is obtained from the equation S = ((average maximum luminance value of the image) − (average luminance value of the background region of the image)) / (standard deviation of the luminance value of the background region). That is, an image that is not good as an image has a large noise, and thus the evaluation value S is small. When obtaining the evaluation value S, for example, the signal intensity of the front image is used.

この場合、制御部70は、正面像を形成するスペクトル情報に基づいて断層像を取得し、取得された断層像を利用して、正面像の適否を判定してもよい。例えば、正面像内における1ラインの走査線に対応する断層像より算出する。制御部70は、図3に示すように正面像の所定位置の走査線による断層像を用いて評価値Sを算出する。なお、所定位置としては、例えば、正面像の中心の位置を通る走査線Bが用いられる。もちろん、本実施形態においては、中心位置を用いるがこれに限定されない。制御部70は、図4に示すように、断層像において、深さ方向(Aスキャン方向)に走査する複数の走査線Cを設定し、各走査線C上における輝度分布データを求める。   In this case, the control unit 70 may acquire a tomographic image based on the spectrum information that forms the front image, and may determine whether the front image is appropriate using the acquired tomographic image. For example, it is calculated from a tomographic image corresponding to one scanning line in the front image. As shown in FIG. 3, the control unit 70 calculates the evaluation value S using a tomographic image formed by scanning lines at predetermined positions of the front image. As the predetermined position, for example, the scanning line B passing through the center position of the front image is used. Of course, although the center position is used in the present embodiment, the present invention is not limited to this. As shown in FIG. 4, the control unit 70 sets a plurality of scanning lines C to be scanned in the depth direction (A scanning direction) in the tomographic image, and obtains luminance distribution data on each scanning line C.

制御部70は、各走査線Cに対応する輝度分布において、輝度値の最大値(以下、最大輝度値と省略する)をそれぞれ算出する。そして、制御部70は、各走査線における最大輝度値の平均値を平均最大輝度値として算出する。また、制御部70は、各走査線における背景領域の輝度値の平均値を背景領域の平均輝度値として算出する。そして、評価値Sが算出される。   The control unit 70 calculates the maximum luminance value (hereinafter abbreviated as the maximum luminance value) in the luminance distribution corresponding to each scanning line C. And the control part 70 calculates the average value of the maximum luminance value in each scanning line as an average maximum luminance value. Further, the control unit 70 calculates the average value of the luminance values of the background area in each scanning line as the average luminance value of the background area. Then, an evaluation value S is calculated.

制御部70は、評価値Sを算出後、評価値Sが所定の閾値を超えているか否かによってフレームメモリ72への撮影画像の記憶の要否を判定する。例えば、評価値Sが閾値を超えた場合に、その正面像をフレームメモリ72に記憶させる。以上のようにして、判定が行われる。これにより、多くの撮影画像にて加算処理を行うことが可能となり、画像の画質が向上する。   After calculating the evaluation value S, the control unit 70 determines whether or not the captured image needs to be stored in the frame memory 72 based on whether or not the evaluation value S exceeds a predetermined threshold value. For example, when the evaluation value S exceeds a threshold value, the front image is stored in the frame memory 72. The determination is performed as described above. As a result, it is possible to perform addition processing on a large number of captured images, and the image quality is improved.

次いで、制御部70は、取得した1フレームの正面像をフレームメモリ72に記憶させた場合、フレームメモリ72内に記憶させた正面像の枚数が所定枚数に到達したか否かを判定する。本実施形態において、所定枚数は、フレームメモリ72に記憶可能な最大毎枚である20枚と設定した。なお、所定枚数はこれに限定されるものではなく、例えば、検者が任意に所定枚数を設定できる構成としてもよい。また、取得した撮影画像の光量に基づいて枚数設定がされる構成でもよい。この場合、例えば、撮影画像の光量が低ければ、所定枚数を増加し、撮影画像の光量が高い場合には、所定枚数を少なくすることが考えられる。   Next, when the acquired front image of one frame is stored in the frame memory 72, the control unit 70 determines whether or not the number of front images stored in the frame memory 72 has reached a predetermined number. In the present embodiment, the predetermined number is set to 20 which is the maximum number of sheets that can be stored in the frame memory 72. Note that the predetermined number is not limited to this, and for example, the predetermined number may be set arbitrarily by the examiner. Alternatively, the number of images may be set based on the light amount of the acquired captured image. In this case, for example, it is conceivable to increase the predetermined number if the light amount of the captured image is low, and decrease the predetermined number if the light amount of the captured image is high.

そして、制御部70は、フレームメモリ72内に記憶されている正面像の取得枚数が所定枚数に到達した場合、枚数に到達したタイミング以降に取得された正面像よりフレームメモリ72内に記憶された複数の正面像の加算平均処理を行う。また、正面像の取得枚数が所定枚数に到達していない場合、制御部70は、次の正面像の取得を開始する。以上のようにして、加算平均画像を作成するための複数の正面像が取得される。   When the number of acquired front images stored in the frame memory 72 reaches a predetermined number, the control unit 70 stores the front images acquired after the timing of reaching the number in the frame memory 72. Addition averaging processing of a plurality of front images is performed. If the number of acquired front images has not reached the predetermined number, the control unit 70 starts acquiring the next front image. As described above, a plurality of front images for creating an addition average image are acquired.

<複数の正面像の加算処理>
以下、フレームメモリ72に記憶された複数の正面像を用いて、加算処理手段について説明する。
<Addition processing of multiple front images>
Hereinafter, the addition processing means will be described using a plurality of front images stored in the frame memory 72.

制御部70は、OCT光学系200によって、最後に形成された正面像(新たに取得された正面像)において、加算平均処理の基準となる基準画像として設定し、加算平均処理を行う。制御部70は、基準画像と複数の観察画像とのずれを画像処理により検出し、ずれ検出結果に基づいて、加算処理の適否を判定処理すると共に、基準画像と複数の正面像像とのずれを補正し、基準画像に対して複数の正面像を加算処理していく。なお、本実施形態においては、基準画像を最後に取得された正面像(最新の撮影画像)に設定したがこれに限定されない。例えば、複数の正面像の内で加算処理の基準とする基準画像設定をしてもよい。   The control unit 70 sets the reference image as a reference for the addition average process in the front image (newly acquired front image) formed last by the OCT optical system 200, and performs the addition average process. The control unit 70 detects a shift between the reference image and the plurality of observation images by image processing, determines whether or not the addition process is appropriate based on the shift detection result, and shifts the reference image from the plurality of front image images. Is corrected, and a plurality of front images are added to the reference image. In the present embodiment, the reference image is set to the last-acquired front image (latest photographed image), but the present invention is not limited to this. For example, a reference image may be set as a reference for addition processing among a plurality of front images.

制御部70は、基準画像に対して各正面像を順に加算処理していく。そして、各正面像と基準画像とのずれ量を正面像毎に検出し、基準画像に対して各正面像の位置合わせを行う。すなわち、基準画像と各正面像を比較して、基準画像に対する各正面像の位置ずれ方向及び位置ずれ量を正面像毎に、画像処理により検出する。   The control unit 70 sequentially adds each front image to the reference image. Then, a deviation amount between each front image and the reference image is detected for each front image, and each front image is aligned with the reference image. That is, the reference image and each front image are compared, and the position shift direction and the position shift amount of each front image with respect to the reference image are detected for each front image by image processing.

ずれ量の検出方法としては、種々の画像処理手法(各種相関関数を用いる方法、フーリエ変換を利用する方法、特徴点のマッチングに基づく方法)を用いることが可能である。   Various image processing methods (a method using various correlation functions, a method using Fourier transform, and a method based on feature point matching) can be used as a method for detecting the shift amount.

例えば、所定の基準画像(例えば、最後に取得された正面像)又は対象画像(過去の正面像)を1画素ずつ位置ずれさせ、基準画像と対象画像を比較し、両データが最も一致したとき(相関が最も高くなるとき)の両データ間の位置ずれ方向及び位置ずれ量を検出する手法が考えられる。また、所定の基準画像及び対象画像から共通する特徴点を抽出し、抽出された特徴点の位置ずれ方向及び位置ずれ量を検出する手法が考えられる。   For example, when a predetermined reference image (for example, the last acquired front image) or target image (past front image) is shifted by one pixel at a time, the reference image and the target image are compared, and the two data match most A method of detecting the position shift direction and the position shift amount between the two data (when the correlation is highest) can be considered. Further, a method is conceivable in which common feature points are extracted from a predetermined reference image and target image, and the positional deviation direction and the positional deviation amount of the extracted feature points are detected.

本実施形態においては、基準画像に対する各正面像を1画素単位でずらしながら、相関値(値が大きいほど画像間の相関が高くなる(最大1))を逐次算出する。そして、制御部70は、相関値が最大となるときの画素の偏位量(ずらした画素数)を位置ずれ量とし、また、ずらした方向を位置ずれ方向として算出する。   In the present embodiment, the correlation value (the larger the value, the higher the correlation between the images (maximum 1)) is sequentially calculated while shifting each front image with respect to the reference image in units of one pixel. Then, the control unit 70 calculates the displacement amount (the number of displaced pixels) of the pixel when the correlation value is maximized as the displacement amount, and calculates the displaced direction as the displacement direction.

判定方法として、ずれ検出時に算出した相関値を用いて判定を行う。例えば、相関値が所定の閾値(例えば、0.4)より小さい場合に、加算処理に用いる正面像の対象から除外する。すなわち、相関値が小さい場合には、固視微動や装置と眼の間のずれ等が原因となって、基準画像と正面像で、撮影領域が大きく異なっている可能性が高い。撮影領域が大きく異なっている画像を用いて加算処理を行ってしまうと、加算平均画像を作成した場合に、画質等が低下してしまう。そのため、相関値が所定の閾値より小さい場合に、加算処理に用いる正面像の対象から除外することによって、加算平均画像を作成した際に、画質の低下を防ぐ。なお、加算処理に用いる画像として、適正な画像であるか否かの判定においてはこれに限定されない。例えば、検出される位置ずれ量が許容範囲を超えた正面像を加算処理の対象から除外するようにしてもよい。   As a determination method, determination is performed using a correlation value calculated at the time of detecting a deviation. For example, when the correlation value is smaller than a predetermined threshold (for example, 0.4), it is excluded from the front image target used for the addition process. In other words, when the correlation value is small, there is a high possibility that the shooting area is greatly different between the reference image and the front image due to microscopic fixation, a shift between the apparatus and the eye, or the like. If the addition process is performed using images with greatly different shooting areas, the image quality and the like deteriorate when the addition average image is created. For this reason, when the correlation value is smaller than the predetermined threshold value, the image quality is prevented from being lowered when the addition average image is created by excluding it from the target of the front image used for the addition process. Note that the image used for the addition process is not limited to this in determining whether the image is appropriate. For example, a front image in which the detected displacement amount exceeds the allowable range may be excluded from the addition processing target.

以上のように、位置ずれ量及び位置ずれ方向が検出され、加算処理に用いる画像としての適否が判定される。そして、制御部70は、加算処理用の画像として適正であると判定された画像に対して、制御部70は、位置ずれが補正されるように、位置ずれ量分、各正面像を基準画像に対して、それぞれ偏位させる。そして、位置ずれ補正後、制御部70は、基準画像に対して、正面像の画素値を加算させる。   As described above, the amount of misalignment and the direction of misalignment are detected, and the suitability of the image used for the addition process is determined. Then, with respect to the image determined to be appropriate as the image for addition processing, the control unit 70 controls each front image by the amount of positional deviation so that the positional deviation is corrected. , Respectively. After the positional deviation correction, the control unit 70 adds the pixel value of the front image to the reference image.

正面像の加算処理後、制御部70は、フレームメモリ72に記憶されている全フレームの正面像の処理(ずれ検出、適正判定、加算処理)が終了したか否かを判定する。全正面像の処理が終了していない場合、制御部70は、フレームメモリ72に記憶されている他の正面像の処理を開始する。本実施形態においては、フレームメモリ72に記憶されている全正面像において、処理が終了した場合に、加算画像の平均化処理に進む。   After the front image addition processing, the control unit 70 determines whether or not the front image processing (shift detection, appropriateness determination, addition processing) of all frames stored in the frame memory 72 has been completed. When the processing of all front images has not been completed, the control unit 70 starts processing of other front images stored in the frame memory 72. In the present embodiment, when all the front images stored in the frame memory 72 are processed, the process proceeds to the averaging process of the added image.

以上のようにして、制御部70は、加算処理用の画像として適正であると判定された正面像において位置ずれ検出及び位置ずれ補正の処理を繰り返し、正面像を形成する画素毎に画素値の合計を算出する。その後、平均化処理として、加算処理に使用した画像枚数で画素値の合計値が画素毎に除算されることで、加算平均画像が作成される。   As described above, the control unit 70 repeats the positional deviation detection and positional deviation correction processing in the front image determined to be appropriate as the image for addition processing, and sets the pixel value for each pixel forming the front image. Calculate the total. After that, as an averaging process, the total value of the pixel values is divided for each pixel by the number of images used for the addition process, thereby creating an addition average image.

本実施形態においては、基準画像に対して、フレームメモリ72に記憶された最大20枚の正面像が処理される。そして、最大21枚の正面像(基準画像を含む)から1枚の正面加算平均画像を作成する。なお、本実施形態においては、フレームメモリ72に記憶されている正面像の全てを加算処理の対象として加算処理する構成としたがこれに限定されない。複数の画像で加算平均画像を作成する構成であれよい。例えば、基準画像から新しいものから順に5枚の加算処理を行うとしてもよい。すなわち、メモリ75内に記憶されている全正面像を用いる必要はない。もちろん、加算処理は新しいものから順に行う必要はなく、基準画像と相関値が高いものを選択しておこなってもよい。   In the present embodiment, a maximum of 20 front images stored in the frame memory 72 are processed for the reference image. Then, one front addition average image is created from a maximum of 21 front images (including the reference image). In the present embodiment, all the front images stored in the frame memory 72 are subjected to addition processing, but the present invention is not limited to this. A configuration in which an addition average image is created with a plurality of images may be employed. For example, five sheets of addition processing may be performed in order from the newest one from the reference image. That is, it is not necessary to use the full front image stored in the memory 75. Of course, the addition processing need not be performed in order from the newest one, and may be performed by selecting one having a high correlation value with the reference image.

作成された加算平均画像は、モニタ75上に表示される。そして、制御部70は、新たに正面像を取得した際に、逐次、新たに加算平均画像を作成し、モニタ75上に表示する。これにより、モニタ75上に表示される加算平均画像が更新されていき正面像の加算平均画像が動画像として表示される。   The created addition average image is displayed on the monitor 75. Then, when a new front image is acquired, the control unit 70 sequentially creates a new addition average image and displays it on the monitor 75. Thereby, the addition average image displayed on the monitor 75 is updated, and the addition average image of the front image is displayed as a moving image.

<加算平均画像の更新>
ここで、加算平均画像の更新について、図5に示すフローチャート用いて、より具体的に説明していく。
<Updating average image update>
Here, the update of the addition average image will be described more specifically using the flowchart shown in FIG.

OCT光学系200によって新たに正面像が1フレーム分取得された後、取得された正面像が適正と判定され、フレームメモリ72に正面像が記憶されると、加算平均画像が更新される。すなわち、制御部70は、フレームメモリ72内に記憶された複数の正面像が所定枚数に達した場合に、過去に取得された観察画像を消去し、新たに取得された正面像と入れ換えを行う。   After the front image is newly acquired by the OCT optical system 200 for one frame, when the acquired front image is determined to be appropriate and the front image is stored in the frame memory 72, the addition average image is updated. That is, when the plurality of front images stored in the frame memory 72 reaches a predetermined number, the control unit 70 deletes the observation image acquired in the past and replaces it with the newly acquired front image. .

以下、フレームメモリ72内の正面像の更新について説明する。本実施形態においては、メモリ75に記憶可能な撮影画像の最大枚数が20枚であり、新たに正面像(21枚目に記憶される正面像)を取得した場合には、フレームメモリ72に記憶させることができない。このため、図6に示すように、新規に正面像F21が取得された場合、過去の正面像(例えば、もっとも過去の正面像F1)を削除し、正面像F20の次に新規の正面像F21を記憶する。これにより、過去の正面像が削除され、フレームメモリ72の容量が確保される。このようにして、フレームメモリ72に記憶されている正面像の更新が行われる。   Hereinafter, the update of the front image in the frame memory 72 will be described. In the present embodiment, the maximum number of photographed images that can be stored in the memory 75 is 20, and when a front image (a front image stored in the 21st image) is newly acquired, it is stored in the frame memory 72. I can't let you. For this reason, as shown in FIG. 6, when a new front image F21 is acquired, the past front image (for example, the oldest front image F1) is deleted, and the new front image F21 next to the front image F20 is deleted. Remember. Thereby, the past front image is deleted, and the capacity of the frame memory 72 is secured. In this way, the front image stored in the frame memory 72 is updated.

以上のようにして、フレームメモリ72に記憶されている正面像が更新されると、制御部70は、フレームメモリ72に記憶された20枚の正面像(例えば、正面像F2〜正面像F21)を用いて、基準画像に対して加算処理を行っていき、新たに加算平均画像を作成する。   When the front image stored in the frame memory 72 is updated as described above, the control unit 70 causes the 20 front images (for example, the front image F2 to the front image F21) stored in the frame memory 72 to be updated. Is used to perform addition processing on the reference image, and a new addition average image is created.

加算平均画像の作成は、上記記載の方法と同様にして行われる。なお、新たに正面像が更新された場合には、加算処理の基準画像として、最新の正面像F21が設定される。そして、基準画像に対して、フレームメモリ72内に記憶されている全ての各正面像(F2〜F20)の処理(ずれ検出、適正判定、加算処理)が行われていく。   The addition average image is created in the same manner as described above. When the front image is newly updated, the latest front image F21 is set as the reference image for the addition process. Then, processing (shift detection, appropriateness determination, addition processing) of all front images (F2 to F20) stored in the frame memory 72 is performed on the reference image.

制御部70は、新たに加算平均画像を作成すると、モニタ75に表示をする。すなわち、過去の加算平均画像を新たに作成した加算平均画像に置き換えることによって、モニタ75上に表示される正面像の加算平均画像が更新される。そして、新しい正面像を取得するたびに、加算平均画像を更新することにより、モニタ75上で加算平均画像の動画像を観察することが可能となる。   When the control unit 70 newly creates an addition average image, the control unit 70 displays the image on the monitor 75. That is, by replacing the past addition average image with the newly created addition average image, the addition average image of the front image displayed on the monitor 75 is updated. Each time a new front image is acquired, the moving average image can be observed on the monitor 75 by updating the adding average image.

<制御動作>
以上のようにして、モニタ75上に正面像の加算平均画像が動画像として表示される。そして、モニタ75上に表示される正面像は加算平均画像であるため、明瞭な画像となる。検者は、図無きジョイスティック等を用いて、正面像を観察しながら、眼底像に対するアライメントを行う。また、病変部等の観察を行う。
<Control action>
As described above, the addition average image of the front image is displayed on the monitor 75 as a moving image. And since the front image displayed on the monitor 75 is an addition average image, it becomes a clear image. The examiner performs alignment with the fundus image while observing the front image using a joystick or the like (not shown). Observe the affected area.

そして、検者により、所望の位置にて、図無き撮影スイッチが操作されると、モニタ75上に表示されている正面像の加算平均画像が静止画として、メモリ77に記憶される。これにより、撮影後にも、加算平均画像にて解析を行うことができ、解析の精度を向上させることができる。なお、取得される正面像は、モニタ75表示されている加算平均画像でもよいし、加算処理の行われていない最新の正面像でもよい。   When the examiner operates a photographing switch (not shown) at a desired position, the addition average image of the front image displayed on the monitor 75 is stored in the memory 77 as a still image. Thereby, even after imaging, analysis can be performed with the addition average image, and the accuracy of analysis can be improved. The acquired front image may be an addition average image displayed on the monitor 75, or may be a latest front image that has not been subjected to addition processing.

以上のように、モニタ75に表示されている正面像を加算平均画像とすることによって、白内障等によって取得される信号が弱い画像に対しても、加算処理によって、感度と分解能が増加し、ノイズを除去することが可能となり、S/N比が高くなる。このため、信号が弱くても、モニタ75上で、画質が向上した明瞭な正面像を観察できるようになる。また、加算処理をリアルタイムに行っていくことによって、モニタ75上には、常時、画質の向上した明瞭な正面像が動画像として表示される。このため、検者は、モニタ75上の画像を観察しながら、好適に病変部の観察や眼底像に対するアライメントを行うことが可能となる。   As described above, by using the front image displayed on the monitor 75 as the addition average image, even for an image with a weak signal acquired due to a cataract or the like, the addition process increases sensitivity and resolution, and noise. Can be removed, and the S / N ratio becomes high. For this reason, even if the signal is weak, a clear front image with improved image quality can be observed on the monitor 75. Further, by performing the addition processing in real time, a clear front image with improved image quality is always displayed on the monitor 75 as a moving image. Therefore, the examiner can appropriately observe the lesioned part and align the fundus image while observing the image on the monitor 75.

その後、検者は、正面像を観察しながら、走査位置を設定することにより、所望する眼底部位の眼底断層像を取得する。例えば、コントロール部74に設けられた走査位置設定部(例えば、マウス)からの操作信号に基づいて眼底上の走査位置が設定され、設定された走査位置に応じて走査部(光スキャナ)23が駆動される。このようにすれば、例えば、白内障眼に対して眼底断層像を取得する場合であっても、病変部等の位置が観察しやすいため、検者の所望する走査位置の画像を好適に取得できる。   Thereafter, the examiner obtains a fundus tomographic image of a desired fundus site by setting the scanning position while observing the front image. For example, a scanning position on the fundus is set based on an operation signal from a scanning position setting unit (for example, a mouse) provided in the control unit 74, and the scanning unit (optical scanner) 23 is set according to the set scanning position. Driven. In this way, for example, even when acquiring a fundus tomographic image for a cataract eye, it is easy to observe the position of a lesion or the like, so that an image of the scanning position desired by the examiner can be suitably acquired. .

なお、本実施形態においては、フレームメモリ72に記憶されている加算処理に用いるための正面像が所定枚数に到達した場合に、新たに取得された正面像に対して、加算処理を開始していく構成としたがこれに限定されない。例えば、図7のフローチャートに示すように、OCT光学系200によって正面像の取得を開始してから、直ちに加算処理を開始する構成でもよい。   In the present embodiment, when the number of front images to be used for the addition processing stored in the frame memory 72 reaches a predetermined number, the addition processing is started on the newly acquired front image. However, the present invention is not limited to this. For example, as shown in the flowchart of FIG. 7, the addition process may be started immediately after the front image acquisition is started by the OCT optical system 200.

制御部70は、位置ずれの検出とともに、新たに取得された正面像と時系列に取得された複数の正面像との加算平均処理の適否を判定処理する。そして、制御部70は、適正と判定された場合、新たに取得された正面像含む加算平均処理によって取得された加算平均画像をモニタ75上に表示させ、適正でないと判定された場合、新たに取得された正面像をモニタ75上に表示する。   The control unit 70 determines whether or not the addition averaging process of the newly acquired front image and the plurality of front images acquired in time series is appropriate along with the detection of the displacement. And when it determines with the control part 70 being appropriate, it displays the addition average image acquired by the addition average process containing the newly acquired front image on the monitor 75, and when it determines with it not being appropriate, it newly newly. The acquired front image is displayed on the monitor 75.

この場合、新しい正面像が取得されると、この正面像が加算処理を行うための基準画像として設定される。そして、基準画像に対して加算処理を行う。このとき、新しく取得された正面像(基準画像)とフレームメモリ72に記憶された正面像との間の加算処理の適否について判定される。例えば、前述のように、フレームメモリ72に記憶された各正面像と、新たに取得された正面像との間の相関値に基づいて、適否が判定される。なお、本実施形態においては、基準画像に対する加算処理の適否の判定を相関値に基づいて行ったがこれに限定されない。正面像を形成する信号により適否を判定してもよい。例えば、新たに取得された正面像の信号強度(例えば、SSI)、正面像を形成するAスキャンの輝度情報、正面像を形成する干渉信号によって取得される断層像を用いて適否が判定されてもよい。   In this case, when a new front image is acquired, this front image is set as a reference image for performing addition processing. Then, addition processing is performed on the reference image. At this time, whether or not the addition process between the newly acquired front image (reference image) and the front image stored in the frame memory 72 is appropriate is determined. For example, as described above, suitability is determined based on the correlation value between each front image stored in the frame memory 72 and the newly acquired front image. In the present embodiment, the suitability of the addition process for the reference image is determined based on the correlation value, but the present invention is not limited to this. Suitability may be determined by a signal for forming a front image. For example, the suitability is determined using the signal intensity (for example, SSI) of the newly acquired front image, the luminance information of the A scan that forms the front image, and the tomographic image acquired from the interference signal that forms the front image. Also good.

初めて取得された正面像(1枚目の正面像)の場合、加算処理されない状態でモニタ75上に表示される。次いで、2枚目の正面像が取得されると、まず、1枚目の正面像が適正か否か(例えば、上記SSI)が判定され、適正と判定されると、フレームメモリ72に記憶され、適正でないと判定されると正面像は破棄される。   In the case of a front image (first front image) acquired for the first time, it is displayed on the monitor 75 without being added. Next, when the second front image is acquired, first, it is determined whether or not the first front image is appropriate (for example, the above SSI), and if it is determined appropriate, it is stored in the frame memory 72. If it is determined that it is not appropriate, the front image is discarded.

例えば、1枚目の正面像がフレームメモリ72に記憶されると、制御部70は、2枚目の正面像を基準画像として、1枚目の正面像との加算処理の適否を判定する。そして、加算処理が適正と判定された場合に、2枚目の画像を基準画像として加算処理させる。そして、2枚目の正面像を含む加算平均画像をモニタ75上に表示させる。加算処理が適正でないと判定された場合、2枚目の正面像が加算処理しない状態にて、モニタ75上に表示される。   For example, when the first front image is stored in the frame memory 72, the control unit 70 determines the suitability of the addition process with the first front image using the second front image as a reference image. Then, when it is determined that the addition process is appropriate, the second image is added as a reference image. Then, the addition average image including the second front image is displayed on the monitor 75. When it is determined that the addition process is not appropriate, the second front image is displayed on the monitor 75 in a state where the addition process is not performed.

次いで、3枚目の正面像が取得されると、まず、2枚目の正面像が適正か否かが判定され、適正と判定されると、フレームメモリ72に記憶され、適正でないと判定されると、その正面像は破棄される。   Next, when the third front image is acquired, it is first determined whether or not the second front image is appropriate. If it is determined to be appropriate, it is stored in the frame memory 72 and determined not to be appropriate. Then, the front image is discarded.

次に、制御部70は、3枚目の正面像を基準画像として、1枚目と2枚目の正面像との加算処理の適否を判定する。そして、適正と判定された場合、3枚目の画像を基準画像として加算処理させる。そして、3枚目の正面像を含む加算平均画像をモニタ75上に表示させる。加算処理が適正でないと判定された場合、3枚目の正面像が加算処理しない状態にて、モニタ75上に表示される。   Next, the control unit 70 determines whether the addition process of the first and second front images is appropriate using the third front image as a reference image. If it is determined to be appropriate, the third image is added as a reference image. Then, the addition average image including the third front image is displayed on the monitor 75. When it is determined that the addition process is not appropriate, the third front image is displayed on the monitor 75 in a state where the addition process is not performed.

以上のように処理を繰り返すことにより、モニタ75上には、最新の状態の正面像を含む加算平均画像、又は最新の状態の正面像がそのまま表示される。このようにすれば、被検眼が大きく動いたり、瞬きをした場合、加算処理を経ずに最新の正面像が表示されるため、被検眼の状態をリアルタイムで観察できる。   By repeating the processing as described above, the addition average image including the latest front image or the latest front image is displayed on the monitor 75 as it is. In this way, when the eye to be examined moves greatly or blinks, the latest front image is displayed without performing addition processing, so that the state of the eye to be examined can be observed in real time.

一方、被検眼が大きく動いたり、瞬きをした場合、時系列にて取得された複数の正面像に基づく加算平均画像が表示されると、過去に取得された複数の正面像を中心とする加算平均画像が構築されるため、実際の被検眼の状態とは異なる画像となり、被検眼の現状がリアルタイムで把握できない可能性がある。このような点で、上記処理は有用である。   On the other hand, when the eye to be examined moves greatly or blinks, if an addition average image based on a plurality of front images acquired in time series is displayed, the addition centered on a plurality of front images acquired in the past Since the average image is constructed, the image is different from the actual state of the eye to be examined, and the current state of the eye to be examined may not be grasped in real time. In this respect, the above processing is useful.

もちろん、最新の正面像を含む加算平均画像を随時取得し、加算平均処理が適正でないと判定されたとき、最新の正面像をモニタ75に直接的に表示する制御であっても、同様の効果が得られる。   Of course, the same effect can be obtained even in the control in which the addition average image including the latest front image is acquired at any time and the latest front image is directly displayed on the monitor 75 when it is determined that the addition average processing is not appropriate. Is obtained.

なお、正面像が適正か否かの判定において、適正でないと判定された正面像は、加算平均画像の作成には利用されないので、2枚目以降に取得された正面像について、加算平均画像を作成するためにフレームメモリ72に記憶された正面像と、新たに取得された正面像との間で加算平均処理が行われる。したがって、2枚目以降であっても、加算平均画像を得るための正面像がフレームメモリ72に記憶されていなければ、基準画像がモニタ75上に表示される。   In addition, in the determination of whether or not the front image is appropriate, the front image determined to be inappropriate is not used for the creation of the addition average image. Therefore, the addition average image is obtained for the front images acquired after the second image. An averaging process is performed between the front image stored in the frame memory 72 and the newly acquired front image for creation. Therefore, the reference image is displayed on the monitor 75 if the front image for obtaining the addition average image is not stored in the frame memory 72 even after the second image.

上記説明では、OCT光学系200によって取得される眼底正面像を例に挙げて説明をしたが、断層画像を観察画像として取得する場合であっても、上記手法の適用は可能である。   In the above description, the fundus front image acquired by the OCT optical system 200 has been described as an example, but the above method can be applied even when a tomographic image is acquired as an observation image.

なお、本実施形態においては、ある1つの基準画像に対して加算処理を行う構成としたがこれに限定されない。例えば、所定毎数の撮影画像が記憶された時点で一旦加算処理を行い、その後、新たに所定毎数の撮影画像が記憶された時点で加算処理を行う。そして、これらの加算画像と加算画像を加算処理するような構成としてもよい。   In the present embodiment, the addition process is performed on one reference image, but the present invention is not limited to this. For example, the addition process is performed once when a predetermined number of captured images are stored, and then the addition process is performed when a predetermined number of captured images are newly stored. The addition image and the addition image may be added.

なお、上記説明において、スペクトルメータを用いたスペクトルドメインOCTを例にとって説明したが、これに限定されない。例えば、波長可変光源を備えるSS−OCT(Swept source OCT)やTD−OCT(Time domain OCT)であってもよい。   In the above description, the spectrum domain OCT using a spectrum meter has been described as an example, but the present invention is not limited to this. For example, SS-OCT (Swept source OCT) and TD-OCT (Time domain OCT) provided with a wavelength variable light source may be used.

なお、測定光の光路長と参照光の光路長との光路長差を変更するための構成としては、測定光の光路長を変化させて参照光との光路長を調整するような構成としてもよい。例えば、コリメータレンズ21及び光ファイバー39bの端部を光軸方向に移動するようにしてもよい。   In addition, as a configuration for changing the optical path length difference between the optical path length of the measurement light and the optical path length of the reference light, the optical path length with the reference light may be adjusted by changing the optical path length of the measurement light. Good. For example, the end portions of the collimator lens 21 and the optical fiber 39b may be moved in the optical axis direction.

なお、加算処理の際に、正面像の一部に瞬き等による欠損がある場合、欠損部分の領域に関して、加算処理を行わないようにしてもよい。この場合、例えば、加算処理を行う際に、副走査方向における各走査線の輝度分布を求め、輝度値が所定値以下の走査線が複数あった場合には、加算処理しないようにすればよい。これにより、加算平均画像の画質がよりよくなる。もちろん、加算処理するか否かの判定は、フレームメモリ72に正面像を記憶させるか否かの判定を行う際に行ってもよいし、加算処理を行うか否かの判定の際におこなってもよい。SSIによって、フレームメモリ72に正面像を記憶させるか否かの判定の際に行う場合に、例えば、正面像を形成する全走査線のSSIを判定し、所定の走査線数が所定のSSIを取得できなかった場合に、正面像を記憶させないようにしてもよい。   In addition, when a part of the front image has a defect due to blinking or the like during the addition process, the addition process may not be performed with respect to the region of the missing part. In this case, for example, when performing the addition process, the luminance distribution of each scanning line in the sub-scanning direction is obtained, and if there are a plurality of scanning lines having a luminance value equal to or less than a predetermined value, the addition process may not be performed. . Thereby, the image quality of the addition average image is improved. Of course, the determination as to whether or not to perform addition processing may be performed when determining whether or not to store the front image in the frame memory 72, or may be performed when determining whether or not to perform addition processing. Also good. When determining whether to store the front image in the frame memory 72 by SSI, for example, the SSI of all the scanning lines forming the front image is determined, and the predetermined number of scanning lines is equal to the predetermined SSI. If the image cannot be obtained, the front image may not be stored.

なお、本実施形態においては、加算平均処理によって眼底画像を取得する構成としたがこれに限定されない。複数の画像を用いて、複合画像を構成する処理であればよい。例えば、異なる波長の光束を出射する複数の光源を設け、各光源によってそれぞれ取得された正面像を合成し、複合画像を作成する構成でもよい。この場合、波長によって取得される正面像の情報が異なるため、各波長で取得された正面像を合成することによって、より多くの情報を含んだ明瞭な眼底画像を動画像として取得できる。   In the present embodiment, the fundus image is acquired by the averaging process, but the present invention is not limited to this. Any processing that forms a composite image using a plurality of images may be used. For example, a configuration may be employed in which a plurality of light sources that emit light beams having different wavelengths are provided, and front images acquired by the respective light sources are combined to create a composite image. In this case, since the information of the front image acquired by the wavelength is different, a clear fundus image including more information can be acquired as a moving image by synthesizing the front images acquired at each wavelength.

なお、上記説明においては、OCT光学系200によって取得される眼底正面像を例に挙げて説明をしたが、これに限定されるものではない。例えば、眼底カメラやSLO等によって取得される眼底画像に対しても適用される。   In the above description, the fundus front image acquired by the OCT optical system 200 has been described as an example. However, the present invention is not limited to this. For example, the present invention is also applied to a fundus image acquired by a fundus camera or SLO.

本実施形態に係る眼底撮影装置の光学系及び制御系を示す図である。It is a figure which shows the optical system and control system of the fundus imaging apparatus which concerns on this embodiment. 加算平均画像を作成する場合の流れについて説明するフローチャートである。It is a flowchart explaining the flow in the case of creating an addition average image. 正面像の所定位置における走査線について説明する図である。It is a figure explaining the scanning line in the predetermined position of a front image. 断層像における深さ方向(Aスキャン方向)に走査する複数の走査線について説明する図である。It is a figure explaining the some scanning line scanned in the depth direction (A scan direction) in a tomogram. 加算平均画像の更新の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the update of an addition average image. フレームメモリ内の正面像の更新について説明する図である。It is a figure explaining the update of the front image in a frame memory. 加算平均処理の変容例の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the example of a change of an addition average process.

23 走査部
70 制御部
72 フレームメモリ
74 コントロール部
75 モニタ
76 操作部
77 メモリ
200 干渉光学系(OCT光学系)
300 固視標投影ユニット
23 Scanning unit 70 Control unit 72 Frame memory 74 Control unit 75 Monitor 76 Operation unit 77 Memory 200 Interference optical system (OCT optical system)
300 Fixation target projection unit

Claims (6)

測定光源から発せられた光を被検眼眼底上で二次元的に走査する光スキャナと、測定光源から発せられた測定光と参照光との干渉状態を検出する検出器と、を有し、検出器からの出力信号を処理して被検眼眼底の断層像又は正面像を観察画像として取得する光コヒーレンストモグラフィーデバイスと、
時系列に取得された複数の観察画像と、前記コヒーレンストモグラフィーデバイスによって新たに取得される観察画像とを複合処理させることによって複合画像を取得する複合画像処理手段と、
複合画像を動画像としてモニタに表示するため、前記複合画像処理手段によって新たに複合画像が取得されるのに応じて、モニタ上に表示された複合画像を更新する表示制御手段と、を備えることを特徴とする眼底撮影装置。
An optical scanner that two-dimensionally scans light emitted from the measurement light source on the fundus of the eye to be examined and a detector that detects an interference state between the measurement light emitted from the measurement light source and the reference light. An optical coherence tomography device that processes the output signal from the instrument to obtain a tomographic image or front image of the fundus of the eye to be examined as an observation image;
Composite image processing means for acquiring a composite image by performing composite processing of a plurality of observation images acquired in time series and an observation image newly acquired by the coherence tomography device,
In order to display a composite image as a moving image on a monitor, a display control unit that updates the composite image displayed on the monitor in response to a new composite image being acquired by the composite image processing unit is provided. A fundus photographing apparatus characterized by the above.
前記複合画像形成手段は、時系列に取得された複数の観察画像と、前記コヒーレンストモグラフィーデバイスによって新たに取得される観察画像とを加算平均処理することにより加算平均画像を取得する加算平均処理手段であって、
前記表示制御手段は、加算平均画像を動画像としてモニタに表示するため、前記加算平均処理手段によって新たに加算平均画像が取得されるのに応じて、モニタ上に表示された加算平均画像を更新することを特徴とする請求項1の眼底撮影装置。
The composite image forming unit is an addition average processing unit that acquires an averaged image by performing an averaging process on a plurality of observation images acquired in time series and an observation image newly acquired by the coherence tomography device. There,
Since the display control means displays the addition average image on the monitor as a moving image, the addition average image displayed on the monitor is updated in response to a new addition average image being acquired by the addition average processing means. The fundus imaging apparatus according to claim 1.
前記時系列に取得された複数の観察画像は、正面画像であって、
前記コヒーレンストモグラフィーデバイスによって時系列に取得された複数の観察画像を記憶する記憶手段を備え、
前記加算平均処理手段は、前記記憶手段に記憶された複数の観察画像が所定枚数に達した場合に、過去に取得された観察画像を消去し、新たに取得された正面像と入れ換えを行い、
前記加算処理手段は、該記憶手段に記憶された複数の観察画像を加算平均処理することを特徴とする請求項1〜2のいずれかの眼底撮影装置。
The plurality of observation images acquired in time series are front images,
Storage means for storing a plurality of observation images acquired in time series by the coherence tomography device;
The addition averaging processing means, when a plurality of observation images stored in the storage means reaches a predetermined number, erase the observation images acquired in the past, replace the newly acquired front image,
The fundus imaging apparatus according to claim 1, wherein the addition processing unit performs an averaging process on a plurality of observation images stored in the storage unit.
前記加算平均処理手段は、新たに取得された観察画像と,時系列に取得された複数の観察画像との加算平均処理の適否を判定処理し、
前記表示制御手段は、適正と判定された場合、加算平均処理手段によって取得された該観察画像を含む加算平均画像をモニタ上に表示させ、適正でないと判定された場合、新たに取得された観察画像をモニタ上に表示する請求項1〜3のいずれかの眼底撮影装置。
The addition average processing means determines whether or not the addition average processing of the newly acquired observation image and the plurality of observation images acquired in time series is appropriate,
The display control unit displays an addition average image including the observation image acquired by the addition average processing unit when it is determined to be appropriate, and displays the newly acquired observation when it is determined not appropriate. The fundus imaging apparatus according to claim 1, wherein an image is displayed on a monitor.
前記加算平均処理手段は、新たに取得された観察画像を判定処理し、該記憶手段に前記観察画像を記憶させるか否かを判定する請求項1〜4の眼底撮影装置。   The fundus imaging apparatus according to claim 1, wherein the addition average processing unit performs a determination process on a newly acquired observation image and determines whether or not the observation image is stored in the storage unit. 前記加算平均処理手段は、前記コヒーレンストモグラフィーデバイスによって取得された観察画像において、加算平均処理の基準となる基準画像を設定し、該基準画像と複数の観察画像とのずれを画像処理により検出し、ずれ検出結果に基づいて、加算処理の適否を判定処理すると共に、基準画像と複数の観察画像とのずれを補正する請求項1〜5の眼底撮影装置。   The addition average processing means, in the observation image acquired by the coherence tomography device, sets a reference image as a reference of the addition average processing, and detects a deviation between the reference image and a plurality of observation images by image processing; The fundus imaging apparatus according to claim 1, wherein whether or not the addition process is appropriate is determined based on a deviation detection result, and a deviation between the reference image and the plurality of observation images is corrected.
JP2011122903A 2011-05-31 2011-05-31 Fundus photographing device Active JP5948739B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011122903A JP5948739B2 (en) 2011-05-31 2011-05-31 Fundus photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011122903A JP5948739B2 (en) 2011-05-31 2011-05-31 Fundus photographing device

Publications (3)

Publication Number Publication Date
JP2012249715A true JP2012249715A (en) 2012-12-20
JP2012249715A5 JP2012249715A5 (en) 2014-07-10
JP5948739B2 JP5948739B2 (en) 2016-07-06

Family

ID=47523167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011122903A Active JP5948739B2 (en) 2011-05-31 2011-05-31 Fundus photographing device

Country Status (1)

Country Link
JP (1) JP5948739B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103501A1 (en) * 2012-12-28 2014-07-03 興和株式会社 Image processing device, image processing method, image processing program, and recording medium storing said program
WO2016136926A1 (en) * 2015-02-27 2016-09-01 興和株式会社 Cross-section image capture device
JP2016198214A (en) * 2015-04-08 2016-12-01 株式会社トプコン Ocular fundus imaging method and ocular fundus imaging device
JP2017185057A (en) * 2016-04-06 2017-10-12 キヤノン株式会社 Ophthalmic imaging apparatus and control method therefor, and program
JP2020513983A (en) * 2017-03-23 2020-05-21 ドヘニー アイ インスティテュート Multiplex en-face angiographic averaging system, method and apparatus for optical coherence tomography

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07303610A (en) * 1994-05-12 1995-11-21 Canon Inc Ophthalmologic photography apparatus
JP2002032245A (en) * 2000-07-17 2002-01-31 Nidek Co Ltd Medical image processing method and medical image processing system
JP2002272693A (en) * 2001-03-21 2002-09-24 New Industry Research Organization Apparatus for analyzing eye fixation related potential
JP2007044317A (en) * 2005-08-11 2007-02-22 Toshiba Corp Ultrasonic diagnosis apparatus, control program of ultrasonic diagnosis apparatus and image formation method of ultrasonic diagnosis apparatus
JP2008181196A (en) * 2007-01-23 2008-08-07 Nikon Corp Image processing apparatus, electronic camera, and image processing program
JP2008217493A (en) * 2007-03-05 2008-09-18 Junji Kurotaki Animation by recording image changing over time, image data for creating animation and its creation method
JP2009152919A (en) * 2007-12-21 2009-07-09 Olympus Imaging Corp Imaging apparatus and image signal processing method
JP2010110393A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmic photographing apparatus
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07303610A (en) * 1994-05-12 1995-11-21 Canon Inc Ophthalmologic photography apparatus
JP2002032245A (en) * 2000-07-17 2002-01-31 Nidek Co Ltd Medical image processing method and medical image processing system
JP2002272693A (en) * 2001-03-21 2002-09-24 New Industry Research Organization Apparatus for analyzing eye fixation related potential
JP2007044317A (en) * 2005-08-11 2007-02-22 Toshiba Corp Ultrasonic diagnosis apparatus, control program of ultrasonic diagnosis apparatus and image formation method of ultrasonic diagnosis apparatus
JP2008181196A (en) * 2007-01-23 2008-08-07 Nikon Corp Image processing apparatus, electronic camera, and image processing program
JP2008217493A (en) * 2007-03-05 2008-09-18 Junji Kurotaki Animation by recording image changing over time, image data for creating animation and its creation method
JP2009152919A (en) * 2007-12-21 2009-07-09 Olympus Imaging Corp Imaging apparatus and image signal processing method
JP2010110393A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmic photographing apparatus
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103501A1 (en) * 2012-12-28 2014-07-03 興和株式会社 Image processing device, image processing method, image processing program, and recording medium storing said program
JPWO2014103501A1 (en) * 2012-12-28 2017-01-12 興和株式会社 Image processing apparatus, image processing method, image processing program, and recording medium storing the program
WO2016136926A1 (en) * 2015-02-27 2016-09-01 興和株式会社 Cross-section image capture device
CN107249432A (en) * 2015-02-27 2017-10-13 兴和株式会社 Layer image filming apparatus
JPWO2016136926A1 (en) * 2015-02-27 2017-12-07 興和株式会社 Tomography system
US10188286B2 (en) 2015-02-27 2019-01-29 Kowa Company, Ltd. Tomographic image capturing device
JP2016198214A (en) * 2015-04-08 2016-12-01 株式会社トプコン Ocular fundus imaging method and ocular fundus imaging device
JP2017185057A (en) * 2016-04-06 2017-10-12 キヤノン株式会社 Ophthalmic imaging apparatus and control method therefor, and program
JP2020513983A (en) * 2017-03-23 2020-05-21 ドヘニー アイ インスティテュート Multiplex en-face angiographic averaging system, method and apparatus for optical coherence tomography

Also Published As

Publication number Publication date
JP5948739B2 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
JP5255524B2 (en) Optical tomographic imaging device, optical tomographic image processing device.
JP5511437B2 (en) Optical tomography system
JP6007527B2 (en) Fundus photographing device
JP5331395B2 (en) Optical tomography system
JP5209377B2 (en) Fundus photographing device
JP6062688B2 (en) Ophthalmic apparatus, method for controlling ophthalmic apparatus, and program
JP5701660B2 (en) Fundus photographing device
JP5787063B2 (en) Ophthalmic imaging equipment
JP5179265B2 (en) Ophthalmic imaging equipment
JP2010110391A (en) Ophthalmological imaging apparatus
US20200297209A1 (en) Imaging apparatus and control method therefor
JP2011245183A (en) Fundus imaging apparatus
JP2015043844A (en) Ophthalmologic imaging device and ophthalmologic imaging program
JP5948739B2 (en) Fundus photographing device
JP2016127901A (en) Optical tomographic imaging device, control method of the same, and program
JP6040562B2 (en) Attachment for fundus photography device
JP2018186930A (en) Ophthalmologic imaging apparatus
JP5807371B2 (en) Ophthalmic imaging equipment
JP2013034658A (en) Fundus imaging apparatus
JP6421919B2 (en) Ophthalmic imaging equipment
JP6946643B2 (en) Optical interference tomography imaging device
JP2016049368A (en) Ophthalmological photographing apparatus
JP6160807B2 (en) Ophthalmic photographing apparatus and ophthalmic photographing program
JP2018000620A (en) Ophthalmological imaging apparatus
JP7123626B2 (en) Fundus imaging device and its control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5948739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250