JP2008188139A - Retina function measuring instrument - Google Patents

Retina function measuring instrument Download PDF

Info

Publication number
JP2008188139A
JP2008188139A JP2007023885A JP2007023885A JP2008188139A JP 2008188139 A JP2008188139 A JP 2008188139A JP 2007023885 A JP2007023885 A JP 2007023885A JP 2007023885 A JP2007023885 A JP 2007023885A JP 2008188139 A JP2008188139 A JP 2008188139A
Authority
JP
Japan
Prior art keywords
fundus image
fundus
image
images
stimulation light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007023885A
Other languages
Japanese (ja)
Inventor
Naohisa Shibata
尚久 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2007023885A priority Critical patent/JP2008188139A/en
Publication of JP2008188139A publication Critical patent/JP2008188139A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To highly accurately detect an endogenous signal of a retina. <P>SOLUTION: This retina function measuring instrument is provided with an imaging optical system having an imaging element for acquiring a fundus oculi image, a stimulating light irradiation optical system irradiating a visible stimulating light and stimulating the retina, a storage part for storing the fundus oculi image acquired based on the imaging signal from the imaging element, and a change information acquisition means comparing the fundus oculi image before irradiating the stimulating light with the fundus oculi image after irradiating the stimulating light and acquiring change information of the fundus oculi images by computation. This instrument finds the distribution of luminous unevenness by an image processing using at least two fundus oculi images of a first fundus oculi image captured before irradiating the stimulating light to a subject eye and a second fundus oculi image whose photographing position is deflected from the first fundus oculi image by the computation, and performs shading correction to the fundus oculi images before and after irradiating the stimulating light respectively. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、眼底を撮影して網膜の機能を計測する装置に関する。   The present invention relates to an apparatus for photographing the fundus and measuring the function of the retina.

従来、網膜機能を非侵襲的に画像化する装置が知られている。この装置は網膜を照明する照明手段と、網膜の機能応答を誘導する刺激光を照射する網膜刺激照明手段とを有し、刺激光照射前と照射後の網膜画像の反射率の変化から網膜の内因性信号を得ることにより網膜機能を計測しようとするものである(特許文献1参照)。なお、特許文献1に開示される装置は、刺激光照射前後の網膜画像を予め位置合わせを行い、位置合わせ後の画像から網膜機能の変化を検出することにより、被検眼の動きによる網膜画像同士の位置ずれを補正している。
国際公開第2005−084526パンフレット
2. Description of the Related Art Conventionally, devices that non-invasively image retinal functions are known. This device has illumination means for illuminating the retina and retinal stimulation illumination means for irradiating stimulation light that induces the functional response of the retina. An attempt is made to measure retinal function by obtaining an intrinsic signal (see Patent Document 1). Note that the apparatus disclosed in Patent Literature 1 aligns retinal images before and after stimulation light irradiation in advance, and detects changes in retinal function from the images after alignment, so that retinal images based on the movement of the eye to be inspected. The misalignment is corrected.
International Publication No. 2005-084526 Pamphlet

ところで、上述したように網膜の機能を計測する場合、刺激光の照射前後の撮影画像の明るさの比や差分によって網膜画像の光量変化を求めるものであるため、画像全体に角膜や水晶体等の中間透光体や装置の光学系によって生じる輝度ムラがあっても、刺激光の照射前後の撮影位置が完全に同じであれば、輝度ムラを相殺することが可能である。しかしながら、、刺激光の照射前後の撮影画像の位置がずれてしまった場合、位置ずれを補正しても輝度ムラを相殺することができず精度よく内因性信号を取得することができない。   By the way, when measuring the function of the retina as described above, since the light amount change of the retina image is obtained by the brightness ratio or difference of the photographed image before and after the irradiation of the stimulation light, the cornea, the crystalline lens, etc. Even if there is luminance unevenness caused by the intermediate light transmitting device or the optical system of the apparatus, it is possible to cancel the luminance unevenness if the photographing positions before and after the irradiation of the stimulation light are completely the same. However, if the position of the photographed image before and after the irradiation of the stimulation light has shifted, even if the positional shift is corrected, the luminance unevenness cannot be offset and the intrinsic signal cannot be acquired with high accuracy.

本発明は、上記問題点を鑑み、精度よく網膜の内因性信号を検出することを技術課題とする。   In view of the above problems, an object of the present invention is to accurately detect an intrinsic signal of the retina.

上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present invention is characterized by having the following configuration.

(1)
被検眼の網膜領域を照明する観察照明光学系と、
前記観察照明光学系によって照明された網膜領域からの反射光を受光して眼底画像を得るための撮像素子を有する撮像光学系と、刺激用光源を持ち、該光源から被検眼の網膜領域に可視刺激光を照射して網膜を刺激する刺激光照射光学系と、前記撮像素子からの撮像信号に基づいて取得される眼底画像を記憶する記憶部と、該記憶部に記憶される刺激光照射前の眼底画像と刺激光照射後の眼底画像を比較して演算処理することにより眼底画像の変化情報を取得する変化情報取得手段と、を備えることを網膜機能計測装置において、
前記変化情報取得手段は、
被検眼に対して前記刺激光の照射前に撮影された第1の眼底画像と該第1の眼底画像に対してその撮影位置がずれた第2の眼底画像の少なくとも2枚の眼底画像を用いて画像処理により前記第1の眼底画像に対する第2の眼底画像の位置ずれ情報を取得する位置ずれ情報取得手段と、
抽出された第1の眼底画像上の所定位置における画像データと該所定位置に対応する第2の眼底画像上の所定位置における画像データと,取得された前記位置ずれ情報とに基づいて前記第1の眼底画像上の前記所定位置上の輝度ムラ情報を得て前記所定位置を基準とした前記位置ずれ方向の軸線上における輝度ムラの分布を演算処理により求める輝度ムラ分布取得手段と、
該輝度ムラ分布取得手段によって得られた輝度ムラ分布情報に基づいて前記刺激光照射前と照射後の眼底画像に対してそれぞれシェーディング補正を行うシェーディング補正手段と、
を備え、前記変化情報取得手段はシェーディング補正された前記刺激光照射前と照射後の眼底画像と比較して演算処理することにより眼底画像の変化情報を取得することを特徴とする。
(2) (1)の網膜機能計測装置において、
前記位置ずれ情報取得手段は、
前記刺激光の照射前に前記記憶部に記憶された眼底画像に基づいて第1の眼底画像と,第1の眼底画像に対して第1の方向に眼底画像の撮影位置が異なる第2の眼底画像と,第1の眼底画像に対して前記第1の方向とは異なる第2の方向に眼底画像の撮影位置が異なる第3の眼底画像とを抽出すると共に前記第1及び第2の眼底画像の位置ずれ量及び前記第1及び第3の眼底画像の位置ずれ量を取得し、
前記輝度ムラ分布取得手段は、
第1,第2,第3の眼底画像と,第1及び第2の眼底画像の位置ずれ量と,第1及び第3の眼底画像の位置ずれ量とに基づいて被検眼の眼底画像における輝度ムラの分布を求めることを特徴とする網膜機能計測装置。
(3) (2)の網膜機能計測装置において、第1眼底画像の画像データを〇0(x、y)、X(水平)方向にΔxだけ移動したときに得られた第3眼底画像の画像データを〇ΔX(x、y)、Y(垂直)方向にΔyだけ移動したときに得られた第2眼底画像の画像データを〇ΔY(x、y)とすると、
輝度ムラf(mΔx、nΔy)は、
(1)
An observation illumination optical system for illuminating the retina region of the eye to be examined;
An imaging optical system having an imaging device for receiving fundus images by receiving reflected light from the retinal region illuminated by the observation illumination optical system, and a stimulation light source, visible from the light source to the retinal region of the eye to be examined A stimulation light irradiation optical system that irradiates stimulation light by stimulating the retina, a storage unit that stores a fundus image acquired based on an imaging signal from the imaging device, and before the stimulation light irradiation stored in the storage unit In the retinal function measuring device, comprising: a change information acquisition unit that acquires change information of the fundus image by performing a calculation process by comparing the fundus image of the fundus image and the fundus image after irradiation with the stimulation light,
The change information acquisition means includes
Using at least two fundus images of a first fundus image captured before irradiation of the stimulation light with respect to the eye to be examined and a second fundus image whose imaging position is shifted with respect to the first fundus image. Misalignment information acquisition means for acquiring misalignment information of the second fundus image with respect to the first fundus image by image processing;
Based on the extracted image data at a predetermined position on the first fundus image, image data at a predetermined position on the second fundus image corresponding to the predetermined position, and the acquired positional deviation information, the first Brightness unevenness distribution acquisition means for obtaining brightness unevenness information on the predetermined position on the fundus image and obtaining a distribution of brightness unevenness on an axis in the positional deviation direction with the predetermined position as a reference;
Shading correction means for performing shading correction on the fundus images before and after the stimulation light irradiation based on the luminance unevenness distribution information obtained by the luminance unevenness distribution acquisition means,
The change information acquisition means acquires the change information of the fundus image by performing arithmetic processing in comparison with the fundus image before and after the stimulation light irradiation subjected to shading correction.
(2) In the retinal function measuring device of (1),
The positional deviation information acquisition means includes
The first fundus image is different from the first fundus image based on the fundus image stored in the storage unit before the stimulation light irradiation, and the second fundus is different from the first fundus image in the first direction. An image and a third fundus image in which the photographing position of the fundus image is different in a second direction different from the first direction with respect to the first fundus image, and the first and second fundus images And a positional shift amount of the first and third fundus images,
The luminance unevenness distribution acquisition means includes:
Luminance in the fundus image of the eye to be examined based on the positional deviation amounts of the first, second, and third fundus images, the first and second fundus images, and the positional deviation amounts of the first and third fundus images A retinal function measuring device characterized by obtaining uneven distribution.
(3) In the retinal function measuring device of (2), the image of the third fundus image obtained when the image data of the first fundus image is moved by Δx in the 0 (x, y) and X (horizontal) directions. data 〇_Deruta X (x, y), when the Y 〇_Deruta image data of the second fundus image obtained when moved to the (vertical) direction by [Delta] y Y (x, y),
The luminance unevenness f (mΔx, nΔy) is

または Or

を用いて演算処理を行うことにより求めることを特徴とする。
(4) (1)の網膜機能計測装置において、第1眼底画像の画像データをO0(Δr、θΔ)、第1の眼底画像に対して撮影位置が(Δr、θΔ)だけ移動したときに得られた第2眼底画像の画像データをOΔ(Δr、θΔ)とすると、
輝度ムラf(mΔr)は、
It calculates | requires by performing arithmetic processing using.
(4) In the retinal function measuring device of (1), when the image data of the first fundus image is O 0 (Δr, θΔ) and the shooting position is moved by (Δr, θΔ) with respect to the first fundus image. If the image data of the obtained second fundus image is OΔ (Δr, θΔ),
The luminance unevenness f (mΔr) is

を用いて演算処理を行うことにより求めることを特徴とする。 It calculates | requires by performing arithmetic processing using.

本発明によれば、精度よく網膜の内因性信号を検出できる。   According to the present invention, an intrinsic signal of the retina can be detected with high accuracy.

本発明の実施形態を図面に基づいて説明する。図1は本実施形態に係る網膜機能計測装置の光学系を示す概略構成図である。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram showing an optical system of a retinal function measuring apparatus according to this embodiment.

図1において、本装置の光学系は、被検者眼Eの網膜領域を照明する観察照明光学系10と、観察照明光学系10によって照明された網膜領域からの反射光を受光して眼底画像を得るための撮像素子を有する撮像光学系20と、刺激用光源を持ち該光源から被検者眼の網膜領域に可視刺激光を照射して網膜を刺激するための刺激光照射光学系30と、被検者眼を固視させるための固視光学系40と、に大別される。   In FIG. 1, the optical system of the present apparatus receives an observation illumination optical system 10 that illuminates a retinal region of a subject's eye E, and reflected light from the retinal region illuminated by the observation illumination optical system 10 to receive a fundus image. An imaging optical system 20 having an imaging device for obtaining a light source, and a stimulation light irradiation optical system 30 for stimulating the retina by irradiating the retina region of the subject's eye with a stimulation light source and irradiating visible stimulation light from the light source And a fixation optical system 40 for fixing the subject's eyes.

観察照明光学系10は、赤外光を発するハロゲンランプ等の観察光源11、例えば波長800nm〜1000nmの赤外光を透過する赤外フィルタ12、集光レンズ13、赤外光を反射し可視光を透過する特性を持つダイクロイックミラー14、リング状の開口を有するリングスリット15、投光レンズ16、孔あきミラー17、対物レンズ18を含む。なお、リングスリット15及び孔あきミラー17は、被検者眼Eの瞳孔と略共役な位置に配置されている。観察光源11から発せられた観察用照明光は、赤外フィルタ12により赤外光束とされ、集光レンズ13にて集光されたのち、ダイクロイックミラー14により反射されてリングスリット15を照明する。リングスリット15を透過した光は、投光レンズ16を介して孔あきミラー17に達する。孔あきミラー17のミラー部分で反射された光は、対物レンズ18を介して被検者眼Eの瞳孔付近で一旦収束された後、拡散されて被検者眼Eの網膜の所定領域を連続的に照明する。   The observation illumination optical system 10 is an observation light source 11 such as a halogen lamp that emits infrared light, for example, an infrared filter 12 that transmits infrared light having a wavelength of 800 nm to 1000 nm, a condenser lens 13, and reflects infrared light to visible light. A dichroic mirror 14 having a characteristic of transmitting light, a ring slit 15 having a ring-shaped opening, a light projecting lens 16, a perforated mirror 17, and an objective lens 18. The ring slit 15 and the perforated mirror 17 are disposed at a position substantially conjugate with the pupil of the subject's eye E. The observation illumination light emitted from the observation light source 11 is converted into an infrared beam by the infrared filter 12, collected by the condenser lens 13, and then reflected by the dichroic mirror 14 to illuminate the ring slit 15. The light transmitted through the ring slit 15 reaches the perforated mirror 17 through the light projecting lens 16. The light reflected by the mirror portion of the perforated mirror 17 is once converged in the vicinity of the pupil of the eye E through the objective lens 18, and then diffused to continuously pass through a predetermined region of the retina of the eye E. Illuminate.

刺激光照射光学系30は、網膜領域に刺激を与えるための可視フラッシュ光を発光する刺激用光源31、集光レンズ33、観察照明光学系10と光路を共用するリングスリット15〜対物レンズ18までの光学系を含む。刺激用光源31は、可視フラッシュ光を単発またはフリッカー状に照射可能である。ここで、刺激用光源31で発光した可視フラッシュ光は、集光レンズ33、ダイクロイックミラー14を介して、観察用照明光と同様の光路を経て被検者眼Eの網膜領域に照射される。   The stimulation light irradiation optical system 30 includes a stimulation light source 31 that emits visible flash light for stimulating the retinal region, a condensing lens 33, and a ring slit 15 to an objective lens 18 that share an optical path with the observation illumination optical system 10. Including the optical system. The stimulation light source 31 can irradiate visible flash light in a single shot or in a flicker shape. Here, the visible flash light emitted from the stimulation light source 31 is applied to the retina region of the eye E through the condenser lens 33 and the dichroic mirror 14 through the same optical path as the observation illumination light.

撮像光学系20は、対物レンズ18、光軸方向に移動可能なフォーカシングレンズ21、結像レンズ22、二次元撮像素子23(例えば、二次元CCDセンサ)を含む。フォーカシングレンズ21は、駆動機構50の駆動により光軸方向に移動する。観察光源11によって照明された網膜領域からの反射光は、対物レンズ18を介して孔あきミラー17の前で一旦集光されたのち、孔あきミラー17の開口を通過する。そして、孔あきミラー17の開口(ホール部)を通過した反射光は、フォーカシングレンズ21を介して、結像レンズ22によって集光された後、二次元撮像素子23上に結像される。なお、二次元撮像素子23の撮像面には、水平(X)方向及び垂直(Y)方向に二次元的に画素が配列されている。   The imaging optical system 20 includes an objective lens 18, a focusing lens 21 movable in the optical axis direction, an imaging lens 22, and a two-dimensional imaging element 23 (for example, a two-dimensional CCD sensor). The focusing lens 21 moves in the optical axis direction by driving the drive mechanism 50. The reflected light from the retinal region illuminated by the observation light source 11 is once condensed in front of the perforated mirror 17 via the objective lens 18 and then passes through the opening of the perforated mirror 17. Then, the reflected light that has passed through the aperture (hole portion) of the perforated mirror 17 is condensed by the imaging lens 22 via the focusing lens 21 and then imaged on the two-dimensional image sensor 23. Note that pixels are two-dimensionally arranged in the horizontal (X) direction and the vertical (Y) direction on the imaging surface of the two-dimensional imaging element 23.

固視光学系40は、可視光を発光する固視光源41、ピンホール(または固視用チャート)42、可視光を反射し赤外光を透過する特性を有するダイクロイックミラー29を持ち、ダイクロイックミラー29〜対物レンズ18までの光路を撮像光学系20と共用する。ピンホール42は、被検者眼Eの網膜の観察点(撮影点)と略共役な位置に配置される。固視光源41を発した光は、ピンホール42を通り、ダイクロイックミラー29にて反射された後、網膜からの反射光とは逆方向の光路を経て(結像レンズ22〜対物レンズ18)被検者眼の網膜上で結像する。   The fixation optical system 40 includes a fixation light source 41 that emits visible light, a pinhole (or a fixation chart) 42, and a dichroic mirror 29 that reflects visible light and transmits infrared light. The optical path from 29 to the objective lens 18 is shared with the imaging optical system 20. The pinhole 42 is arranged at a position substantially conjugate with the observation point (imaging point) of the retina of the subject's eye E. The light emitted from the fixation light source 41 passes through the pinhole 42, is reflected by the dichroic mirror 29, and then passes through the optical path in the direction opposite to the reflected light from the retina (imaging lens 22 to objective lens 18). An image is formed on the retina of the examiner's eye.

図2は本実施形態における網膜機能計測装置の制御系を示したブロック図である。70は装置全体の制御を行う制御部である。制御部70には、観察光源11、刺激用光源31、固視光源41、フォーカス駆動機構50、記憶部72、コントロール部74、被検者眼眼底の画像形成や網膜機能を画像化するための画像処理部71等が接続される。75はモニタであり、画像処理部71にて形成した眼底画像が表示される。記憶部72は種々の情報を記憶しておくためのものである。コントロール部74は各種入力操作を行うためのものである。上記構成において、記憶部72は撮像素子23からの撮像信号に基づいて取得される眼底画像を記憶する役割を有する。また、記憶部72には、刺激光照射前の眼底画像と刺激光照射後の眼底像の比較による眼底画像の変化情報の取得、眼底画像同士の位置ずれ情報の取得、輝度ムラ分布情報の取得、等を行うための演算処理プログラムが格納されている。そして、制御部70は、記憶部72に記憶された演算処理プログラムに基づいて演算等を行う。   FIG. 2 is a block diagram showing a control system of the retinal function measuring apparatus in the present embodiment. A control unit 70 controls the entire apparatus. The control unit 70 includes an observation light source 11, a stimulus light source 31, a fixation light source 41, a focus drive mechanism 50, a storage unit 72, a control unit 74, and an image formation and retinal function of the subject's eye fundus. An image processing unit 71 and the like are connected. Reference numeral 75 denotes a monitor on which the fundus image formed by the image processing unit 71 is displayed. The storage unit 72 is for storing various information. The control unit 74 is for performing various input operations. In the above configuration, the storage unit 72 has a role of storing a fundus image acquired based on an imaging signal from the imaging element 23. Further, the storage unit 72 acquires fundus image change information by comparing the fundus image before stimulating light irradiation with the fundus image after stimulating light irradiation, acquires positional deviation information between fundus images, and acquires luminance unevenness distribution information. The arithmetic processing program for performing, etc. is stored. Then, the control unit 70 performs calculations based on the calculation processing program stored in the storage unit 72.

以上のような構成を備える網膜機能計測装置において、その動作について説明する。検者は、図示なきジョイスティック等を用いて被検眼に対して装置を移動させ、被検者眼Eの眼底に照明光が照射され、所望する眼底画像がモニタ75に表示されるように、アライメントを行う。そして、コントロール部74に設けられたフォーカス調整用スイッチを用いて駆動機構50を駆動させることにより、画像のフォーカス合わせを行う。   The operation of the retinal function measuring device having the above configuration will be described. The examiner moves the apparatus with respect to the eye to be examined using a joystick (not shown), and the alignment is performed so that the fundus of the eye E is irradiated with illumination light and a desired fundus image is displayed on the monitor 75. I do. Then, the focus adjustment of the image is performed by driving the drive mechanism 50 using a focus adjustment switch provided in the control unit 74.

網膜機能を計測する場合には、所望する位置の眼底像がモニタ75に表示された状態にて、コントロール部74の図示なき撮影ボタンを押す。撮影ボタンが押されると、制御部70は撮影光学系20を用いて二次元撮像素子23に受光した眼底像を取得し、刺激光発光前の眼底像を基準網膜画像として記憶部72に記憶させるとともに、刺激用光源を用いて被検眼Eの眼底に向けて可視のフラッシュ光(単発の刺激光、或いはフリッカー状に点灯させた刺激光)を照射する。   When measuring the retinal function, a photographing button (not shown) of the control unit 74 is pressed in a state where a fundus image at a desired position is displayed on the monitor 75. When the photographing button is pressed, the control unit 70 acquires the fundus image received by the two-dimensional imaging device 23 using the photographing optical system 20, and stores the fundus image before the stimulation light emission in the storage unit 72 as a reference retinal image. At the same time, a visible flash light (single stimulation light or flicker-like stimulation light) is emitted toward the fundus of the eye E using a stimulation light source.

網膜領域への刺激光の照射が終了すると、制御部70は、さらにフラッシュ光の照射動作が終了した後の眼底画像を前述と同様に撮影光学系を用いて取得し、その画像を記憶部72に記憶させる。フラッシュ光照射後に撮影する眼底画像は1枚だけでなく、網膜機能の変化が判るように、フラッシュ光照射後、連続的または経時的に眼底画像を記憶させるようにしてもよい。この場合、記憶された複数の画像から解析に用いるデータを抽出するようにしてもよい。   When the irradiation of the stimulation light to the retinal region is completed, the control unit 70 further acquires the fundus image after the flash light irradiation operation is completed using the photographing optical system in the same manner as described above, and the image is stored in the storage unit 72. Remember me. Not only one fundus image is taken after the flash light irradiation, but the fundus image may be stored continuously or over time after the flash light irradiation so that a change in the retinal function can be seen. In this case, data used for analysis may be extracted from a plurality of stored images.

ここで、網膜機能を計測する際の原理について簡単に説明する。すなわち、被検者眼Eの眼底にフラッシュ光等の刺激光が照射され、網膜を構成する細胞が刺激を受けると、この刺激に伴って神経細胞の活動に変化が起こり、この神経活動が起こった部位の反射光の強度(反射率)が変化する。このため、フラッシュ光照射前後における眼底画像の明るさ(観察光に対する網膜領域の反射率)の変化を読み取ることにより、この神経細胞の活動の変化に起因する内因性の信号変化が得ることができる。よって、被検者眼の網膜機能を計測することができる。   Here, the principle for measuring the retinal function will be briefly described. That is, when stimulation light such as flash light is irradiated to the fundus of the subject's eye E and the cells constituting the retina are stimulated, the neuronal activity changes with the stimulation, and this neural activity occurs. The intensity (reflectance) of the reflected light at the part changes. For this reason, by reading the change in the brightness of the fundus image (the reflectance of the retinal area with respect to the observation light) before and after the flash light irradiation, an intrinsic signal change resulting from the change in the activity of the nerve cell can be obtained. . Therefore, the retinal function of the subject's eye can be measured.

例えば、フラッシュ光照射前後の眼底画像とに基づいて網膜機能を計測する場合、制御部70は、網膜機能を計測するにあたって始めに記憶部72に記憶させたフラッシュ光照射前の眼底画像(基準眼底画像)とフラッシュ光照射後の眼底画像との位置合せを行う。位置合せは、照射前の眼底画像(基準眼底画像)及び照射後の眼底画像から画像処理により特徴点(例えば、血管形状、乳頭、黄斑部等)を抽出し、両画像を相対的に移動、拡大、縮小等行うようにして両画像の特徴点が最も一致する位置を演算処理により求める。なお、位置合せの方法はこれに限るものではなく、周知の画像処理技術を用いてもよい。   For example, when measuring the retinal function based on the fundus images before and after the flash light irradiation, the control unit 70 first stores the fundus image before the flash light irradiation (reference fundus) stored in the storage unit 72 when measuring the retinal function. Image) and the fundus image after flash light irradiation are aligned. For alignment, feature points (eg, blood vessel shape, nipple, macula, etc.) are extracted by image processing from the fundus image before irradiation (reference fundus image) and the fundus image after irradiation, and both images are moved relatively. The position where the feature points of both images most closely match is obtained by arithmetic processing, such as enlarging or reducing. The alignment method is not limited to this, and a well-known image processing technique may be used.

このようなフラッシュ光の照射前後の眼底画像の位置合わせ後、制御部70は照射前の眼底画像の明るさに対する照射後の眼底画像の明るさの変化を各画素毎に求める。明るさの変化は差分や比等求めることによって得られる。画像処理部71は、制御部70によって得られた明るさの変化情報を各画素に対応させてモニタ75に表示する。明るさの変化情報としては、濃淡や高低によって明るさの変化情報を画像として表示する方法や、差分や比の数値情報、この数値情報を網膜機能を評価するための所定の解析プログラムにより演算処理した情報等によって表すことができる。   After aligning the fundus image before and after such flash light irradiation, the control unit 70 obtains, for each pixel, a change in the brightness of the fundus image after irradiation with respect to the brightness of the fundus image before irradiation. The change in brightness can be obtained by obtaining a difference, a ratio, or the like. The image processing unit 71 displays the brightness change information obtained by the control unit 70 on the monitor 75 in association with each pixel. As brightness change information, a method of displaying brightness change information as an image according to shading and height, numerical information of differences and ratios, and numerical processing of this numerical information by a predetermined analysis program for evaluating retinal function Can be represented by the information etc.

以上のような網膜機能計測において、本実施形態では、本装置によって取得される眼底画像の輝度ムラ情報を検出し、検出された輝度ムラ情報を用いて刺激光の照射前後に取得される機能計測用眼底画像に対してシェーディング補正を行う。   In the retinal function measurement as described above, in the present embodiment, luminance unevenness information of the fundus image acquired by the present apparatus is detected, and the function measurement acquired before and after the stimulation light irradiation using the detected luminance unevenness information. Shading correction is performed on the fundus image.

式1は、本装置における輝度ムラを考慮した画像データO(x、y)を表した式である。ここで、T0は、撮像素子の感度の理論値であり、光電変換効率t(x、y)によって変動する。また、LS0は、光源出力の理論値であり、発光効率ls(x、y)によって変動する。なお、輝度ムラが生じないとした理想的な装置の場合、眼底画像を撮影すると画像データOR(x、y)は以下のようになる。ここで、理想的な装置とは、上記光電変換効率t(x、y)、発光効率ls(x、y)、受光効率l2(x、y)、投光効率l1(x、y)が1の状態を表す。 Expression 1 is an expression representing image data O (x, y) in consideration of luminance unevenness in the present apparatus. Here, T 0 is a theoretical value of the sensitivity of the image sensor and varies depending on the photoelectric conversion efficiency t (x, y). L S0 is a theoretical value of the light source output, and varies depending on the light emission efficiency l s (x, y). Note that in the case of an ideal device in which uneven brightness does not occur, image data O R (x, y) is as follows when a fundus image is captured. Here, the ideal device is the photoelectric conversion efficiency t (x, y), the light emission efficiency l s (x, y), the light reception efficiency l 2 (x, y), and the light projection efficiency l 1 (x, y). ) Represents a state of 1.

式1より画像の輝度ムラとして生じる要素f(x、y)を抽出したものを式3に示す。 Expression 3 is obtained by extracting an element f (x, y) that is generated as luminance unevenness of an image from Expression 1.

0<f(x、y)≦1ならば式1、2、3より If 0 <f (x, y) ≦ 1, from Equations 1, 2, and 3

つまり、上記のシステムで得られた画像の各画素に対してf(x、y)で除算すれば輝度ムラが補正されることになる。なお、以下の説明では、撮影光学系20の撮影光軸と撮像素子23の撮像面の交点位置を原点とし、f(0、0)=1と仮定する。すなわち、相対的に補正出来ればよいので、OR(0、0)=O(0、0)として考える。 That is, luminance unevenness is corrected by dividing each pixel of the image obtained by the above system by f (x, y). In the following description, it is assumed that the intersection point between the imaging optical axis of the imaging optical system 20 and the imaging surface of the imaging element 23 is the origin, and f (0, 0) = 1. That is, since it is only necessary to correct relatively, it is considered that O R (0,0) = O (0,0).

なお、輝度ムラ分布f(x、y)の検出は、刺激光の照射前に行う。すなわち、制御部70は、刺激光の照射前に、撮像素子23によって撮像される眼底画像を随時記憶部72に記憶させていく。そして、制御部70は、はじめに、記憶部72に記憶された各フレーム毎の眼底画像から、補正用基準画像を1枚抽出する。なお、以下の説明では、補正用基準画像を第1の眼底画像として説明する。図3(a)は、補正用基準画像の例である。   Note that the luminance unevenness distribution f (x, y) is detected before the stimulation light irradiation. That is, the control unit 70 stores the fundus image captured by the image sensor 23 in the storage unit 72 as needed before the stimulation light irradiation. Then, the control unit 70 first extracts one correction reference image from the fundus image for each frame stored in the storage unit 72. In the following description, the correction reference image is described as the first fundus image. FIG. 3A shows an example of a reference image for correction.

次に、制御部70は、記憶部72に記憶された各フレーム毎の眼底画像から、前述の補正用基準画像に対して上下方向に撮影位置が異なる眼底画像を第2の眼底画像として1枚、補正用基準画像に対して左右方向に撮影位置が異なる眼底画像を第3の眼底画像として1枚抽出する。この場合、記憶部72に記憶された各眼底画像と第1眼底画像との特徴点(例えば、血管形状、乳頭、黄斑部等)を抽出し、眼底画像同士の相対的な位置ズレ量を撮像素子23の画素単位で検出し、第1眼底画像に対して所望する位置ずれ量を有する眼底画像を第2の眼底画像、第3の眼底画像として抽出すればよい。すなわち、刺激光の照射前に撮影された第1の眼底画像と該第1の眼底画像に対してその撮影位置がずれた第2の眼底画像の少なくとも2枚の眼底画像を用いて画像処理により第1の眼底画像に対する第2の眼底画像の位置ずれ情報を取得し、第1眼底画像に対して所望する位置ずれ量を有する眼底画像を第2の眼底画像、第3の眼底画像として抽出する。   Next, from the fundus image for each frame stored in the storage unit 72, the control unit 70 sets one fundus image whose shooting position is different from the above-described correction reference image in the vertical direction as a second fundus image. Then, one fundus image having a different shooting position in the left-right direction with respect to the reference image for correction is extracted as a third fundus image. In this case, feature points (for example, blood vessel shape, nipple, macula, etc.) between each fundus image and the first fundus image stored in the storage unit 72 are extracted, and a relative positional shift amount between the fundus images is captured. What is necessary is just to extract the fundus image which detects in the pixel unit of the element 23 and has a desired positional shift amount with respect to the first fundus image as the second fundus image and the third fundus image. That is, image processing is performed using at least two fundus images of the first fundus image captured before the irradiation of the stimulation light and the second fundus image whose imaging position is shifted with respect to the first fundus image. The positional deviation information of the second fundus image with respect to the first fundus image is acquired, and the fundus image having the desired positional deviation amount with respect to the first fundus image is extracted as the second fundus image and the third fundus image. .

図3(b)は第2の眼底画像の例であり、図3(c)は第3の眼底画像の例である。この場合、自動もしくは手動によりピンホール42を上下(左右)方向に移動させて被検眼の固視位置を移動させることにより、撮像素子23の撮像面上における眼底画像の撮影位置をY(X)方向にずらした状態で撮像された眼底画像から第2の眼底画像(第3の眼底画像)を得るようにしてもよい。また、被験者の無自覚に起こる被検眼の固視微動によって撮像素子23の撮像面上における眼底画像の撮影位置がずれるので、これを利用して、記憶部72に経時的に記憶された眼底画像から第2の眼底画像(第3の眼底画像)を得るようにしてもよい。また、ジョイスティックを用いて装置全体を所定方向に移動させるようにしてもよい。   FIG. 3B is an example of the second fundus image, and FIG. 3C is an example of the third fundus image. In this case, by automatically or manually moving the pinhole 42 in the vertical (left / right) direction to move the fixation position of the eye to be examined, the photographing position of the fundus image on the imaging surface of the imaging element 23 is set to Y (X). A second fundus image (third fundus image) may be obtained from the fundus image captured in a state shifted in the direction. In addition, since the photographing position of the fundus image on the imaging surface of the imaging device 23 is shifted due to fixation micromotion of the subject's eye that occurs without the subject's awareness, the fundus image stored in the storage unit 72 with time can be used by using this. A second fundus image (third fundus image) may be obtained. Moreover, you may make it move the whole apparatus to a predetermined direction using a joystick.

ここで、第1眼底画像の画像データを〇0(x、y)、X方向にΔxだけ移動したときに得られた第3眼底画像の画像データを〇ΔX(x、y)、Y方向にΔyだけ移動したときに得られた第2眼底画像の画像データを〇ΔY(x、y)とすると、
まず、次式によりY軸上の離散的な輝度分布を求める。なお、以下に示す式において、m及びnは正の整数とする。ここで、Δx>0、Δy>0の場合、x≧0、y≧0における輝度ムラは、
Here, the image data of the first fundus image is O 0 (x, y), and the image data of the third fundus image obtained by moving Δx in the X direction is ΔΔ X (x, y), Y direction. If the image data of the second fundus image obtained when moving to Δy is ΔΔ Y (x, y),
First, a discrete luminance distribution on the Y axis is obtained by the following equation. In the following formula, m and n are positive integers. Here, when Δx> 0 and Δy> 0, the luminance unevenness when x ≧ 0 and y ≧ 0 is

ここで、f(0、Δy)を求める場合(n=1)、第2眼底画像における画素位置(0、Δy)における輝度値〇ΔY(0、Δy)が、第1眼底画像における画素位置(0、0)における輝度値〇0(0、0)で除算される(図4(a)参照)。この場合、〇ΔY(0、Δy)に対応する眼底上の計測位置は、画素位置(0、0)に位置ずれ量Δyを加えたものであり、〇0(0、0)に対応する眼底上の計測位置と一致する。よって、被検眼眼底からの反射率Rは、同じ値であると考えられる。したがって、撮影位置が異なる眼底画像同士間で同一計測部位での輝度値を比較することにより、反射率の影響をうけずに、基準位置(0、0)に対する画素位置(0、Δy)の輝度の変化(輝度むら)を検出できる。 Here, when obtaining f (0, Δy) (n = 1), the luminance value ◯ Δ Y (0, Δy) at the pixel position (0, Δy) in the second fundus image is the pixel position in the first fundus image. Divided by the luminance value 0 0 (0, 0) at (0, 0) (see FIG. 4A). In this case, the measurement position on the fundus corresponding to ◯ Δ Y (0, Δy) is obtained by adding the positional deviation amount Δy to the pixel position (0, 0), and corresponds to ◯ 0 (0, 0). It coincides with the measurement position on the fundus. Therefore, the reflectance R from the eye fundus is considered to be the same value. Therefore, by comparing the luminance values at the same measurement site between fundus images with different imaging positions, the luminance of the pixel position (0, Δy) with respect to the reference position (0, 0) is not affected by the reflectance. Change (intensity unevenness) can be detected.

また、f(0、2Δy)を求める場合(n=2)、同一計測部位での輝度値を比較するべく第2眼底画像における画素位置(0、2Δy)における輝度値〇ΔY(0、2Δy)が第1眼底画像における画素位置(0、Δy)における輝度値〇0(0、Δy)で除算され、除算後の値にf(0、Δy)が積算される(図4(b)参照)。すなわち、制御部70は、抽出された第1の眼底画像上の所定位置における画像データと該所定位置に対応する第2の眼底画像上の所定位置における画像データと,取得された位置ずれ情報とに基づいて前記第1の眼底画像上の所定位置上の輝度ムラ情報を得て、所定位置(0、0)を基準とした位置ずれ方向の軸線上における輝度ムラの分布を演算処理により求める。 Further, when obtaining f (0, 2Δy) (n = 2), the luminance value ◯ Δ Y (0, 2Δy) at the pixel position (0, 2Δy) in the second fundus image to compare the luminance values at the same measurement site. ) Is divided by the luminance value 0 0 (0, Δy) at the pixel position (0, Δy) in the first fundus image, and f (0, Δy) is added to the value after the division (see FIG. 4B). ). That is, the control unit 70 reads the image data at the predetermined position on the extracted first fundus image, the image data at the predetermined position on the second fundus image corresponding to the predetermined position, and the acquired positional deviation information. The luminance unevenness information on the predetermined position on the first fundus image is obtained based on the above, and the distribution of the luminance unevenness on the axis in the misregistration direction with the predetermined position (0, 0) as a reference is obtained by the arithmetic processing.

さらに、f(0、3Δy)を求める場合(n=3)、同一計測部位での輝度値を比較するべく第2眼底画像における画素位置(0、3Δy)における輝度値〇ΔY(0、3Δy)が第1眼底画像における画素位置(0、2Δy)における輝度値〇0(0、2Δy)で除算され、除算後の値にf(0、2Δy)が積算される。 Further, when obtaining f (0, 3Δy) (n = 3), the luminance value ◯ Δ Y (0, 3Δy) at the pixel position (0, 3Δy) in the second fundus image is compared to compare the luminance values at the same measurement site. ) Is divided by the luminance value 0 0 ( 0, 2Δy) at the pixel position ( 0, 2Δy) in the first fundus image, and f (0, 2Δy) is added to the value after the division.

以上のようにして、f(0、nΔy)の各点における輝度ムラを求めるべく、積算処理を繰り返していく。図5は、f(0、nΔy)の各点における輝度ムラ分布を示す図である。そして、そのデータから近似曲線FΔY(0、y)を求める。より具体的には、データが得られている画素間の輝度ムラ情報を撮像素子23の撮像面上の画素位置に対応させて、各画素同士を曲線補完することにより近似曲線FΔY(0、y)を求めることができる。これにより、x=0上についての輝度分布を求めることができる。 As described above, the integration process is repeated in order to obtain the luminance unevenness at each point of f (0, nΔy). FIG. 5 is a diagram illustrating a luminance unevenness distribution at each point of f (0, nΔy). Then, an approximate curve FΔ Y (0, y) is obtained from the data. More specifically, the luminance unevenness information between pixels for which data is obtained corresponds to the pixel position on the imaging surface of the image sensor 23, and each pixel is subjected to curve interpolation to approximate the approximate curve FΔ Y (0, y) can be determined. Thereby, the luminance distribution on x = 0 can be obtained.

同様に、第1眼底画像の画像データを〇0(x、y)と第3眼底画像の画像データ〇ΔX(x、y)を用いて、y=0上についてX方向の輝度分布を考えると次のようになる。 Similarly, the image data 〇 0 of the first fundus image (x, y) using the image data 〇_Deruta X (x, y) of the third fundus image, consider the luminance distribution in the X direction for the upper y = 0 And the following.

ここで、前述のように得られた式6をY軸を基準に一般化すると、 Here, when generalizing Equation 6 obtained as described above with reference to the Y axis,

そして、式5を式7に代入すると、式8が得られる。 Then, when Expression 5 is substituted into Expression 7, Expression 8 is obtained.

そして、式8から得られる離散的な輝度分布から近似曲線FΔYΔX(x、y)を求めることができる。 Then, the approximate curve FΔ Y Δ X (x, y) can be obtained from the discrete luminance distribution obtained from Expression 8.

同様にして、x≧0、y≦0のおける輝度ムラ分布を考えると、   Similarly, considering the luminance unevenness distribution where x ≧ 0 and y ≦ 0,

ここで、f(0、−Δy)を求める場合(n=1)、第1眼底画像における画素位置(0、−Δy)における輝度値〇0(0、−Δy)が、第2眼底画像における画素位置(0、0)における輝度値〇ΔY(0、0)で除算される。この場合、〇ΔY(0、0)に対応する眼底上の計測位置は、画素位置(0、−Δy)に位置ずれ量Δyを加えたものであり、〇0(0、−Δy)に対応する眼底上の計測位置と一致する(図6(a)参照)。よって、被検眼眼底からの反射率Rは、同じ値であると考えられる。したがって、撮影位置が異なる眼底画像同士間で同一計測部位での輝度値を比較することにより、反射率の影響をうけずに、基準位置(0、0)に対する画素位置(0、−Δy)の輝度の変化(輝度むら)を検出できる。 Here, when obtaining f (0, −Δy) (n = 1), the luminance value 0 0 (0, −Δy) at the pixel position (0, −Δy) in the first fundus image is determined in the second fundus image. Divided by the luminance value ◯ Δ Y (0, 0) at the pixel position (0, 0). In this case, the measurement position on the fundus corresponding to ◯ Δ Y (0,0) is obtained by adding the positional deviation amount Δy to the pixel position (0, −Δy), and ◯ 0 (0, −Δy). It corresponds to the corresponding measurement position on the fundus (see FIG. 6A). Therefore, the reflectance R from the eye fundus is considered to be the same value. Therefore, by comparing the luminance values at the same measurement site between fundus images with different imaging positions, the pixel position (0, −Δy) with respect to the reference position (0, 0) is not affected by the reflectance. Changes in brightness (brightness unevenness) can be detected.

また、f(0、−2Δy)を求める場合(n=2)、同一計測部位での輝度値を比較するべく第1眼底画像における画素位置(0、−2Δy)における輝度値〇0(0、−2Δy)が第2眼底画像における画素位置(0、−Δy)における輝度値〇ΔY(0、−Δy)で除算され、除算後の値にf(0、−Δy)が積算される(図6(b)参照)。すなわち、制御部70は、抽出された第1の眼底画像上の所定位置における画像データと該所定位置に対応する第2の眼底画像上の所定位置における画像データと,取得された位置ずれ情報とに基づいて前記第1の眼底画像上の所定位置上の輝度ムラ情報を得て、所定位置(0、0)を基準とした位置ずれ方向の軸線上における輝度ムラの分布を演算処理により求める。 Further, when obtaining f (0, −2Δy) (n = 2), the luminance value O 0 (0, 0, 0 ) at the pixel position (0, −2Δy) in the first fundus image is compared with the luminance value at the same measurement site. −2Δy) is divided by the luminance value ◯ Δ Y (0, −Δy) at the pixel position (0, −Δy) in the second fundus image, and f (0, −Δy) is added to the value after the division ( (Refer FIG.6 (b)). That is, the control unit 70 reads the image data at the predetermined position on the extracted first fundus image, the image data at the predetermined position on the second fundus image corresponding to the predetermined position, and the acquired positional deviation information. The luminance unevenness information on the predetermined position on the first fundus image is obtained based on the above, and the distribution of the luminance unevenness on the axis in the misregistration direction with the predetermined position (0, 0) as a reference is obtained by the arithmetic processing.

また、同様にして、x≦0、y≧0のおける輝度ムラ分布を考えると、   Similarly, considering the luminance unevenness distribution when x ≦ 0 and y ≧ 0,

また、同様にして、x≦0、y≦0のおける輝度ムラ分布を考えると、 Similarly, when considering the luminance unevenness distribution in x ≦ 0 and y ≦ 0,

そして、式9〜式11から得られる離散的な輝度分布から近似曲線FΔYΔX(x、y)を求めることができる。これにより、全象限での輝度ムラ分布が求まる。 Then, it is possible to obtain an approximate of discrete luminance distribution obtained from Equation 9 Equation 11 curves FΔ Y Δ X (x, y ). Thereby, luminance unevenness distribution in all quadrants is obtained.

以上のようにして、全象限での輝度ムラ分布FΔYΔX(x、y)が求まれば、記憶部72に記憶された実際の眼底画像データO(x,y)を輝度ムラ分布FΔYΔX(x、y)で除算することにより、シェーディング補正がなされ、中間透光体等による輝度ムラが補正された眼底画像を得ることができる。 When the luminance unevenness distribution FΔ Y Δ X (x, y) in all quadrants is obtained as described above, the actual fundus image data O (x, y) stored in the storage unit 72 is used as the luminance unevenness distribution FΔ. By dividing by Y Δ X (x, y), it is possible to obtain a fundus image in which shading correction is performed and luminance unevenness due to an intermediate translucent body or the like is corrected.

そこで、制御部70は、網膜機能に用いられ刺激光照射前に得られる眼底画像の画像データに輝度ムラ情報F(x,y)を用いてシェーディング補正を行い、補正後の画像データを記憶部72に記憶させる。また、網膜機能に用いられ刺激光照射後に得られる眼底画像の画像データに輝度ムラ情報F(x,y)を用いてシェーディング補正を行い、補正後の画像データを記憶部72に記憶させる。そして、それぞれシェーディング補正がなされた刺激光照射前と照射後の眼底画像とを比較して演算処理することにより網膜画像の変化情報を取得する。   Therefore, the control unit 70 performs shading correction on the image data of the fundus image used for the retinal function and obtained before the stimulation light irradiation, using the luminance unevenness information F (x, y), and stores the corrected image data in the storage unit. 72 is stored. Further, shading correction is performed on the image data of the fundus image used for the retinal function and obtained after the stimulation light irradiation, using the luminance unevenness information F (x, y), and the corrected image data is stored in the storage unit 72. Then, the change information of the retinal image is acquired by comparing the fundus images before and after the stimulation light irradiation each subjected to shading correction and performing arithmetic processing.

以上のような構成とすれば、被検眼透光体による輝度ムラ分布を検出できるため、光学系による輝度ムラに加えて被検眼透光体による輝度ムラを補正することができるので、よりノイズの少ない計測用眼底画像を得ることができる。これにより、被検眼の網膜機能を精度よく求めることが可能となる。   With the configuration as described above, since the luminance unevenness distribution due to the subject eye transparent body can be detected, it is possible to correct the luminance unevenness due to the subject eye transparent body in addition to the luminance unevenness due to the optical system. A few fundus images for measurement can be obtained. As a result, the retinal function of the eye to be examined can be accurately obtained.

なお、以上の説明において、位置ずれ量Δx及びΔyを撮像素子23の1画素分とすることにより、近似処理を用いることなく輝度ムラ分布f(x、y)を得ることができる。この場合、x>0、y>0における輝度ムラは、以下のようになる。なお、他の象限に関する式については、同様の手法により求めることができるため、省略する。   In the above description, the luminance unevenness distribution f (x, y) can be obtained without using the approximation process by setting the positional deviation amounts Δx and Δy for one pixel of the image sensor 23. In this case, the luminance unevenness when x> 0 and y> 0 is as follows. In addition, about the formula regarding another quadrant, since it can obtain | require with the same method, it abbreviate | omits.

なお、以上の説明において、f(0、nΔy)を先に求めるようにしたが、これに限るものではなく、f(mΔx、0)を先に求めるようにしてもよい。この場合、x>0、y>0における輝度ムラは、以下のようになる。なお、他の象限に関する式については、同様の手法により求めることができるため、省略する。 In the above description, f (0, nΔy) is obtained first. However, the present invention is not limited to this, and f (mΔx, 0) may be obtained first. In this case, the luminance unevenness when x> 0 and y> 0 is as follows. In addition, about the formula regarding another quadrant, since it can obtain | require with the same method, it abbreviate | omits.

なお、上記説明においては、撮影光学系20の撮影光軸と撮像素子23の撮像面の交点位置を原点とし、f(0、0)=1とするような構成としたが、撮像素子23の撮像面において眼底画像が受光される位置であれば、これに限るものではない。例えば、図7に示すような撮像面の左下に位置する点Aを原点(0、0)とするようにしてもよい。このようにすれば、矩形B内であれば、 In the above description, the intersection position between the imaging optical axis of the imaging optical system 20 and the imaging surface of the imaging device 23 is set as the origin, and f (0, 0) = 1. The position is not limited to this as long as the fundus image is received on the imaging surface. For example, a point A located at the lower left of the imaging surface as shown in FIG. 7 may be set as the origin (0, 0). In this way, if it is within rectangle B,

等を用いて輝度ムラ分布を求めることが可能であるため、上記のように各象限ごとの式を用いずに済む。 Etc., it is possible to obtain the luminance unevenness distribution, so that it is not necessary to use the equation for each quadrant as described above.

また、以上の説明においては、第1の眼底画像に対して垂直方向に眼底画像の撮影位置が異なる第2の眼底画像と,第1の眼底画像に対して水平方向に眼底画像の撮影位置が異なる第3の眼底画像とを抽出するような構成としたが、これに限るものではなく、第1の眼底画像に対して所定方向(第1の方向)に眼底画像の撮影位置が異なる第2の眼底画像と、第1の眼底画像に対して前記第1の方向とは異なる第2の方向に撮影位置が異なる第3の眼底画像とを抽出しても、同様に、輝度ムラ分布の算出が可能である。この場合、第1の方向における位置ずれ情報と第2の方向における位置ずれ情報に基づいて輝度むら分布を求めることができる。   In the above description, the second fundus image in which the photographing position of the fundus image differs in the vertical direction with respect to the first fundus image, and the photographing position of the fundus image in the horizontal direction with respect to the first fundus image. Although the configuration is such that different third fundus images are extracted, the present invention is not limited to this, and the second fundus image shooting position differs in a predetermined direction (first direction) with respect to the first fundus image. The luminance unevenness distribution is calculated in the same manner by extracting the fundus image and the third fundus image having a different shooting position in the second direction different from the first direction with respect to the first fundus image. Is possible. In this case, the luminance unevenness distribution can be obtained based on the positional deviation information in the first direction and the positional deviation information in the second direction.

なお、輝度ムラ分布が撮像光軸L1に対して対称と仮定すれば、2枚の眼底画像から輝度ムラ情報を求めることも可能である。なお、以下の説明では、極座標を用いる。この場合、第2の眼底画像は、第1の眼底画像(補正用基準画像)に対して撮影位置が(Δr、θΔ)だけずれた状態で取得される。   If it is assumed that the luminance unevenness distribution is symmetric with respect to the imaging optical axis L1, it is also possible to obtain luminance unevenness information from two fundus images. In the following description, polar coordinates are used. In this case, the second fundus image is acquired in a state where the shooting position is shifted by (Δr, θΔ) with respect to the first fundus image (reference image for correction).

この場合、第1の画像における画像データをO0(Δr、θΔ)、第2の画像における画像データをOΔ(Δr、θΔ)とすると、先に示したように、輝度ムラ分布が光軸に対して対称の場合、偏角に依存しないので、以下の式14により離散的に分布を得ることができる。 In this case, assuming that the image data in the first image is O 0 (Δr, θΔ) and the image data in the second image is OΔ (Δr, θΔ), as described above, the luminance unevenness distribution is on the optical axis. On the other hand, in the case of symmetry, since it does not depend on the declination, the distribution can be obtained discretely by the following equation (14).

そして、式14により得られたデータより近似曲線を求めることにより、各画素の輝度分布を求めることができる。このように得られた結果を、周知の手法によりXY座標に変換することにより、XY方向における輝度ムラ情報f(x、y)を検出することができる。 Then, the luminance distribution of each pixel can be obtained by obtaining an approximate curve from the data obtained by Expression 14. By converting the obtained result into XY coordinates by a well-known method, luminance unevenness information f (x, y) in the XY direction can be detected.

本実施形態に係る網膜機能計測装置の光学系を示す概略構成図である。It is a schematic block diagram which shows the optical system of the retinal function measuring apparatus which concerns on this embodiment. 本実施形態における網膜機能計測装置の制御系を示したブロック図である。It is the block diagram which showed the control system of the retinal function measuring device in this embodiment. 第1、第2、第3眼底画像について説明する図である。It is a figure explaining a 1st, 2nd, 3rd fundus image. 本実施形態に係る輝度ムラの検出手法について説明する図である。It is a figure explaining the detection method of the brightness nonuniformity which concerns on this embodiment. f(0、nΔy)の各点における輝度ムラ分布を示す図である。It is a figure which shows the brightness | luminance nonuniformity distribution in each point of f (0, n (DELTA) y). 本実施形態に係る輝度ムラの検出手法について説明する図である。It is a figure explaining the detection method of the brightness nonuniformity which concerns on this embodiment. 原点位置を変更した場合の例を示す図である。It is a figure which shows the example at the time of changing an origin position.

符号の説明Explanation of symbols

10 観察照明光学系
10 観察照明光学系
20 撮像光学系
23 撮像素子
30 刺激光照射光学系
31 刺激用光源
70 制御部
72 記憶部
DESCRIPTION OF SYMBOLS 10 Observation illumination optical system 10 Observation illumination optical system 20 Imaging optical system 23 Imaging element 30 Stimulation light irradiation optical system 31 Stimulation light source 70 Control part 72 Storage part

Claims (4)

被検眼の網膜領域を照明する観察照明光学系と、
前記観察照明光学系によって照明された網膜領域からの反射光を受光して眼底画像を得るための撮像素子を有する撮像光学系と、刺激用光源を持ち、該光源から被検眼の網膜領域に可視刺激光を照射して網膜を刺激する刺激光照射光学系と、前記撮像素子からの撮像信号に基づいて取得される眼底画像を記憶する記憶部と、該記憶部に記憶される刺激光照射前の眼底画像と刺激光照射後の眼底画像を比較して演算処理することにより眼底画像の変化情報を取得する変化情報取得手段と、を備えることを網膜機能計測装置において、
前記変化情報取得手段は、
被検眼に対して前記刺激光の照射前に撮影された第1の眼底画像と該第1の眼底画像に対してその撮影位置がずれた第2の眼底画像の少なくとも2枚の眼底画像を用いて画像処理により前記第1の眼底画像に対する第2の眼底画像の位置ずれ情報を取得する位置ずれ情報取得手段と、
抽出された第1の眼底画像上の所定位置における画像データと該所定位置に対応する第2の眼底画像上の所定位置における画像データと,取得された前記位置ずれ情報とに基づいて前記第1の眼底画像上の前記所定位置上の輝度ムラ情報を得て前記所定位置を基準とした前記位置ずれ方向の軸線上における輝度ムラの分布を演算処理により求める輝度ムラ分布取得手段と、
該輝度ムラ分布取得手段によって得られた輝度ムラ分布情報に基づいて前記刺激光照射前と照射後の眼底画像に対してそれぞれシェーディング補正を行うシェーディング補正手段と、
を備え、前記変化情報取得手段はシェーディング補正された前記刺激光照射前と照射後の眼底画像と比較して演算処理することにより眼底画像の変化情報を取得することを特徴とする網膜機能計測装置。
An observation illumination optical system for illuminating the retina region of the eye to be examined;
An imaging optical system having an imaging device for receiving fundus images by receiving reflected light from the retinal region illuminated by the observation illumination optical system, and a stimulation light source, visible from the light source to the retinal region of the eye to be examined A stimulation light irradiation optical system that irradiates stimulation light by stimulating the retina, a storage unit that stores a fundus image acquired based on an imaging signal from the imaging device, and before the stimulation light irradiation stored in the storage unit In the retinal function measuring device, comprising: a change information acquisition unit that acquires change information of the fundus image by performing a calculation process by comparing the fundus image of the fundus image and the fundus image after irradiation with the stimulation light,
The change information acquisition means includes
Using at least two fundus images of a first fundus image captured before irradiation of the stimulation light with respect to the eye to be examined and a second fundus image whose imaging position is shifted with respect to the first fundus image. Misalignment information acquisition means for acquiring misalignment information of the second fundus image with respect to the first fundus image by image processing;
Based on the extracted image data at a predetermined position on the first fundus image, image data at a predetermined position on the second fundus image corresponding to the predetermined position, and the acquired positional deviation information, the first Brightness unevenness distribution acquisition means for obtaining brightness unevenness information on the predetermined position on the fundus image and obtaining a distribution of brightness unevenness on an axis in the positional deviation direction with the predetermined position as a reference;
Shading correction means for performing shading correction on the fundus images before and after the stimulation light irradiation based on the luminance unevenness distribution information obtained by the luminance unevenness distribution acquisition means,
And the change information acquisition means acquires change information of the fundus image by performing arithmetic processing in comparison with the fundus image before and after the stimulation light irradiation subjected to the shading correction. .
請求項1の網膜機能計測装置において、
前記位置ずれ情報取得手段は、
前記刺激光の照射前に前記記憶部に記憶された眼底画像に基づいて第1の眼底画像と,第1の眼底画像に対して第1の方向に眼底画像の撮影位置が異なる第2の眼底画像と,第1の眼底画像に対して前記第1の方向とは異なる第2の方向に眼底画像の撮影位置が異なる第3の眼底画像とを抽出すると共に前記第1及び第2の眼底画像の位置ずれ量及び前記第1及び第3の眼底画像の位置ずれ量を取得し、
前記輝度ムラ分布取得手段は、
第1,第2,第3の眼底画像と,第1及び第2の眼底画像の位置ずれ量と,第1及び第3の眼底画像の位置ずれ量とに基づいて被検眼の眼底画像における輝度ムラの分布を求めることを特徴とする網膜機能計測装置。
In the retinal function measuring device according to claim 1,
The positional deviation information acquisition means includes
The first fundus image is different from the first fundus image based on the fundus image stored in the storage unit before the stimulation light irradiation, and the second fundus is different from the first fundus image in the first direction. An image and a third fundus image in which the photographing position of the fundus image is different in a second direction different from the first direction with respect to the first fundus image, and the first and second fundus images And a positional shift amount of the first and third fundus images,
The luminance unevenness distribution acquisition means includes:
Luminance in the fundus image of the eye to be examined based on the positional deviation amounts of the first, second, and third fundus images, the first and second fundus images, and the positional deviation amounts of the first and third fundus images A retinal function measuring device characterized by obtaining uneven distribution.
請求項2の網膜機能計測装置において、第1眼底画像の画像データを〇0(x、y)、X(水平)方向にΔxだけ移動したときに得られた第3眼底画像の画像データを〇ΔX(x、y)、Y(垂直)方向にΔyだけ移動したときに得られた第2眼底画像の画像データを〇ΔY(x、y)とすると、
輝度ムラf(mΔx、nΔy)は、
または
を用いて演算処理を行うことにより求めることを特徴とする網膜機能計測装置。
3. The retinal function measuring device according to claim 2, wherein the image data of the first fundus image is 0 (x, y), and the image data of the third fundus image obtained by moving Δx in the X (horizontal) direction is 0. Δ X (x, y), when the Y 〇_Deruta image data of the second fundus image obtained when moved to the (vertical) direction by [delta] y Y (x, y),
The luminance unevenness f (mΔx, nΔy) is
Or
A retinal function measuring device characterized in that it is obtained by performing arithmetic processing using a synthesizer.
請求項1の網膜機能計測装置において、第1眼底画像の画像データをO0(Δr、θΔ)、第1の眼底画像に対して撮影位置が(Δr、θΔ)だけ移動したときに得られた第2眼底画像の画像データをOΔ(Δr、θΔ)とすると、
輝度ムラf(mΔr)は、
を用いて演算処理を行うことにより求めることを特徴とする網膜機能計測装置。
In the retinal function measuring device according to claim 1, obtained when the image data of the first fundus image is O 0 (Δr, θΔ) and the photographing position is moved by (Δr, θΔ) with respect to the first fundus image. If the image data of the second fundus image is OΔ (Δr, θΔ),
The luminance unevenness f (mΔr) is
A retinal function measuring device characterized in that it is obtained by performing arithmetic processing using a synthesizer.
JP2007023885A 2007-02-02 2007-02-02 Retina function measuring instrument Withdrawn JP2008188139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007023885A JP2008188139A (en) 2007-02-02 2007-02-02 Retina function measuring instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007023885A JP2008188139A (en) 2007-02-02 2007-02-02 Retina function measuring instrument

Publications (1)

Publication Number Publication Date
JP2008188139A true JP2008188139A (en) 2008-08-21

Family

ID=39748805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007023885A Withdrawn JP2008188139A (en) 2007-02-02 2007-02-02 Retina function measuring instrument

Country Status (1)

Country Link
JP (1) JP2008188139A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011097508A2 (en) * 2010-02-04 2011-08-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011097508A2 (en) * 2010-02-04 2011-08-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics
WO2011097508A3 (en) * 2010-02-04 2011-11-17 University Of Southern California Combined spectral and polarimetry imaging and diagnostics
US8649008B2 (en) 2010-02-04 2014-02-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics

Similar Documents

Publication Publication Date Title
EP2702930A1 (en) Ophthalmic apparatus, method of controlling ophthalmic apparatus and storage medium
GB2524655A (en) Ophthalmologic imaging apparatus and optical unit attachable to the same
GB2521960A (en) Ophthalmologic observation device
US10786153B2 (en) Ophthalmologic imaging apparatus
JP2008295971A (en) Fundus camera
JP2005342107A (en) Perimeter
CN110269588B (en) Ophthalmologic apparatus and control method therefor
JP2011115507A (en) Retinal function measuring apparatus
JP2010259675A (en) Retinal function measuring apparatus
JP4646027B2 (en) Retinal function measuring device
JP6923392B2 (en) Ophthalmic equipment
JP5349210B2 (en) Fundus image processing device
JP5587014B2 (en) Ophthalmic equipment
KR20140009847A (en) Apparatus for ocular and method for measuring treatment position thereof
JP6934747B2 (en) Ophthalmic device and its control method
JP2007319416A (en) Retinal function measurement apparatus
JP2008188139A (en) Retina function measuring instrument
JP7430082B2 (en) Ophthalmological equipment and its operating method
JP2012223428A (en) Ophthalmic apparatus
JP4612396B2 (en) Retinal function measuring device
US9820649B2 (en) Volume measuring device, volume measuring method, and volume measuring program for three-dimensional tomographic image
JP4948905B2 (en) Retinal function measuring device
JP6756873B2 (en) Ophthalmologic imaging equipment
JP2012225826A (en) Interference light measuring apparatus
JP2007319418A (en) Retinal function measurement apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100122

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110323