JP2010172614A - Function imaging ophthalmic apparatus - Google Patents

Function imaging ophthalmic apparatus Download PDF

Info

Publication number
JP2010172614A
JP2010172614A JP2009020836A JP2009020836A JP2010172614A JP 2010172614 A JP2010172614 A JP 2010172614A JP 2009020836 A JP2009020836 A JP 2009020836A JP 2009020836 A JP2009020836 A JP 2009020836A JP 2010172614 A JP2010172614 A JP 2010172614A
Authority
JP
Japan
Prior art keywords
image
comparison
unit
wavelength
stimulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009020836A
Other languages
Japanese (ja)
Inventor
Yoko Hirohara
陽子 広原
Tatsuo Yamaguchi
達夫 山口
Keisuke Yoshida
圭祐 吉田
Toshibumi Mihashi
俊文 三橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2009020836A priority Critical patent/JP2010172614A/en
Publication of JP2010172614A publication Critical patent/JP2010172614A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a function imaging ophthalmic apparatus of time-sequentially comparing comparison events and detecting the reaction of the respective parts of a fundus by stimulation. <P>SOLUTION: The function imaging ophthalmic apparatus 1 includes: an illumination optical system 10 for illuminating the fundus G of an eye E to be examined by the illumination luminous flux of a near-infrared region; a stimulating light irradiation optical system 40 for irradiating the measurement object region of the fundus F with the stimulating luminous flux of a visible region and stimulating it; a wavelength division part 28 for dividing a reflected luminous flux from the fundus F of the illumination luminous flux into the luminous fluxes of a plurality of wavelength regions of the near-infrared region; a light receiving part 30 for receiving the luminous fluxes of the plurality of wavelength regions divided by the wavelength division part 28 at the same timing before and after the stimulation by the stimulating luminous flux; a comparison part 70 provided with a first comparison part 70a for preparing comparison object images from photographed images in the plurality of wavelength regions photographed at the same timing in the light receiving part 30 and a second comparison part 70b for time-sequentially comparing the comparison object images prepared in the first comparison part 70a; and a display part 9 for displaying a compared result in the comparison part 70. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、機能イメージング眼科装置に関する。特に、複数の波長域の撮影画像を用いて刺激による眼の分光特性の変化を測定する機能イメージング眼科装置に関する。   The present invention relates to a functional imaging ophthalmic apparatus. In particular, the present invention relates to a functional imaging ophthalmologic apparatus that measures changes in spectral characteristics of an eye due to stimulation using captured images in a plurality of wavelength ranges.

眼の診断において眼底観察の重要性は疑うまでもない。現在、眼底カメラのカラー眼底像、蛍光造影像などにより眼底を診断して異常所見が見つけ出されている。機能イメージング眼科装置は、眼底カメラを用いて、刺激をしたときの眼底の画像的な変化を解析して眼底、さらに網膜内の細胞などの活性度を知ることができる装置である。これまで、機能イメージング眼科装置の試みとして、眼底反射の強度変化に基づいて解析が行なわれてきた。例えば、光を用いたフラッシュ刺激や電気を用いた強膜1点刺激で機能イメージングを行った例が報告されている。また、刺激により神経系が活性化されると、血液中の酸化ヘモグロビン及び還元ヘモグロビンの濃度、血流、網膜での光散乱が変化することが見出されている。(非特許文献1〜3参照)   Needless to say, the importance of fundus observation in eye diagnosis is unquestionable. Currently, abnormal findings are found by diagnosing the fundus using color fundus images, fluorescence contrast images, etc. of the fundus camera. The functional imaging ophthalmologic apparatus is an apparatus that can detect the activity of the fundus and cells in the retina by analyzing image changes of the fundus when stimulated using a fundus camera. Until now, analysis has been performed based on changes in the intensity of fundus reflection as an attempt at functional imaging ophthalmologic apparatuses. For example, examples of performing functional imaging with flash stimulation using light and scleral single-point stimulation using electricity have been reported. It has also been found that when the nervous system is activated by stimulation, the concentrations of oxyhemoglobin and deoxyhemoglobin in blood, blood flow, and light scattering in the retina are changed. (See Non-Patent Documents 1 to 3)

ところで、例えば、撮影時間を20秒程度継続すると、この間、眼と装置のアライメントが変化するため、各分光画像間には撮像された同一部分に位置ずれが生じるという問題があった。そこで、発明者達は、時間変化による眼と装置のアライメントの変化が生じても、各分光画像間の同一部分の位置ずれを解消できる分光眼底画像データ測定装置及びその測定方法を提案した。また、分光眼底画像から各部分を分光特性に基づいて容易かつ高精度に特定できる分光眼底測定装置及びその測定方法を提案した。さらに、発明者達は、これらの文献において、酸化ヘモグロビン及び還元ヘモグロビンの吸光感度(吸収光量)が波長依存性を有することから網膜の酸素飽和度を解析した。(特許文献1、2参照)   By the way, for example, if the photographing time is continued for about 20 seconds, the alignment between the eye and the apparatus changes during this time, so that there is a problem that the same imaged portion is displaced between the spectral images. Therefore, the inventors have proposed a spectral fundus image data measurement apparatus and a measurement method thereof that can eliminate the positional shift of the same portion between the spectral images even when the alignment between the eye and the apparatus changes with time. In addition, a spectroscopic fundus measuring device and a measuring method thereof that can easily and accurately specify each part from a spectroscopic fundus image based on spectral characteristics have been proposed. Furthermore, the inventors analyzed the oxygen saturation of the retina in these documents because the absorption sensitivity (absorbed light amount) of oxyhemoglobin and reduced hemoglobin has wavelength dependency. (See Patent Documents 1 and 2)

特開2006−158547号公報(段落0029〜0082、図1〜図21)JP 2006-158547 A (paragraphs 0029 to 0082, FIGS. 1 to 21) 特開2007−330557号公報(段落0024〜0061、図1〜図12)JP 2007-330557 A (paragraphs 0024 to 0061, FIGS. 1 to 12)

Kazushige Tsunoda,Yoshihisa Oguchi,Gen Hanazono,and Manabu Tanifuji “Mapping Cone−and Rod−Induced Retinal Responsiveness in Macaque Retina by Optical Imaging” Invest.Ophthalmol.Vis.Sci.2004 45:3820−3826.Kazushige Tsunoda, Yoshihisa Oguchi, Gen Hanazono, and Manabu Tanifuji “Mapping Cone-and Rod-Induced Retinal Responses in Rinetin Reverbet. Ophthalmol. Vis. Sci. 2004 45: 3820-3826. 角田和繁 「総説:網膜神経活動のイメージング 網膜内因性信号計測法:Functional Retinography(FRG)」 視覚の科学,2008年 29巻1号Kazuhito Tsunoda “Review: Imaging of Retinal Nerve Activity Retinal Signal Measurement: Functional Retinography (FRG)” Science of Vision, Vol. 29, No. 1, 2008 Yoshitaka Okawa,Takashi Fujikado,Tomomitsu Miyoshi,Hajime Sawai,Shunji Kusaka,Toshifumi Mihashi,Yoko Hirohara,and Yasuo Tano “Optical Imaging to Evaluate Retinal Activation by Electrical Currents Using Suprachoroidal−Transretinal Stimulation” Invest.Ophthalmol.Vis.Sci.2007 48:4777−4784.Yoshitaka Okawa, Takashi Fujikado, Tomomitsu Miyoshi, Hajime Sawai, Shunji Kusaka, Toshifumi Mihashi, Yoko Hirohara, and Yasuo Tano "Optical Imaging to Evaluate Retinal Activation by Electrical Currents Using Suprachoroidal-Transretinal Stimulation" Invest. Ophthalmol. Vis. Sci. 2007 48: 4777-4784.

しかしながら、従来の眼底反射の強度変化や酸素飽和度の静的な絶対値測定のみでは、眼底での酸素飽和度や、網膜内に分布する物質の成分量の刺激に対する時間的な変化を定量的に測定できておらず、臨床に役立てるには不十分であった。すなわち、これらの時間的な変化を定量的に測定できれば、網膜細部の活性がより詳細に分かる可能性があり、臨床的にも大いに役立つと考えられる。特に、複数の波長域の撮影画像を時系列的に、例えば、光刺激による酸素飽和度の分光分布を時系列的に測定することにより、光刺激による網膜内の物質の反応を分析できるようになり、また、分光分布が分かれば、分光画像から網膜内の成分分析ができ、眼の診断に役立てられる可能性が高い。そこで、酸素飽和度等の比較事象を時系列的に比較することが可能であり、刺激による眼底の各部分の反応を検知できる機能イメージング眼科装置を提供することを本発明の第1の目的とする。   However, only changes in the intensity of the fundus reflex and the static absolute value of oxygen saturation can be used to quantify temporal changes in response to stimulation of the oxygen saturation in the fundus and the amount of components in the retina. However, it was not sufficient for clinical use. That is, if these temporal changes can be measured quantitatively, the activity of the retinal details can be understood in more detail, and it is considered that it will be greatly useful clinically. In particular, it is possible to analyze the reaction of substances in the retina by light stimulation by measuring captured images in a plurality of wavelength ranges in time series, for example, by measuring the spectral distribution of oxygen saturation due to light stimulation in time series. In addition, if the spectral distribution is known, component analysis in the retina can be performed from the spectral image, which is likely to be useful for eye diagnosis. Accordingly, it is a first object of the present invention to provide a functional imaging ophthalmologic apparatus capable of comparing comparative events such as oxygen saturation in a time series and detecting the reaction of each part of the fundus due to stimulation. To do.

また、眼底画像における血管部分等は周囲との差異があまり明瞭といえず、これら特定部分を明瞭に抽出できる技術が求められている。そこで、より明瞭に血管部分等の特定部分を抽出できるような機能イメージング眼科装置を提供することを本発明の第2の目的とする。   In addition, the blood vessel portion in the fundus image is not so distinct from the surroundings, and a technique that can clearly extract these specific portions is required. Accordingly, it is a second object of the present invention to provide a functional imaging ophthalmologic apparatus that can extract a specific portion such as a blood vessel portion more clearly.

また、時間の変化に伴い眼と装置のアライメントが変化するので、眼底の経時変化を測定する場合、異なる時間に撮影された撮影画像から同一部分を効率良く抽出するのが困難であるという問題があった。そこで、異なる時間に撮影された撮影画像から同一部分を効率良く抽出できる機能イメージング眼科装置を提供することを本発明の第3の目的とする。   In addition, since the alignment between the eye and the device changes with time, when measuring the temporal change of the fundus, it is difficult to efficiently extract the same part from captured images taken at different times. there were. Accordingly, it is a third object of the present invention to provide a functional imaging ophthalmologic apparatus that can efficiently extract the same portion from captured images taken at different times.

上記課題を解決するために、本発明の第1の態様の機能イメージング眼科装置1は、例えば図1に示すように、近赤外域の照明光束で、被検眼Eの眼底Fを照明する照明光学系10と、可視域の刺激光束で眼底Fの測定対象領域を照射して刺激する刺激光照射光学系40と、照明光束の眼底Fからの反射光束を、近赤外域の複数の波長域の光束に分割する波長分割部28と、刺激光束での刺激の前後において、波長分割部28で分割された複数の波長域の光束を同じタイミングで受光する受光部30と、受光部30で同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成する第1比較部70aと、第1比較部70aで作成された比較対象画像を時系列的に比較する第2比較部70bとを有する比較部70と、比較部70での比較結果を表示する表示部9とを備える。   In order to solve the above-described problem, the functional imaging ophthalmologic apparatus 1 according to the first aspect of the present invention illuminates the fundus F of the eye E with an illumination light beam in the near infrared region as shown in FIG. The system 10, the stimulation light irradiation optical system 40 for irradiating the measurement target region of the fundus F with the stimulation light beam in the visible region, and the reflected light beam from the fundus F of the illumination light beam in a plurality of wavelength regions in the near infrared region. The wavelength division unit 28 that divides the light beam, the light receiving unit 30 that receives the light beams in a plurality of wavelength regions divided by the wavelength division unit 28 at the same timing before and after the stimulation with the stimulation light beam, and the same timing in the light receiving unit 30 The first comparison unit 70a that creates a comparison target image from the captured images in a plurality of wavelength ranges photographed in Step 2 and the second comparison unit 70b that compares the comparison target image created by the first comparison unit 70a in time series. A comparison unit 70 having And a display unit 9 for displaying the comparison result in zero.

ここにおいて、複数の波長域の光束はそれぞれ単一波長に特定した光束でも良く、波長範囲を有する光束でも良い。なお、波長範囲を有する光束の場合の撮影画像から得られる検出結果は波長に対して平均的な値となる。また、刺激の後には刺激中を含んでも良い(刺激中は開始時の刺激後に該当する)。また、比較対象画像とは、例えば酸素飽和度画像のような特定の物性に注目して時間的、空間的又は分光的に比較する価値のある画像をいう。波長の異なる撮影画像間の差画像も、波長により変化する部分を抽出できるので、比較対象画像になりうる。本態様のように構成すると、酸素飽和度等の比較事象を時系列的に比較することが可能であり、刺激による眼底の各部分の反応を検知できる機能イメージング眼科装置を提供できる。ここでの反応は典型的には、酸素飽和度の変化をいうが、その他、血流の変化、網膜での光散乱の変化、瞬き、出涙等も含まれる。   Here, the light beams in a plurality of wavelength ranges may be light beams specified as a single wavelength, or may be light beams having a wavelength range. In addition, the detection result obtained from the captured image in the case of a light beam having a wavelength range is an average value with respect to the wavelength. Further, stimulation may include after stimulation (stimulation corresponds to after stimulation at the start). The comparison target image refers to an image that is worth comparing temporally, spatially, or spectroscopically by paying attention to specific physical properties such as an oxygen saturation image. A difference image between captured images having different wavelengths can also be a comparison target image because a portion that varies depending on the wavelength can be extracted. With this configuration, it is possible to compare comparative events such as oxygen saturation in time series, and provide a functional imaging ophthalmologic apparatus that can detect the reaction of each part of the fundus due to stimulation. The reaction here typically refers to a change in oxygen saturation, but also includes a change in blood flow, a change in light scattering in the retina, blinking, tearing, and the like.

また、本発明の第2の態様の機能イメージング眼科装置1は、例えば図1に示すように、近赤外域の照明光束で、被検眼Eの眼底Fを照明する照明光学系10と、可視域の刺激光束で眼底Fの測定対象領域を照射して刺激する刺激光照射光学系40と、照明光束の眼底Fからの反射光束を、近赤外域の複数の波長域の光束に分割する波長分割部28と、刺激光束での刺激の前後において、波長分割部28で分割された複数の波長域の光束を同じタイミングで受光する受光部30と、受光部30で同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成する比較部70と、比較対象画像を表示する表示部9とを備える。   The functional imaging ophthalmologic apparatus 1 according to the second aspect of the present invention includes an illumination optical system 10 that illuminates the fundus F of the eye E with an illumination light beam in the near infrared region, as shown in FIG. Stimulation light irradiation optical system 40 for irradiating the measurement target area of the fundus F with a stimulation light beam and wavelength division for dividing the reflected light beam from the fundus F of the illumination light beam into light beams in a plurality of near-infrared wavelength regions A light receiving unit 30 that receives light beams in a plurality of wavelength regions divided by the wavelength division unit 28 at the same timing before and after stimulation with the stimulation light beam, and a plurality of images that are captured by the light receiving unit 30 at the same timing. A comparison unit 70 that creates a comparison target image from a captured image in the wavelength band and a display unit 9 that displays the comparison target image are provided.

本態様のように構成すると、同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像として酸素飽和度画像等を作成できる。また、比較対象画像として、酸化ヘモグロビンの感度が高い波長と還元ヘモグロビンの感度が高い波長の差画像を作成することにより、血管部分を明瞭に抽出できる。すなわち、差画像では波長により吸光感度が変化する部分を選択的に抽出できるので、例えば血管(動脈、静脈)部分を低バックグラウンドノイズで抽出できる。   If comprised like this aspect, an oxygen saturation image etc. can be created as a comparison object image from the picked-up image in the several wavelength range image | photographed at the same timing. In addition, a blood vessel portion can be clearly extracted by creating a difference image between a wavelength with high sensitivity of oxyhemoglobin and a wavelength with high sensitivity of reduced hemoglobin as a comparison target image. That is, in the difference image, the part where the light absorption sensitivity varies depending on the wavelength can be selectively extracted, so that the blood vessel (artery, vein) part can be extracted with low background noise, for example.

また、本発明の第3の態様の機能イメージング眼科装置1は、例えば図1に示すように、近赤外域の照明光束で、被検眼Eの眼底Fを照明する照明光学系10と、可視域の刺激光束で眼底Fの測定対象領域を照射して刺激する刺激光照射光学系40と、照明光束の眼底Fからの反射光束を受光する受光部30と、受光部30で複数の時間に撮影された撮影画像又は前記撮影画像を基に作成された画像を時系列的に比較する比較部70と、比較部での比較結果を表示する表示部9とを備える。
本態様のように構成すると、光刺激による撮影画像の経時変化から眼底中の各部分の反応を検知できる。
The functional imaging ophthalmologic apparatus 1 according to the third aspect of the present invention includes an illumination optical system 10 that illuminates the fundus F of the eye E with an illumination light beam in the near infrared region, as shown in FIG. The stimulation light irradiation optical system 40 that irradiates and stimulates the measurement target region of the fundus F with the stimulation light beam, the light receiving unit 30 that receives the reflected light beam from the fundus F of the illumination light beam, and the light receiving unit 30 shoots at a plurality of times. A comparison unit 70 that compares the captured image or an image created based on the captured image in time series, and a display unit 9 that displays a comparison result of the comparison unit.
If comprised like this aspect, the reaction of each part in a fundus can be detected from the time-dependent change of the photographed image by light stimulation.

また、本発明の第4の態様は、第1の態様又は第2の態様の機能イメージング眼科装置において、比較対象画像は、複数の波長域での撮影画像から作成された酸素飽和度画像である。
このように構成すると、被検眼について酸素飽和度を用いた解析が可能になる。これにより、網膜の活動部位や、糖尿病性網膜症による血管の障害を特定できる。
According to a fourth aspect of the present invention, in the functional imaging ophthalmologic apparatus according to the first aspect or the second aspect, the comparison target image is an oxygen saturation image created from captured images in a plurality of wavelength ranges. .
If comprised in this way, the analysis using oxygen saturation will be attained about the eye to be examined. Thereby, the active site | part of a retina and the disorder | damage | failure of the blood vessel by diabetic retinopathy can be specified.

また、本発明の第5の態様は、第1の態様又は第2の態様の機能イメージング眼科装置において、比較対象画像は、複数の波長域のうち2波長域での撮影画像間の差画像である。
このように構成すると、差画像を作成することにより、波長により吸光感度が変化しない部分を除去した画像が得られるので、波長により吸光感度が変化する部分、例えば血管(動脈、静脈)を低バックグラウンドノイズで抽出できる。
Further, according to a fifth aspect of the present invention, in the functional imaging ophthalmologic apparatus according to the first aspect or the second aspect, the comparison target image is a difference image between captured images in two wavelength regions among a plurality of wavelength regions. is there.
With this configuration, by creating a difference image, it is possible to obtain an image in which a part where the light absorption sensitivity does not change depending on the wavelength is obtained. Therefore, a portion where the light absorption sensitivity changes depending on the wavelength, for example, blood vessels (arteries, veins) is low-backed. Can be extracted with ground noise.

また、本発明の第6の態様は、第1の態様又は第3の態様の機能イメージング眼科装置において、比較部70での比較結果から刺激光束での刺激による被検眼Eの反応を解析する画像解析部75を備える。
ここにおいて、画像解析部75が解析する反応には、例えば神経節細胞の活性化、糖尿病性網膜症による血管の障害に対する動的な反応が含まれる。このように構成すると、光刺激による被検眼の反応を解析でき、被検眼の治療に応用できる可能性がある。
In addition, according to a sixth aspect of the present invention, in the functional imaging ophthalmologic apparatus according to the first aspect or the third aspect, an image for analyzing a reaction of the eye E by stimulation with a stimulation light beam from a comparison result in the comparison unit 70 An analysis unit 75 is provided.
Here, the reaction analyzed by the image analysis unit 75 includes, for example, activation of a ganglion cell and a dynamic reaction to a blood vessel disorder due to diabetic retinopathy. If comprised in this way, the reaction of the eye to be examined by light stimulation can be analyzed, and there is a possibility that it can be applied to the treatment of the eye to be examined.

また、本発明の第7の態様は、第1の態様又は第2の態様のいずれかの機能イメージング眼科装置において、複数の波長域のうち第1波長域と第2波長域は、血液の酸化ヘモグロビンと還元ヘモグロビンの分光濃度特性の交点を挟んで設定されている。
このように構成すると、酸化ヘモグロビンに敏感な波長域(第2波長域)と還元ヘモグロビンに敏感な波長域(第1波長域)を利用するので、その比較データから動脈、静脈をクリアに検出でき、また区分できる。また、上記2波長域を含む3以上の波長域を用いると、吸収光量パターンを良く反映した酸素飽和度画像を作成できるので好適である。
According to a seventh aspect of the present invention, in the functional imaging ophthalmic apparatus according to the first aspect or the second aspect, the first wavelength region and the second wavelength region of the plurality of wavelength regions are blood oxidations. It is set across the intersection of the spectral density characteristics of hemoglobin and reduced hemoglobin.
With this configuration, since the wavelength range sensitive to oxyhemoglobin (second wavelength range) and the wavelength range sensitive to reduced hemoglobin (first wavelength range) are used, arteries and veins can be clearly detected from the comparison data. Can also be segmented. In addition, it is preferable to use three or more wavelength regions including the two wavelength regions because an oxygen saturation image that well reflects the absorbed light amount pattern can be created.

また、本発明の第8の態様は、第7の態様の機能イメージング眼科装置において、第1波長域は730ないし780nmであり、第2波長域は820ないし880nmである。
このように構成すると、第1波長域及び第2波長域での酸化ヘモグロビンと還元ヘモグロビンの吸収光量差は大きいので好適である。第1波長域を750ないし770nm、第2波長域を850ないし870nmとすると、吸収光量差はさらに大きくなるのでより好適である。
According to an eighth aspect of the present invention, in the functional imaging ophthalmologic apparatus according to the seventh aspect, the first wavelength range is 730 to 780 nm, and the second wavelength range is 820 to 880 nm.
Such a configuration is preferable because the difference in the amount of absorbed light between oxyhemoglobin and reduced hemoglobin in the first wavelength region and the second wavelength region is large. If the first wavelength range is 750 to 770 nm and the second wavelength range is 850 to 870 nm, the difference in absorbed light amount is further increased, which is more preferable.

また、本発明の第9の態様は、第1の態様ないし第8の態様のいずれかの機能イメージング眼科装置において、例えば図5に示すように、刺激光束は絞り又はスリットにより測定対象領域に照射される。
このように構成すると、眼底の特定の領域の解析が可能になる。
The ninth aspect of the present invention is the functional imaging ophthalmologic apparatus according to any one of the first to eighth aspects. For example, as shown in FIG. Is done.
With this configuration, a specific region of the fundus can be analyzed.

また、本発明の第10の態様の眼機能画像解析方法は、例えば図2に示すように、近赤外域の照明光束で、被検眼Eの眼底Fを照明する照明工程(S100)と、可視域の刺激光束で眼底Fの測定対象領域を照射して刺激する刺激光照射工程(S110)と、照明光束の眼底Fからの反射光束を、近赤外域の複数の波長域の光束に分割する波長分割工程(S120)と、刺激光照射工程(S110)での刺激の前後において、波長分割工程(S120)で分割された複数の波長域の光束を同じタイミングで受光する受光工程(S130)と、受光工程(S130)で同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成する第1比較工程(S150)と、第1比較工程(S150)で作成された比較対象画像を時系列的に比較する第2比較工程(S170)と、第2比較工程(S170)での比較結果を表示する表示工程(S175)とを備える。
このように構成すると、酸素飽和度等の比較事象を時系列的に比較することが可能であり、刺激による眼底の各部分の反応を検知できる眼機能画像解析方法を提供できる
Further, the eye function image analysis method according to the tenth aspect of the present invention includes an illumination step (S100) for illuminating the fundus F of the eye E with an illumination light beam in the near infrared region, for example, as shown in FIG. A stimulating light irradiation step (S110) for irradiating the measurement target area of the fundus F with a stimulating luminous flux in a region, and a reflected luminous flux from the fundus F of the illuminating luminous flux is divided into luminous fluxes in a plurality of wavelength regions in the near infrared region. A wavelength splitting step (S120), and a light receiving step (S130) for receiving light beams in a plurality of wavelength regions split in the wavelength splitting step (S120) at the same timing before and after stimulation in the stimulation light irradiation step (S110). The comparison object created in the first comparison process (S150) and the first comparison process (S150) for creating the comparison object image from the photographed images in the plurality of wavelength regions photographed at the same timing in the light receiving process (S130) Time series To comprise a second comparison step of comparing (S170), and a display step of displaying the comparison result (S175) in the second comparison step (S170).
With this configuration, it is possible to compare comparative events such as oxygen saturation in a time series, and provide an ophthalmic function image analysis method that can detect the reaction of each part of the fundus due to stimulation.

本発明の1態様によれば、同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成して、時系列的に比較する比較部を備えることにより、比較事象を時系列的に比較することが可能であり、刺激による眼底の各部分の反応を検知できる機能イメージング眼科装置を提供できる。
また、本発明の別の態様によれば、波長域の異なる複数の撮影画像を利用して、明瞭に血管部分等の特定部分を抽出できるような機能イメージング眼科装置を提供できる。
また、本発明のさらに別の態様によれば、異なる時間に撮影された撮影画像から同一部分を効率良く抽出するマスクを形成することにより、同一部分を効率良く抽出できる機能イメージング眼科装置を提供できる。
According to one aspect of the present invention, a comparison event is created in a time series by creating a comparison target image from captured images in a plurality of wavelength ranges taken at the same timing, and comparing them in a time series. It is possible to provide a functional imaging ophthalmologic apparatus that can detect the reaction of each part of the fundus caused by stimulation.
Further, according to another aspect of the present invention, it is possible to provide a functional imaging ophthalmologic apparatus that can clearly extract a specific portion such as a blood vessel portion using a plurality of captured images having different wavelength ranges.
According to still another aspect of the present invention, it is possible to provide a functional imaging ophthalmologic apparatus that can efficiently extract the same portion by forming a mask that efficiently extracts the same portion from captured images taken at different times. .

実施例1における機能イメージング眼科装置の構成例を示す図である。1 is a diagram illustrating a configuration example of a functional imaging ophthalmologic apparatus in Embodiment 1. FIG. 実施例1における機能イメージング眼科装置を用いた眼機能画像解析方法の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of the eye function image analysis method using the functional imaging ophthalmologic apparatus in Example 1. FIG. 酸化、還元ヘモグロビンの吸収光量の例を示す図である。It is a figure which shows the example of the absorbed light quantity of oxidation and reduction | restoration hemoglobin. 画像処理部における画像取得の処理フローを詳細に例示する図である。It is a figure which illustrates in detail the processing flow of the image acquisition in an image process part. 眼底画像のヘモグロビン濃度の経時変化の解析フローの例を示す図である。It is a figure which shows the example of the analysis flow of the time-dependent change of the hemoglobin density | concentration of a fundus image. 第1のCCDカメラ及び第2のCCDカメラで撮影した撮影画像から作成した酸素飽和度画像の時間的変化の例を示す図である。It is a figure which shows the example of the time change of the oxygen saturation image produced from the picked-up image image | photographed with the 1st CCD camera and the 2nd CCD camera. マスク形成の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of mask formation. 時間t1で撮影された撮影画像P1と時間t2で撮影された撮影画像P2を並べて示す図である。It is a figure which shows side by side the picked-up image P1 image | photographed at time t1, and the picked-up image P2 image | photographed at time t2. 時間t1で撮影された撮影画像P1から測定対象領域を抽出するための基準マスクを示す図である。It is a figure which shows the reference | standard mask for extracting a measurement object area | region from the picked-up image P1 image | photographed at time t1. 撮影画像P2から測定対象領域を抽出するための抽出マスクを示す図である。It is a figure which shows the extraction mask for extracting a measurement object area | region from the picked-up image P2. 抽出された基準マスク領域の例を示す図である。It is a figure which shows the example of the extracted reference | standard mask area | region. 加工処理の流れの例を示す図である。It is a figure which shows the example of the flow of a process. 変換パラメータ算出及び抽出マスク形成の処理フローの例を示す図である。It is a figure which shows the example of the processing flow of conversion parameter calculation and extraction mask formation. 実施例4における機能イメージング眼科装置を用いた眼機能画像解析方法の処理フロー例を示す図である。FIG. 10 is a diagram illustrating a processing flow example of an eye function image analysis method using the functional imaging ophthalmologic apparatus according to the fourth embodiment. 実施例5における機能イメージング眼科装置を用いた眼機能画像解析方法の処理フロー例を示す図である。FIG. 10 is a diagram illustrating a processing flow example of an eye function image analysis method using the functional imaging ophthalmologic apparatus according to the fifth embodiment. 実施例9における画像処理部の構成例を示す図である。FIG. 20 is a diagram illustrating a configuration example of an image processing unit according to a ninth embodiment.

以下、図面に基き本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施例1では、眼底に可視光を照射して光刺激を与え、反射光束を2波長域に分割して受光し、第1比較モード及び第2比較モードを実行する例を説明する。また、第1比較モードにおいて、撮影画像から酸素飽和度画像を作成する例を、第2比較モードにおいて、画像処理により、眼底の測定対象領域を抽出するためにマスクを形成し、マスクにより抽出された測定対象領域の酸素飽和度画像を時系列的に比較する例を説明する。   In the first embodiment, an example will be described in which visible light is irradiated to the fundus to give a light stimulus, the reflected light beam is divided into two wavelength regions and received, and the first comparison mode and the second comparison mode are executed. In addition, in the first comparison mode, an example in which an oxygen saturation image is created from a captured image is formed by extracting a mask in order to extract a measurement target region of the fundus by image processing in the second comparison mode. An example in which the oxygen saturation images of the measurement target regions are compared in time series will be described.

[装置構成]
図1に、本実施例における機能イメージング眼科装置1の構成例を示す。図1において、機能イメージング眼科装置1は、眼底カメラ部2、トップハウジング部3、記憶部6、画像処理部7、制御部8、表示部9に大別される。眼底カメラ部2は、主として被検眼Eの眼底Fを照明するための照明光学系10、眼底Fからの反射光束を受光して受光部(撮像カメラ)30の受光面に眼底像を形成する受光光学系20の前段部、検眼者が眼底Fを観察する照射光の眼底Fへの照射位置をアライメントするためのアライメント光学系50の光源51、検眼者が被検眼Eを観察するためのファインダー光学系60等を備える。トップハウジング部3は、主として被検眼Eの眼底Fに刺激光を照射するための光刺激光学系40、眼底Fからの反射光束を受光して撮像カメラの受光面に眼底像を形成する受光光学系20の後段部、アライメント光学系50の受光部を備える。また、受光光学系20の後段部は反射光束を近赤外域の複数の波長域の光束に分割する波長分割部28と波長分割部28で分割された複数の波長域の光束を同じタイミングで受光する受光部30を有する。本実施例では、波長分割部28は2波長域に分割するものとし、受光光学系20は、第1波長域の光束を受光して撮像する第1の受光光学系20Aと第2波長域の光束を受光して撮像する第2の受光光学系20Bを有する。また、受光部30は第1波長域の光束を撮像する第1受光部としての第1のCCDカメラ31、第2波長域の光束を撮像する第2受光部としての第2のCCDカメラ32を有する。また、アライメント光学系50の受光部は第3のCCDカメラ54を有する。なお、これらの受光部としてCCDカメラ以外の撮像カメラも使用可能である。また、図1中、c1〜c3は制御信号、d1〜d3は撮影画像信号の接続を示す。
[Device configuration]
In FIG. 1, the structural example of the functional imaging ophthalmic apparatus 1 in a present Example is shown. In FIG. 1, the functional imaging ophthalmologic apparatus 1 is roughly divided into a fundus camera unit 2, a top housing unit 3, a storage unit 6, an image processing unit 7, a control unit 8, and a display unit 9. The fundus camera unit 2 mainly receives an illumination optical system 10 for illuminating the fundus F of the eye E, and receives light reflected from the fundus F to form a fundus image on the light receiving surface of the light receiving unit (imaging camera) 30. The front stage of the optical system 20, the light source 51 of the alignment optical system 50 for aligning the irradiation position of the irradiation light to the fundus F when the examiner observes the fundus F, and the finder optical for the examiner to observe the eye E A system 60 and the like are provided. The top housing portion 3 mainly includes a light stimulation optical system 40 for irradiating the fundus F of the eye E to be examined, and light receiving optics for receiving a reflected light beam from the fundus F and forming a fundus image on the light receiving surface of the imaging camera. The rear stage part of the system 20 and the light receiving part of the alignment optical system 50 are provided. The rear stage of the light receiving optical system 20 receives the reflected light flux into a plurality of wavelength regions divided by the wavelength dividing unit 28 and the wavelength dividing unit 28 at the same timing. It has the light-receiving part 30 to do. In this embodiment, the wavelength dividing unit 28 is divided into two wavelength regions, and the light receiving optical system 20 receives the first light receiving optical system 20A that receives the light beam in the first wavelength region and images it, and the second wavelength region. It has the 2nd light reception optical system 20B which light-receives and images. The light receiving unit 30 includes a first CCD camera 31 as a first light receiving unit that images a light beam in the first wavelength region, and a second CCD camera 32 as a second light receiving unit that images a light beam in the second wavelength region. Have. The light receiving unit of the alignment optical system 50 includes a third CCD camera 54. An imaging camera other than a CCD camera can be used as the light receiving unit. In FIG. 1, c1 to c3 indicate control signal connections, and d1 to d3 indicate connection of captured image signals.

照明光学系10は、近赤外域の照明光束で、被検眼Eの眼底Fを照明する。眼底カメラ部2において、照明光源としてのハロゲンランプ11、コンデンサーレンズ12、分光特性補正フィルタ13、絞り板14、反射鏡15、リレーレンズ16、ビームスプリッター17、対物レンズ18を照射光軸上に順次配置してなる。ここで、ハロゲンランプ11はコンデンサーレンズ12の前側焦点位置付近に配置されている。ハロゲンランプ11は、照射光が可視光から赤外線領域にわたる波長範囲を連続的にカバーしており、また、撮影を時系列で行うために30秒程度の連続点灯が可能であり、また、CCDの進歩によりフラッシュを使用しなくても画像が取得できるようになった。また、分光特性補正フィルタ13は、照明光束を近赤外域(例えば波長730nm〜1μm)の範囲に限定する。なお、光源の輝度や撮像カメラの感度等の波長依存性を考慮してなるべく均質な撮影画像が得られるように光の透過率を補正する特性を持たせても良い。絞り板14はビームスプリッター17と共役となるように配置されている。
照明光学系10は、さらに、ビームスプリッター17からの反射光束を対物レンズ18を通して被検眼Eの眼底Fを照明する。このビームスプリッター17は近赤外域の光を反射し、可視域の光を透過する。ビームスプリッター17と被検眼Eの間は、照明光学系10と受光光学系20との共通光学系をなしている。
The illumination optical system 10 illuminates the fundus F of the eye E with an illumination light beam in the near infrared region. In the fundus camera unit 2, a halogen lamp 11 as an illumination light source, a condenser lens 12, a spectral characteristic correction filter 13, a diaphragm plate 14, a reflecting mirror 15, a relay lens 16, a beam splitter 17, and an objective lens 18 are sequentially arranged on the irradiation optical axis. Arranged. Here, the halogen lamp 11 is disposed near the front focal position of the condenser lens 12. The halogen lamp 11 continuously covers the wavelength range of the irradiation light from the visible light to the infrared region, and can be continuously lit for about 30 seconds to perform photographing in time series. Progress has made it possible to acquire images without using a flash. Moreover, the spectral characteristic correction filter 13 limits the illumination light beam to a near-infrared range (for example, a wavelength of 730 nm to 1 μm). Note that the light transmittance may be corrected so as to obtain a photographed image that is as homogeneous as possible in consideration of wavelength dependency such as the brightness of the light source and the sensitivity of the imaging camera. The diaphragm plate 14 is disposed so as to be conjugate with the beam splitter 17.
The illumination optical system 10 further illuminates the fundus F of the eye E through the objective lens 18 with the reflected light beam from the beam splitter 17. The beam splitter 17 reflects near-infrared light and transmits visible light. Between the beam splitter 17 and the eye E to be examined, a common optical system of the illumination optical system 10 and the light receiving optical system 20 is formed.

受光光学系20は、照明光束の眼底Fからの反射光束を、近赤外域の第1波長域の光束と第2波長域の光束に分割する波長分割部28と、刺激光束での刺激の前後において、波長分割部28で分割された第1波長域の光束を受光する第1受光部20Aと、第2波長域の光束を受光する第2受光部20Bとを有する。眼底カメラ部2内において、被検眼Eを通る反射光軸上に、対物レンズ18、ビームスプリッター17、アイリス絞り板21、合焦レンズ22、結像レンズ23、反射鏡24、切り替えミラー25を順次配置してなり、トップハウジング部3の受光光学系に接続される。アイリス絞り板21は被検眼Eの瞳と共役な位置に配置されている。切り替えミラー25は通常は受光光学系20の光路外に配置されるが、観察者が被検眼Eの観察を欲する時には、例えばソレノイドを用いて切り替えミラー25を受光光学系20の光路に挿入し、ファインダー系60に光路を切り替えて目視によるアライメントを可能にする。   The light receiving optical system 20 includes a wavelength division unit 28 that divides the reflected light beam from the fundus F of the illumination light beam into a light beam in the first wavelength region in the near infrared region and a light beam in the second wavelength region, and before and after stimulation with the stimulation light beam. The first light receiving unit 20A that receives the light beam in the first wavelength region divided by the wavelength division unit 28 and the second light receiving unit 20B that receives the light beam in the second wavelength region. In the fundus camera unit 2, the objective lens 18, the beam splitter 17, the iris diaphragm plate 21, the focusing lens 22, the imaging lens 23, the reflecting mirror 24, and the switching mirror 25 are sequentially arranged on the reflected optical axis passing through the eye E to be examined. The light receiving optical system of the top housing part 3 is connected. The iris diaphragm plate 21 is disposed at a position conjugate with the pupil of the eye E to be examined. The switching mirror 25 is normally arranged outside the optical path of the light receiving optical system 20, but when the observer wants to observe the eye E, for example, the switching mirror 25 is inserted into the optical path of the light receiving optical system 20 using a solenoid, for example. The optical path is switched to the finder system 60 to enable visual alignment.

受光光学系20は、トップハウジング部3において、被検眼Eからの反射光軸上にフィールドレンズ26、ダイクロイックミラー27が配置され、ダイクロイックミラー27は、光刺激光学系40の可視域の光(例えば400nm〜720nm)と長波長の近赤外域の光(例えば920nm〜1μm)を透過し、第1波長域(例えば730nm〜780nm)から第2波長域(例えば820nm〜880nm)にわたる近赤外域の光を反射させる。ダイクロイックミラー27からの反射光束の光軸上にさらに波長分割部としてのダイクロイックミラー28が配置され、ダイクロイックミラー28は第1波長域(例えば730nm〜780nm)の光束を透過させ、第2波長域(例えば820nm〜880nm)の光束を反射させる。第1波長域と第2波長域は、後述するように血液の酸化ヘモグロビンHbOと還元ヘモグロビンHbの分光濃度特性の交点を挟んで設定されている(図3参照)。ダイクロイックミラー28を透過した第1波長域の光束の光軸上にフィルタ34、結像レンズ35、第1の撮像部としての第1のCCDカメラ31が配置されている。ダイクロイックミラー28から反射した第2波長域の光束の光軸上にフィルタ36、結像レンズ37、第2の撮像部としての第2のCCDカメラ32が配置されている。また、第1のCCDカメラ31及び第2のCCDカメラ32の受光面は眼底像が形成されるように、被検眼Eの眼底Fと共役となるように配置されている。CCDカメラ31,32は可視光から近赤外領域まで幅広い波長に感度があり、例えば130万画素(1344×1024)の高精細画像を得られ、高速(約8フレーム/秒)、低ノイズの読み出しが可能である。フィルタ34は第1波長域(例えば730nm〜780nm)の光束を選択的に透過させ、フィルタ36は第2波長域(例えば820nm〜880nm)の光束を選択的に透過させる。結像レンズ35、37はそれぞれ、フィルタ34、36からの射出光をCCDカメラ31、32にリレーするためのレンズである。かかる構成により受光光学系20は、照明された眼底Fからの反射光束を、第1波長域の分割光束及び第2波長域の分割光束に分割して受光し、波長域の異なる分光眼底画像を撮像できる。 In the light receiving optical system 20, a field lens 26 and a dichroic mirror 27 are arranged on the optical axis reflected from the eye E in the top housing portion 3, and the dichroic mirror 27 is light in the visible range of the photostimulation optical system 40 (for example, 400 nm to 720 nm) and long-wavelength near-infrared light (for example, 920 nm to 1 μm), and light in the near-infrared range from the first wavelength range (for example, 730 nm to 780 nm) to the second wavelength range (for example, 820 nm to 880 nm). To reflect. A dichroic mirror 28 serving as a wavelength division unit is further arranged on the optical axis of the reflected light beam from the dichroic mirror 27, and the dichroic mirror 28 transmits a light beam in a first wavelength region (for example, 730 nm to 780 nm) and transmits a second wavelength region ( For example, the light beam of 820 nm to 880 nm is reflected. As will be described later, the first wavelength region and the second wavelength region are set across an intersection of spectral density characteristics of blood oxygenated hemoglobin HbO 2 and reduced hemoglobin Hb (see FIG. 3). A filter 34, an imaging lens 35, and a first CCD camera 31 as a first imaging unit are disposed on the optical axis of the light beam in the first wavelength range that has passed through the dichroic mirror 28. A filter 36, an imaging lens 37, and a second CCD camera 32 as a second imaging unit are arranged on the optical axis of the light beam in the second wavelength region reflected from the dichroic mirror 28. The light receiving surfaces of the first CCD camera 31 and the second CCD camera 32 are arranged so as to be conjugate with the fundus F of the eye E so that a fundus image is formed. The CCD cameras 31 and 32 are sensitive to a wide range of wavelengths from visible light to the near-infrared region. For example, high-definition images of 1.3 million pixels (1344 × 1024) can be obtained, high speed (about 8 frames / second), and low noise. Reading is possible. The filter 34 selectively transmits a light beam in a first wavelength region (for example, 730 nm to 780 nm), and the filter 36 selectively transmits a light beam in a second wavelength region (for example, 820 nm to 880 nm). The imaging lenses 35 and 37 are lenses for relaying light emitted from the filters 34 and 36 to the CCD cameras 31 and 32, respectively. With this configuration, the light receiving optical system 20 divides and receives the reflected light beam from the illuminated fundus F into a divided light beam in the first wavelength region and a divided light beam in the second wavelength region, and obtains spectral fundus images having different wavelength regions. Can be imaged.

光刺激光学系40は、可視域の光(例えば400nm〜720nm)を被検眼Eの眼底Fの測定対象領域を照射して刺激する。トップハウジング部3において、刺激光光源41から射出された刺激光束の光軸上に、コンデンサーレンズ42、反射鏡43、ダイクロイックミラー44、ダイクロイックミラー27が配置されている。刺激光光源41として、光源の前に絞りを配置したもの、液晶パネル、有機EL(エレクトロルミネッセンス)等を使用できる。絞りは眼底Fの一部の領域に刺激光を限定して照射するための絞りで、任意の寸法、形状を選択できる。液晶パネル、有機ELは液晶や有機ELの各画素を光表示するか否かを選択することにより、パネル上に任意の色彩、形状のカラーパターンを表示できる。例えばスリット状のパターンとすることにより、眼底の上下方向の線状領域に刺激光を照射でき、色彩も赤、緑、青等自由に選択できる。ダイクロイックミラー44は可視域の刺激光を透過させ、アライメント用の近赤外域の光(例えば920nm〜1μm)を反射させる。ダイクロイックミラー27は、光刺激光学系40の可視域の光(例えば400nm〜720nm)と長波長の近赤外域の光(例えば920nm〜1μm)を透過し、第1波長域(例えば730nm〜780nm)から第2波長域(例えば820nm〜880nm)にわたる近赤外域の光を反射させる。かかる構成により刺激光光源41から射出された刺激光は、ダイクロイックミラー44及びダイクロイックミラー27を透過する。ダイクロイックミラー27を透過後の光刺激光学系40の光軸は受光光学系20の光軸と一致し、眼底カメラ部2内において被検眼Eの眼底Fに至る。   The photostimulation optical system 40 irradiates the measurement target region of the fundus F of the eye E with visible light (for example, 400 nm to 720 nm) and stimulates it. In the top housing portion 3, a condenser lens 42, a reflecting mirror 43, a dichroic mirror 44, and a dichroic mirror 27 are disposed on the optical axis of the stimulation light beam emitted from the stimulation light source 41. As the stimulus light source 41, a light source having a diaphragm arranged in front of the light source, a liquid crystal panel, an organic EL (electroluminescence), or the like can be used. The diaphragm is a diaphragm for limiting and irradiating a part of the fundus F with stimulation light, and an arbitrary size and shape can be selected. The liquid crystal panel and the organic EL can display a color pattern of any color and shape on the panel by selecting whether or not each pixel of the liquid crystal and the organic EL is optically displayed. For example, by using a slit pattern, it is possible to irradiate stimulation light to the linear region in the vertical direction of the fundus, and the color can be freely selected such as red, green, and blue. The dichroic mirror 44 transmits stimulation light in the visible range and reflects light in the near infrared range for alignment (for example, 920 nm to 1 μm). The dichroic mirror 27 transmits light in the visible range (for example, 400 nm to 720 nm) and long-wavelength near-infrared light (for example, 920 nm to 1 μm) of the photostimulation optical system 40, and the first wavelength range (for example, 730 nm to 780 nm). To near-infrared light over a second wavelength range (for example, 820 nm to 880 nm). With this configuration, the stimulation light emitted from the stimulation light source 41 passes through the dichroic mirror 44 and the dichroic mirror 27. The optical axis of the light stimulation optical system 40 after passing through the dichroic mirror 27 coincides with the optical axis of the light receiving optical system 20 and reaches the fundus F of the eye E to be examined in the fundus camera unit 2.

アライメント光学系50は、照射光の眼底Fへの照射位置をアライメントするためのものである。眼底カメラ部2内において、アライメント光源51からの近赤外域の長波長(例えば920nm〜1μm)の照射光はビームスプリッター17、対物レンズ18を透過し、被検眼Eの角膜で反射される。角膜で反射され、対物レンズ18、ビームスプリッター17を透過したアライメント光学系50の光軸はダイクロイックミラー44まで光刺激光学系40の光軸と一致する。ダイクロイックミラー44は可視域の刺激光を透過させ、アライメント用の近赤外域の光を反射させる。ダイクロイックミラー44で反射したアライメント光の光軸上に、結像レンズ53、第3の撮像部としての第3のCCDカメラ54が配置されている。第3のCCDカメラ54ではアライメント光源51からの光を被検眼Eの角膜へ投影したときの反射光を撮像する。アライメント光源51の波長は、近赤外(例えば940nm)とすることで、可視域での分光画像に影響を与えることなく分光画像取得中もアライメントが行える。   The alignment optical system 50 is for aligning the irradiation position of the irradiation light onto the fundus F. In the fundus camera unit 2, irradiation light of a long wavelength (for example, 920 nm to 1 μm) in the near infrared region from the alignment light source 51 passes through the beam splitter 17 and the objective lens 18 and is reflected by the cornea of the eye E to be examined. The optical axis of the alignment optical system 50 reflected by the cornea and transmitted through the objective lens 18 and the beam splitter 17 coincides with the optical axis of the photostimulation optical system 40 up to the dichroic mirror 44. The dichroic mirror 44 transmits stimulation light in the visible range and reflects near-infrared light for alignment. On the optical axis of the alignment light reflected by the dichroic mirror 44, an imaging lens 53 and a third CCD camera 54 as a third imaging unit are arranged. The third CCD camera 54 captures reflected light when the light from the alignment light source 51 is projected onto the cornea of the eye E to be examined. By setting the wavelength of the alignment light source 51 to near infrared (for example, 940 nm), alignment can be performed even during acquisition of a spectral image without affecting the spectral image in the visible region.

ファインダー光学系60は、検眼者が眼底Fを肉眼で観察するためのものである。切り替えミラー25を受光光学系20の光路に挿入し、ファインダー系60に光路を切り替えて観察する。   The viewfinder optical system 60 is used by the eye examiner to observe the fundus F with the naked eye. The switching mirror 25 is inserted into the optical path of the light receiving optical system 20, and the optical path is switched to the finder system 60 for observation.

記憶部6は撮像された撮影画像、比較対象画像等を記憶する。また、マスク形成に係る変換パラメータは比較対象画像又は測定開始からの経過時間を特定して保存する。また、動脈、静脈の光学濃度等のデータを記憶する。   The storage unit 6 stores captured images, comparison target images, and the like. Further, the conversion parameter relating to mask formation specifies and stores the comparison target image or the elapsed time from the start of measurement. Data such as optical density of arteries and veins is stored.

画像処理部7は、撮影画像や撮影画像を基に作成された比較対象画像を比較する比較部70を備える。比較部70は、同じタイミングで撮影された複数の波長域での撮影画像を比較し、これらの撮影画像から比較対象画像を作成する第1比較部70aと、第1比較部70aで作成された比較対象画像を時系列的に比較する第2比較部70bとを有する。比較対象画像とは、受光部30で同じタイミングで撮影された複数の波長域での撮影画像から作成された画像で、時系列的に比較される画像である。本実施例では第1受光部31での撮影画像と第2受光部32での撮影画像から求めた酸素飽和度画像をいうが、その他、第1受光部31での撮影画像と第2受光部32での撮影画像との差画像でも良く、第1受光部31での撮影画像と第2受光部32での撮影画像を比較して作成されたその他の画像でも良い。また、画像処理部7は、CCDカメラ31、32で撮像された撮影画像を取得する撮影画像取得部71、同じ測定対象領域に関して異なる条件(撮影時間、波長等)で撮影された撮影画像間の位置合わせを行なう位置合わせ部72、受光部30での撮影画像から測定対象領域を抽出するマスクを形成するマスク形成部73、マスク形成部73により形成されたマスクを用いて、撮影画像から測定対象領域を抽出する画像抽出部74、比較部70での比較結果から刺激光束での刺激による被検眼Eの反応を解析する画像解析部75とを備える。さらに、マスク形成部73は、撮影時間の異なる撮影画像について各特徴点の位置を合わせる変換パラメータを求める変換パラメータ算出部76、第1の時間t1で撮影された撮影画像から眼底画像上の血管(動脈、静脈)等の測定対象領域の輝度とその背景の輝度とのコントラストを算出し、測定対象領域を抽出する基準マスク領域抽出部77、基準マスク領域抽出部77で抽出した測定対象領域に対し、眼底画像に対してフィルタ処理、ラベリング処理、膨張細線化処理等の加工処理を行い、基準マスクM1を形成する加工処理部78、基準マスクM1を基に変換パラメータを用いて第2受光部32での撮影画像から測定対象領域を抽出する抽出マスクM2を形成する抽出マスク作成部79を有する。画像抽出部74は抽出マスクM1を用いて第1の時間t1で撮影された撮影画像P1及び抽出マスクM2を用いて第2の時間t2で撮影された撮影画像P2から測定対象領域を抽出する。   The image processing unit 7 includes a comparison unit 70 that compares a captured image and a comparison target image created based on the captured image. The comparison unit 70 compares the captured images in a plurality of wavelength regions captured at the same timing, and creates a comparison target image from these captured images, and the first comparison unit 70a creates the comparison target image. And a second comparison unit 70b that compares the comparison target images in time series. The comparison target image is an image created from captured images in a plurality of wavelength regions captured at the same timing by the light receiving unit 30 and is an image that is compared in time series. In this embodiment, the oxygen saturation image obtained from the image taken by the first light receiving unit 31 and the image taken by the second light receiving unit 32 is used. A difference image from the captured image at 32 may be used, or another image created by comparing the captured image at the first light receiving unit 31 with the captured image at the second light receiving unit 32 may be used. The image processing unit 7 also includes a captured image acquisition unit 71 that acquires captured images captured by the CCD cameras 31 and 32, and between captured images that are captured under different conditions (such as capturing time and wavelength) with respect to the same measurement target region. Using a positioning unit 72 for performing positioning, a mask forming unit 73 for forming a mask for extracting a measurement target region from a photographed image at the light receiving unit 30, and a mask formed by the mask forming unit 73, a measurement target from the photographed image. An image extraction unit 74 that extracts a region, and an image analysis unit 75 that analyzes a reaction of the eye E by stimulation with a stimulation light beam from a comparison result in the comparison unit 70 are provided. Further, the mask forming unit 73 obtains a conversion parameter calculating unit 76 that obtains a conversion parameter for aligning the position of each feature point with respect to captured images having different imaging times. From the captured image captured at the first time t1, blood vessels on the fundus image ( The contrast between the brightness of the measurement target region such as an artery and vein) and the brightness of the background thereof is calculated, and the reference mask region extraction unit 77 for extracting the measurement target region and the measurement target region extracted by the reference mask region extraction unit 77 The fundus image is subjected to processing such as filter processing, labeling processing, dilatation thinning processing, and the like. The processing unit 78 forms the reference mask M1, and the second light receiving unit 32 using the conversion parameters based on the reference mask M1. An extraction mask creating unit 79 for forming an extraction mask M2 for extracting the measurement target region from the captured image. The image extraction unit 74 extracts a measurement target region from the photographed image P1 photographed at the first time t1 using the extraction mask M1 and the photographed image P2 photographed at the second time t2 using the extraction mask M2.

表示部9は第1比較部70aで比較を行なう被検眼Eの撮影画像及び第2比較部70bで比較を行なう比較対象画像を表示する。比較対象画像として、本実施例では、第1受光部31での撮影画像と第2受光部32での撮影画像から作成された酸素飽和度画像を表示するが、他の実施例では、第1受光部31での撮影画像と第2受光部32での撮影画像の差画像を表示する。比較対象画像は時系列的に表示される。また、抽出された測定対象領域、記憶部6に蓄積された各種データ、解析部75での解析結果等を表示する。   The display unit 9 displays a captured image of the eye E to be compared by the first comparison unit 70a and a comparison target image to be compared by the second comparison unit 70b. In this embodiment, an oxygen saturation image created from the image taken by the first light receiving unit 31 and the image taken by the second light receiving unit 32 is displayed as a comparison target image. A difference image between the image captured by the light receiving unit 31 and the image captured by the second light receiving unit 32 is displayed. The comparison target images are displayed in time series. In addition, the extracted measurement target region, various data accumulated in the storage unit 6, the analysis result in the analysis unit 75, and the like are displayed.

制御部8は、機能イメージング眼科装置1を機能させるために、眼底カメラ部2、トップハウジング部3、記憶部6、画像処理部7、表示部9の動作、データや信号の流れ等、機能イメージング眼科装置1全体を制御する。また、刺激光束の照射(絞り、光量、時間)、CCDカメラ30の撮影(露光、時間)を制御する制御用プログラムを格納する。条件設定部80は、刺激と撮影の条件、繰り返し回数等の測定条件を設定する。経過時間判定部81は測定開始からの経過時間を判定し、また、今度の測定が刺激前、刺激中、刺激後のいずれのコースの測定であるかを判定する。繰返回数判定部82は測定の繰り返し回数が予め設定された回数に到達したか否かを判定する。なお、画像処理部7及び制御部8は通常のパーソナルコンピュータで実現できる。   The control unit 8 functions the functional imaging ophthalmologic apparatus 1 such as the fundus camera unit 2, the top housing unit 3, the storage unit 6, the image processing unit 7, the operation of the display unit 9, the flow of data and signals, etc. The entire ophthalmic apparatus 1 is controlled. Further, a control program for controlling the irradiation of the stimulating light beam (aperture, light quantity, time) and the photographing (exposure, time) of the CCD camera 30 is stored. The condition setting unit 80 sets measurement conditions such as stimulation and imaging conditions and the number of repetitions. The elapsed time determination unit 81 determines an elapsed time from the start of measurement, and determines which course is measured before, during, or after the next measurement. The number-of-repetitions determination unit 82 determines whether or not the number of repetitions of measurement has reached a preset number. The image processing unit 7 and the control unit 8 can be realized by a normal personal computer.

[処理フロー]
図2に、本実施例における機能イメージング眼科装置1を用いた眼機能画像解析方法の処理フロー例を示す。
まず、測定の準備を行なう(準備・条件設定工程:S000)。すなわち、機能イメージング眼科装置1を準備し、被検眼Eにセットする。また、測定条件を設定し、制御部8のプログラムにより条件を満たすように制御する。測定条件については後述するが、主として刺激と撮影の条件で、繰り返し回数を含むものである。次に、照明用光源11からの近赤外域の照明光束で、被検眼Eの眼底Fを照明する(照明工程:S100)。そして、照明光束に対して眼のアライメントを行なう。次に、可視域の刺激光束で眼底Fの測定対象領域を照射して刺激し(刺激光照射工程:S110)、被検眼Eの刺激に対する反応を測定するのであるが、設定条件に従い、刺激前、刺激中、刺激後について、それぞれ設定された回数分繰り返し撮影を行なう。制御部8は、撮影時間判定部81で今度の撮影が刺激前、刺激中、刺激後のいずれのコースの撮影であるかを判定し(刺激前中後コース判定工程:S105)、刺激前、刺激中、刺激後の各コースについて設定された撮影回数分繰り返し撮影し、順次、次のコース(刺激前→刺激中、刺激中→刺激後)に移行する。いずれのコースの測定であるかは、条件設定において測定開始時からの経過時間により定められている。各コースにおける撮影回数はそれぞれ刺激前時間、刺激中時間、刺激後時間を撮影間隔で除した値に定められる。刺激中のコースでは刺激光束を照射するが、刺激前及び刺激後のコースでは刺激光束を照射しない。また、刺激前、刺激中、刺激後の全コースにおいて設定された回数分繰り返し撮影がされたら、かかる刺激付与のコースを設定繰返回数分繰り返す。測定において、照明光束の眼底からの反射光束を受光光学系20に導き、反射光束を波長分割部としてのダイクロイックミラー28により、近赤外域の第1波長域(730nm〜780nm)の光束と第2波長域の光束(820nm〜880nm)に分割する(波長分割工程:S120)。
[Processing flow]
FIG. 2 shows a processing flow example of an eye function image analysis method using the functional imaging ophthalmologic apparatus 1 in the present embodiment.
First, preparation for measurement is performed (preparation / condition setting step: S000). That is, the functional imaging ophthalmologic apparatus 1 is prepared and set on the eye E to be examined. Further, measurement conditions are set, and control is performed so as to satisfy the conditions by the program of the control unit 8. The measurement conditions will be described later, but mainly the conditions for stimulation and imaging, including the number of repetitions. Next, the fundus F of the eye E is illuminated with a near-infrared illumination light beam from the illumination light source 11 (illumination process: S100). Then, eye alignment is performed with respect to the illumination light beam. Next, the measurement target region of the fundus F is irradiated with stimulation light in the visible range to stimulate (stimulus light irradiation step: S110), and the response to the stimulus of the eye E is measured. Shooting is repeated for the set number of times during and after stimulation. The control unit 8 determines in the shooting time determination unit 81 whether the next shooting is shooting before stimulation, during stimulation, or after stimulation (course determination step before and after stimulation: S105). During stimulation, images are repeatedly taken for the number of times set for each course after stimulation, and the next course (before stimulation → during stimulation, during stimulation → after stimulation) is sequentially performed. Which course is measured is determined by the elapsed time from the start of measurement in the condition setting. The number of times of photographing in each course is set to a value obtained by dividing the pre-stimulus time, the mid-stimulus time, and the post-stimulus time by the photographing interval. The stimulation light beam is irradiated in the course during stimulation, but the stimulation light beam is not irradiated in the course before and after stimulation. Further, when the shooting is repeated for the set number of times in all the courses before, during, and after the stimulation, the stimulation providing course is repeated for the set number of repetitions. In the measurement, the reflected light beam from the fundus of the illumination light beam is guided to the light receiving optical system 20, and the reflected light beam is dichroic mirror 28 serving as a wavelength division unit and the light beam in the first wavelength region (730 nm to 780 nm) in the near infrared region and the second light beam. It divides | segments into the light beam (820 nm-880 nm) of a wavelength range (wavelength division | segmentation process: S120).

刺激光照射工程(S110)での刺激の前中後にわたり、複数の波長域に分割された光束を同じタイミングで受光して撮影する(受光工程:S130)。本実施例では、2波長域に分割するものとし、第1のCCDカメラ31で分割された第1波長域の光束を受光して撮影し、第2のCCDカメラ32で分割された第2波長域の光束を受光して撮影する。次に、画像処理部7では、比較部の第1比較部70aにおいて、同じタイミングで取得された第1波長域の撮影画像と第2波長域の撮影画像とを比較し(第1比較工程:S140)、これら画像の差異が第1波長域と第2波長域における酸化ヘモグロビンと還元ヘモグロビンの吸収光量の差異に基づくことを利用して、第1波長域での撮影画像と第2波長域での撮影画像から比較対象画像としての酸素飽和度画像を作成する(比較対象画像作成工程:S150)。次に比較対象画像を表示部9にて表示する(第1表示工程:S155)。次に、制御部8は、繰返回数判定部82で各コースにおける撮影回数及び刺激付与の繰り返し回数が予め設定された回数に到達したか否かを判定し(繰り返し回数判定工程:S160)、各コースにおける撮影回数及び刺激付与の繰り返し回数が予め設定された回数に到達するまで測定を繰り返す。各コースにおける撮影回数及び刺激付与の設定繰返回数は予め準備・条件設定工程(S000)において定められている。刺激付与の繰り返し回数が予め設定された回数に到達すると、比較対象画像作成工程(S150)で作成された比較対象画像としての酸素飽和度画像を時系列的に比較する(第2比較工程:S170)。光刺激による酸素飽和度画像の経時変化から眼底F中の各部分の反応の様相を検知できる。次に、第2比較工程(S170)での比較結果を表示部9にて表示する(第2表示工程:S175)。第2比較工程(S170)での比較結果は、例えば酸素飽和度画像等の比較対象画面全体を比較したものでも良く、測定対象領域を抽出して比較したものでも良く、酸素飽和度をグラフ化して示したものでも良く、酸素飽和度を表形式で示したものでも良い。なお、第1比較工程(S140)ないし第1表示工程(S155)は、短時間で実行できない場合もあるので、繰り返し回数判定工程(S160)の後に行なっても良い。また、第1表示工程(S155)は、第2表示工程(S175)で比較対象画像が時系列的に表示される場合には、省略可能である。ここで、説明の便宜のため、第1比較工程(S140)ないし第1表示工程(S155)を第1比較モード、第2比較工程(S170)及び第2表示工程(S175)を第2比較モードと称することとする。   The light beam divided into a plurality of wavelength ranges is received at the same timing and photographed before, during and after the stimulation in the stimulation light irradiation step (S110) (light reception step: S130). In this embodiment, it is assumed that the light is divided into two wavelength regions, the first wavelength region light beam divided by the first CCD camera 31 is received and photographed, and the second wavelength divided by the second CCD camera 32 is taken. Taking a picture of the luminous flux in the area. Next, in the image processing unit 7, the first comparison unit 70a of the comparison unit compares the captured image of the first wavelength range and the captured image of the second wavelength range acquired at the same timing (first comparison step: first comparison step: S140), based on the fact that the difference between these images is based on the difference in the amount of absorbed light between oxyhemoglobin and reduced hemoglobin in the first wavelength region and the second wavelength region, between the captured image in the first wavelength region and the second wavelength region. An oxygen saturation image as a comparison target image is created from the captured images (comparison target image creation step: S150). Next, the comparison target image is displayed on the display unit 9 (first display step: S155). Next, the control unit 8 determines whether or not the number of times of photographing and the number of repetitions of stimulus application in each course have reached a preset number in the repetition number determination unit 82 (repetition number determination step: S160). The measurement is repeated until the number of times of shooting and the number of times of stimulus application in each course reach a preset number of times. The number of times of shooting and the number of repetitions of stimulus application in each course are determined in advance in the preparation / condition setting step (S000). When the number of stimulation repetitions reaches a preset number, the oxygen saturation images as the comparison target images created in the comparison target image creation step (S150) are compared in time series (second comparison step: S170). ). It is possible to detect the reaction state of each part in the fundus F from the temporal change of the oxygen saturation image by light stimulation. Next, the comparison result in the second comparison step (S170) is displayed on the display unit 9 (second display step: S175). The comparison result in the second comparison step (S170) may be, for example, a comparison of the entire comparison target screen such as an oxygen saturation image, or may be a comparison of extracted measurement target regions. The oxygen saturation may be shown in a tabular form. Note that the first comparison step (S140) to the first display step (S155) may not be performed in a short time, and therefore may be performed after the repetition number determination step (S160). The first display step (S155) can be omitted when the comparison target images are displayed in time series in the second display step (S175). Here, for convenience of explanation, the first comparison process (S140) to the first display process (S155) are performed in the first comparison mode, and the second comparison process (S170) and the second display process (S175) are performed in the second comparison mode. It shall be called.

図3に酸化、還元ヘモグロビンの吸収光量(単位:cm−1/moles/liter)の例を示す。図3(a)におよそ可視域、図3(b)におよそ近赤外域の吸収光量を示す。酸化ヘモグロビンをHbO、還元ヘモグロビンをHbで示す。網膜の酸素飽和度解析は、刺激光束の波長により、酸化・還元ヘモグロビンの吸収光量に差があることを利用している。この分光特性のパターンが各測定対象領域における分光特性にどのくらい含まれているかを解析することにより、該測定対象領域に酸化・還元ヘモグロビンの含まれている割合を決定でき、さらに、酸化ヘモグロビンの割合から酸素飽和度を知得できる可能性がある。近赤外域において、吸収光量は約800nmで逆転しており、第1波長域(730nm〜780nm)では酸化ヘモグロビンHbOの方が大きく、第2波長域(820nm〜880nm)では還元ヘモグロビンHbの方が大きく、明確に差が生じている。後述するように、これら画像の差異が第1波長域と第2波長域における酸化ヘモグロビンと還元ヘモグロビンの吸収光量の差異に基づくことを利用して、第1波長域での撮影画像と第2波長域での撮影画像から比較対象画像としての酸素飽和度画像を作成できる(図5参照)。なお、波長域を多くすると、吸収光量パターンにより合致し、精度の高い酸素飽和度画像を作成でき、好適である。 FIG. 3 shows an example of the amount of absorbed light (unit: cm −1 / moles / liter) of oxidized and reduced hemoglobin. FIG. 3A shows the amount of absorbed light in the approximately visible region, and FIG. 3B shows the amount of absorbed light in the approximately near infrared region. Oxygenated hemoglobin is indicated by HbO 2 , and reduced hemoglobin is indicated by Hb. The retina oxygen saturation analysis utilizes the fact that the amount of light absorbed by oxidized / reduced hemoglobin varies depending on the wavelength of the stimulating light flux. By analyzing how much of this spectral characteristic pattern is included in the spectral characteristics in each measurement target region, it is possible to determine the proportion of oxygenated / reduced hemoglobin contained in the measurement target region, and further, the proportion of oxidized hemoglobin There is a possibility that oxygen saturation can be obtained from In the near infrared region, the amount of absorbed light is reversed at about 800 nm. In the first wavelength region (730 nm to 780 nm), the oxidized hemoglobin HbO 2 is larger, and in the second wavelength region (820 nm to 880 nm), the reduced hemoglobin Hb is more. There is a big difference. As will be described later, the difference between these images is based on the difference in the amount of absorbed light between oxyhemoglobin and deoxyhemoglobin in the first wavelength region and the second wavelength region, and the captured image and the second wavelength in the first wavelength region. An oxygen saturation image as a comparison target image can be created from the captured image in the region (see FIG. 5). An increase in the wavelength range is preferable because it matches the absorbed light amount pattern and can create an oxygen saturation image with high accuracy.

図4に画像処理部7における画像取得の処理フローを詳細に例示する。比較部70において、第1比較モード(第1比較部70aで処理)では、同じタイミングで取得された第1受光部31での撮影画像と第2受光部32での撮影画像とを比較し、これらの撮影画像から比較対象画像としての酸素飽和度画像を作成する。第2比較モード(第2比較部70bで処理)では、第1比較部70aで作成した酸素飽和度画像を時系列的に比較する。このため、第1受光部31での撮影画像と第2受光部32での撮影画像とを同じタイミングで時系列的に撮影する。これらの撮影画像は撮影画像取得部71により画像処理部7に取得される。   FIG. 4 illustrates in detail the processing flow of image acquisition in the image processing unit 7. In the comparison unit 70, in the first comparison mode (processed by the first comparison unit 70a), the captured image of the first light receiving unit 31 and the captured image of the second light receiving unit 32 acquired at the same timing are compared, An oxygen saturation image as a comparison target image is created from these captured images. In the second comparison mode (processed by the second comparison unit 70b), the oxygen saturation images created by the first comparison unit 70a are compared in time series. For this reason, the image taken by the first light receiving unit 31 and the image taken by the second light receiving unit 32 are taken in time series at the same timing. These captured images are acquired by the image processing unit 7 by the captured image acquisition unit 71.

まず、制御部8の条件設定部80において、光刺激の付与条件及びCCDカメラ(第1のCCDカメラ31と第2のCCDカメラ32)での撮影条件を設定する(条件設定工程:S201)。光刺激については、刺激の種類と刺激付与の繰り返し回数を設定する。刺激の種類として光刺激、経角膜刺激、強膜1点刺激、視交差逆行性刺激等があるが、本実施例では光刺激を採用する。光刺激においては、光波長、光強度、刺激領域(絞り、スリット)、刺激時間を設定する。また、刺激付与の繰り返し回数として、例えば10回に設定する。また、撮影条件(画像取得条件)として、例えば、露光時間を20msとし、撮影時間を、刺激前2秒間、刺激中4秒間、刺激後20秒間とし、撮影間隔を25msと設定する。なお、露光時間、撮影時間、撮影間隔の組み合わせを変更したり、設定繰返回数の中で複数種類の組み合わせを設定しても良い。次に、アライメント光学系50を用いて眼のアライメントを行なう(アライメント工程:S202)。アライメント光源51からの近赤外域の長波長(例えば920nm以上)の照射光を用い、被検眼Eの角膜での反射光を撮像面の中心(すなわち撮影画像の中心)に来るように合せ、第3のCCDカメラ54で撮像し、モニターする。これにより、被検眼Eの位置がアライメントされる。   First, the condition setting unit 80 of the control unit 8 sets the conditions for applying the light stimulus and the imaging conditions for the CCD cameras (the first CCD camera 31 and the second CCD camera 32) (condition setting step: S201). For light stimulation, the type of stimulation and the number of repeated stimulations are set. The types of stimulation include light stimulation, transcorneal stimulation, scleral single point stimulation, visual crossing retrograde stimulation, and the like. In this embodiment, light stimulation is adopted. In light stimulation, the light wavelength, light intensity, stimulation area (aperture, slit), and stimulation time are set. In addition, the number of times of stimulus application is set to 10 times, for example. Further, as the imaging conditions (image acquisition conditions), for example, the exposure time is set to 20 ms, the imaging time is set to 2 seconds before stimulation, 4 seconds during stimulation, and 20 seconds after stimulation, and the imaging interval is set to 25 ms. Note that the combination of the exposure time, the shooting time, and the shooting interval may be changed, or a plurality of combinations may be set in the set number of repetitions. Next, eye alignment is performed using the alignment optical system 50 (alignment step: S202). Using the irradiation light of the long wavelength (for example, 920 nm or more) in the near infrared region from the alignment light source 51, the reflected light from the cornea of the eye E is adjusted so as to come to the center of the imaging surface (that is, the center of the captured image). The image is taken and monitored by the third CCD camera 54. Thereby, the position of the eye E is aligned.

次に、条件設定工程(S201)で設定した撮影条件で、繰り返し撮影を行なう(繰り返し撮影工程)。制御部8は設定された撮影条件に従い、刺激光光源41及びCCDカメラ(第1のCCDカメラ31と第2のCCDカメラ32)を自動制御する。繰り返し撮影工程の内容は次のようである。まず、刺激光を照射しない状態(刺激前コース)で、CCDカメラで撮影し、撮影画像を取得する(S203)。第1のCCDカメラ31と第2のCCDカメラ32で同時に撮影し、撮影間隔は25msとする。制御部8の撮影時間判定部81は撮影時間が2秒経過したか否かを判定し(S204)、2秒経過していなければ刺激前の撮影を継続し(S203に戻る)、2秒経過したら刺激を開始する(S205)。刺激光に、例えば定常光や4Hzのフリッカー光を使用できる。また、スリットや絞りを用いて眼底Fの一部の領域に刺激光を限定して定常光やフリッカー光を照射しても良い。刺激光を照射した状態(刺激中コース)で、CCDカメラで撮像し、撮影画像を取得する(S206)。第1のCCDカメラ31と第2のCCDカメラ32で同時に撮影し、撮影間隔は25msとする。制御部8の撮影時間判定部81は撮影時間が4秒経過したか否かを判定し(S207)、4秒経過していなければ刺激中の撮影を継続し(S206に戻る)、4秒経過したら刺激を終了する(S208)。次に、刺激光を照射しない状態(刺激後コース)で、CCDカメラで撮像し、撮影画像を取得する(S209)。第1のCCDカメラ31と第2のCCDカメラ32で同時に撮影し、撮影間隔は25msとする。制御部8の撮影時間判定部81は撮影時間が20秒経過したか否かを判定し(S210)、20秒経過していなければ刺激後の撮影を継続し(S209に戻る)、20秒経過したら、制御部8の繰返回数判定部82は繰返回数nを設定繰返回数n=10と比較する(S211)。繰返回数nは繰返回数判定部82のカウンタに記憶され、設定繰返回数nと比較される。n<n=10であれば、カウンタの繰返回数nを1増加し(S212)、カウンタのデータ保存時間を次の繰返回数判定部82での判定までの時間(本実施例では26秒)より長く確保する(S213)。なお、余裕時間を有る程度長く(例えば判定までの時間の3割以上)取ることが望ましい。繰返回数nが設定繰返回数nに達するまで、刺激前、刺激中、刺激後のコースが再度採択され(S203に戻る)、光刺激と撮影が繰り返される。n≧n=10であれば、撮影を終了し、撮影画像の比較・解析を行なう(S214)。 Next, repeated shooting is performed under the shooting conditions set in the condition setting step (S201) (repeated shooting step). The control unit 8 automatically controls the stimulation light source 41 and the CCD cameras (the first CCD camera 31 and the second CCD camera 32) according to the set photographing conditions. The contents of the repeated photographing process are as follows. First, in a state where no stimulation light is irradiated (pre-stimulation course), a photograph is taken with a CCD camera to obtain a photographed image (S203). The first CCD camera 31 and the second CCD camera 32 are photographed simultaneously, and the photographing interval is 25 ms. The shooting time determination unit 81 of the control unit 8 determines whether or not the shooting time has passed 2 seconds (S204). If 2 seconds have not passed, the shooting before stimulation is continued (return to S203), and 2 seconds have passed. Then, stimulation is started (S205). For example, stationary light or 4 Hz flicker light can be used as the stimulation light. In addition, the stimulation light may be limited to a part of the fundus F using a slit or a diaphragm, and the steady light or flicker light may be irradiated. In a state where stimulation light is irradiated (course during stimulation), the CCD camera captures an image and acquires a photographed image (S206). The first CCD camera 31 and the second CCD camera 32 are photographed simultaneously, and the photographing interval is 25 ms. The shooting time determination unit 81 of the control unit 8 determines whether or not the shooting time has passed 4 seconds (S207). If 4 seconds have not passed, the shooting during stimulation is continued (return to S206), and 4 seconds have passed. Then, the stimulation is finished (S208). Next, in a state where no stimulation light is irradiated (post-stimulation course), an image is taken with a CCD camera and a captured image is acquired (S209). The first CCD camera 31 and the second CCD camera 32 are photographed simultaneously, and the photographing interval is 25 ms. The shooting time determination unit 81 of the control unit 8 determines whether or not the shooting time has passed 20 seconds (S210). If 20 seconds have not passed, the shooting after stimulation is continued (return to S209), and 20 seconds have passed. Then, the repetition number determination unit 82 of the control unit 8 compares the number of repetitions n with the set number of repetitions n 0 = 10 (S211). The number of repetition n is stored in the counter of the number of repetitions determining unit 82, it is compared with the set number of repetition n 0. If n <n 0 = 10, the counter repeat count n is incremented by 1 (S212), and the counter data storage time is set to the time until the determination by the next repeat count determining unit 82 (26 in this embodiment). (Seconds) is secured (S213). In addition, it is desirable to take a long time (for example, 30% or more of the time until the determination) with a margin time. Until the number of repetition n reaches the set number of repetition n 0, prior to stimulation, during stimulation, the course of the post-stimulation was adopted again (return to S203), the light stimulus and imaging is repeated. If n ≧ n 0 = 10, shooting is terminated and the shot images are compared and analyzed (S214).

撮影画像の比較・解析(S214)は画像処理部7で行なわれる。画像処理部7は、撮影画像取得部71において受光部30から撮影画像を取得し、比較部70では、第1比較モード(第1比較部70aで処理)において、同じタイミングで取得した第1のCCDカメラ31の撮影画像と第2のCCDカメラ32の撮影画像とを比較し、これらの撮影画像から酸素飽和度画像を作成する。第1、第2CCDカメラ間でアライメントがずれている場合は、位置合わせ部72において、どちらか(例えば第1CCDカメラ31)を基準にして、基準にしたカメラで撮影した画像を基準に位置合わせ処理を行う。第2比較モード(第2比較部70bで処理)では、異なる撮影時間で撮影された撮影画像に基づいてそれぞれ作成された複数の酸素飽和度画像を時系列的に比較する。また、画像解析部75にて、比較部70での比較結果から刺激光束での刺激による被検眼Eの反応を解析する。必要に応じて、差分解析、主成分分析等の解析を行なう。次に比較結果を表示部9に表示する(S215)。比較結果は、例えば酸素飽和度画像等の比較対象画面全体を比較したものでも良く、画像の局所部分、例えば、動脈、静脈、黄斑、視神経乳頭などの測定対象領域を抽出して比較したものでも良く、局所部分の酸素飽和度、繰り返し回数分の平均受光強度をグラフ化して示したものでも良く、これらを表形式で示したものでも良い。また、酸素飽和度解析は、繰り返し取得した画像の各繰り返し開始時から同じ時間経過後の撮影画像の平均受光強度(この例では10回の平均受光強度)を用いて行なっても良い。他の解析結果も必要に応じて表示される。表示は好ましくは時系列的に表示され、光刺激による被検眼の反応が検知される。   The comparison / analysis (S214) of the captured image is performed by the image processing unit 7. The image processing unit 7 acquires a captured image from the light receiving unit 30 in the captured image acquisition unit 71, and the comparison unit 70 acquires the first image acquired at the same timing in the first comparison mode (processed by the first comparison unit 70a). The captured image of the CCD camera 31 and the captured image of the second CCD camera 32 are compared, and an oxygen saturation image is created from these captured images. In the case where the alignment is shifted between the first and second CCD cameras, the alignment unit 72 performs alignment processing based on either (for example, the first CCD camera 31) as a reference and an image captured by the reference camera. I do. In the second comparison mode (processed by the second comparison unit 70b), a plurality of oxygen saturation images respectively created based on captured images captured at different imaging times are compared in time series. Further, the image analysis unit 75 analyzes the reaction of the eye E by stimulation with the stimulation light beam from the comparison result in the comparison unit 70. Analysis such as difference analysis and principal component analysis is performed as necessary. Next, the comparison result is displayed on the display unit 9 (S215). The comparison result may be, for example, a comparison of the entire comparison target screen such as an oxygen saturation image, or may be a comparison of a local portion of the image, for example, a measurement target region such as an artery, vein, macula, or optic disc. The oxygen saturation of the local portion and the average received light intensity for the number of repetitions may be shown in a graph, or may be shown in a tabular form. In addition, the oxygen saturation analysis may be performed using the average received light intensity (in this example, the average received light intensity of 10 times) of the captured image after the same time has elapsed from the start of each repeated image. Other analysis results are also displayed as needed. The display is preferably displayed in time series, and the reaction of the eye to be examined due to light stimulation is detected.

[ヘモグロビン濃度の解析]
次に血液中のヘモグロビン濃度の解析方法について説明する。ヘモグロビン濃度の解析は主として比較部70の第1比較部70aにて行なわれる。撮影画像から血管部分を抽出し、ビア・ランバートの法則を利用して酸化還元ヘモグロビンの濃度を算出する。ビア・ランバートの法則によれば、媒質に入射する前の光の強度をI、媒質中を距離L移動したときの光の強度をIとしたき、

log10(I/I)=−αL=−εcL ・・・(式1)

ここで、αは吸収係数、εはモル吸光係数、cは媒質のモル濃度である。
したがって、cを血管中のヘモグロビン濃度、Lを血管中を光が進む距離とすると、入射光に対する反射光の強度の比を測定することにより、血管中のヘモグロビン濃度を評価できる。
[Analysis of hemoglobin concentration]
Next, a method for analyzing the hemoglobin concentration in blood will be described. The analysis of the hemoglobin concentration is mainly performed by the first comparison unit 70a of the comparison unit 70. A blood vessel portion is extracted from the photographed image, and the concentration of redox hemoglobin is calculated using the Beer-Lambert law. According to Beer-Lambert's law, the light intensity before entering the medium is I 0 , and the light intensity when moving through the medium by the distance L is I 1 .

log 10 (I 1 / I 0 ) = − αL = −εcL (Expression 1)

Where α is the absorption coefficient, ε is the molar extinction coefficient, and c is the molar concentration of the medium.
Therefore, the hemoglobin concentration in the blood vessel can be evaluated by measuring the ratio of the intensity of the reflected light to the incident light, where c is the hemoglobin concentration in the blood vessel and L is the distance traveled by the light in the blood vessel.

図5に眼底画像のヘモグロビン濃度の経時変化の解析フローの例を示す。解析フローのアルゴリズムは次のようである。
(a)被検眼Eと眼底カメラ部2とのアライメントを行う。アライメント光を点灯し、第3のCCDカメラ54で取得した画像を見ながらアライメント(位置あわせ)を行なう(S301)。
(b)画像処理部7の撮影画像取得部71において眼底画像を取得する。ピント調整を行い、撮影時間(撮影開始からの経過時間)の順に眼底像を順次取得する(S302)。
(c)取得した画像から、1の波長で撮影した撮影画像を基準画像とし、他の波長で撮影した撮影画像を補正前画像として、補正前画像について例えばアフィン変換を行い、像のゆがみを基準画像にあわせて補正する(S303)。なお、ヘルマート変換を用いても良い。補正は位置合わせ部72にて行なわれる。
FIG. 5 shows an example of an analysis flow of the temporal change in the hemoglobin concentration of the fundus image. The analysis flow algorithm is as follows.
(A) The eye E and the fundus camera unit 2 are aligned. The alignment light is turned on, and alignment (positioning) is performed while viewing the image acquired by the third CCD camera 54 (S301).
(B) The fundus image is acquired by the captured image acquisition unit 71 of the image processing unit 7. Focus adjustment is performed, and fundus images are sequentially acquired in order of shooting time (elapsed time from the start of shooting) (S302).
(C) From the acquired image, a captured image captured at one wavelength is used as a reference image, and a captured image captured at another wavelength is used as an uncorrected image. For example, affine transformation is performed on the uncorrected image, and image distortion is determined as a reference. Correction is performed according to the image (S303). It should be noted that Helmat transform may be used. The correction is performed by the alignment unit 72.

(d)次に、第1比較部70aにおいて比較対象画像としての酸素飽和度画像を作成する。まず、波長λにおける動脈、静脈、バックグラウンドの各々の平均強度
を算出する(S304)。
(D) Next, the first comparison unit 70a creates an oxygen saturation image as a comparison target image. First, the average intensity of each artery, vein, and background at wavelength λ
Is calculated (S304).

(e)波長λにおける動脈、静脈の光学濃度((ODartery)’λ、(ODvein)’λ)を算出する(S305)。
(E) The optical density (( ODartery ) ' λ , ( ODvein )' λ ) of the artery and vein at the wavelength λ is calculated (S305).

(f)平均強度を測定した位置の動脈、静脈の太さ(tartery、tvein)を測定し、動脈、静脈の光学濃度((ODarteryλ、(ODveinλ)を補正する(S306)。
(F) The thickness of the artery and vein ( tartery , tvein ) at the position where the average intensity is measured is measured, and the optical density of the artery and vein (( ODartery ) λ , ( ODvein ) λ ) is corrected ( S306).

(g)網膜上の特徴点等の各座標(x,y)に対応する局所的な強度を測定し、各位置(x、y)での動脈、静脈の光学濃度((ODx,yλ)を算出する(S307)。
(G) The local intensity corresponding to each coordinate (x, y) such as a feature point on the retina is measured, and the optical density ((OD x, y ) of the artery and vein at each position ( x, y ) λ ) is calculated (S307).

(h)波長λにおける動脈、静脈の光学濃度((ODarteryλ、(ODveinλ)を要素として、網膜上の各位置(x、y)での動脈、静脈の光学濃度((ODx,yλ)の因子分析を行なう(S308)。因子分析を行なうことにより、網膜上の各位置(x、y)での動脈血、静脈血の割合が算出され、酸化ヘモグロビン濃度C(HbO)及び還元ヘモグロビン濃度C(Hb)を求めることができる。第1比較部70aは因子分析を行ない、酸化ヘモグロビン濃度C(HbO)、還元ヘモグロビン濃度C(Hb)及び酸素飽和度を求める。酸化ヘモグロビンの割合は概略、C(HbO)/(C(HbO)+C(Hb))と表され、酸素飽和度は酸化ヘモグロビンの割合×100(%)と表される。
(i)酸化ヘモグロビンの割合をカラーコードマップ化する(S309)。
(H) The optical density of the artery and vein at each position (x, y) on the retina ((OD) with the optical density of the artery and vein (( ODartery ) λ , ( ODvein ) λ ) at the wavelength λ as an element. A factor analysis of x, y ) λ ) is performed (S308). By performing factor analysis, the ratio of arterial blood and venous blood at each position (x, y) on the retina is calculated, and the oxygenated hemoglobin concentration C (HbO 2 ) and the reduced hemoglobin concentration C (Hb) can be obtained. . The first comparison unit 70a performs factor analysis to obtain the oxygenated hemoglobin concentration C (HbO 2 ), the reduced hemoglobin concentration C (Hb), and the oxygen saturation. The ratio of oxygenated hemoglobin is roughly expressed as C (HbO 2 ) / (C (HbO 2 ) + C (Hb)), and the oxygen saturation is expressed as the ratio of oxygenated hemoglobin × 100 (%).
(I) The ratio of oxyhemoglobin is converted into a color code map (S309).

なお、上記では光学濃度OD算出時に動脈、静脈の平均強度もしくは各位置の平均強度とバックグラウンドの平均強度の比を取り、対数を取ってマイナスをかけているが、ODの代わりに吸光濃度(AD)を使用し、動脈、静脈の平均強度もしくは各位置の平均強度からバックグラウンドの平均強度を引き、その値をバックグラウンドの平均強度で割ったものを使用してもよい。ここで、任意の点での吸光濃度(AD)は、次式で示される。
In the above, when calculating the optical density OD, the average intensity of the arteries and veins or the ratio of the average intensity of each position and the average intensity of the background is taken and the logarithm is multiplied by minus. AD) may be used, and the average intensity of the arteries and veins or the average intensity of each position may be subtracted from the average intensity of the background and the value divided by the average intensity of the background. Here, the absorbance density (AD) at an arbitrary point is represented by the following equation.

この分光網膜画像解析フローはプログラム制御可能である。プログラムは画像処理部7に格納され、第1比較部70aでの比較結果として酸化ヘモグロビンの割合等がマップ化される。   This spectral retinal image analysis flow can be controlled by a program. The program is stored in the image processing unit 7, and the ratio of oxyhemoglobin and the like are mapped as a comparison result in the first comparison unit 70a.

図6に、第1のCCDカメラ34及び第2のCCDカメラ37で撮影した撮影画像から作成した酸素飽和度の時間的変化の例を示す。酸素飽和度は上述のヘモグロビン濃度の解析から求められたものである。図6の例では、刺激光をスリット状にして眼底に照射した。それぞれ、(a)網膜撮影画像、(b)刺激開始前0.2秒、(c)刺激開始後0.5秒、(d)刺激開始後2秒、(e)刺激終了後0.2秒、(f)刺激終了後0.5秒、(g)刺激終了後1秒、(h)刺激終了後2秒、(i)刺激終了後4秒、(j)刺激終了後6秒、(k)刺激終了後8秒、(l)刺激終了後10秒の撮影画像である。刺激開始後及び刺激終了後で画像が少し明るくなっているスリット状の部分が刺激光が照射された部分である。左下の丸い部分が乳頭、乳頭から脈状に伸びている部分が血管である。血管のうち、酸化ヘモグロビンHbOの方が大きくなっている部分が動脈に対応しており、例えば視神経乳頭から中上方へ伸びている血管が該当する。また、還元ヘモグロビンHbの方が大きくなっている部分が静脈に対応しており、例えば視神経乳頭から左上方へ伸びている血管が該当する。どちらも、刺激開始後から濃くなり始め、刺激終了後0.2秒後に明瞭になり、1〜2秒後に最大になり、その後次第に薄くなっていくのが解る。 FIG. 6 shows an example of temporal change in the oxygen saturation created from the captured images taken by the first CCD camera 34 and the second CCD camera 37. The oxygen saturation is obtained from the analysis of the hemoglobin concentration described above. In the example of FIG. 6, the fundus is irradiated with stimulation light in a slit shape. (A) Retina photographed image, (b) 0.2 seconds before starting stimulation, (c) 0.5 seconds after starting stimulation, (d) 2 seconds after starting stimulation, (e) 0.2 seconds after finishing stimulation (F) 0.5 seconds after the end of the stimulus, (g) 1 second after the end of the stimulus, (h) 2 seconds after the end of the stimulus, (i) 4 seconds after the end of the stimulus, (j) 6 seconds after the end of the stimulus, (k The photographed image is 8 seconds after the end of the stimulus and (l) 10 seconds after the end of the stimulus. A slit-like portion where the image is slightly bright after the start of stimulation and after the end of stimulation is the portion irradiated with the stimulation light. The lower left round part is a nipple, and the part extending from the nipple in a pulse shape is a blood vessel. Among the blood vessels, the portion where oxyhemoglobin HbO 2 is larger corresponds to the artery, and for example, a blood vessel extending from the optic nerve head to the middle upward corresponds. Further, the portion where the reduced hemoglobin Hb is larger corresponds to the vein, for example, a blood vessel extending from the optic nerve head to the upper left. It can be seen that both of them begin to darken after the start of stimulation, become clear 0.2 seconds after the end of stimulation, become maximum after 1 to 2 seconds, and then gradually fade.

[マスクの形成]
次に、撮影画像の経時変化を観測する場合に、時間の異なる画像から同一の部分を抽出して比較する方法について説明する。本実施例では、時間の異なる画像から同一の部分を抽出する場合に、マスクを用いて行なう方法を説明する。なお、実施例9で説明するように、位置合わせ部72を用いて順次位置合せを行なうことも可能である。
本実施例では、画像処理部7は、受光部30での撮影画像から測定対象領域を抽出するマスクを形成するマスク形成部73と、マスク形成部73により形成されたマスクを用いて、撮影画像から測定対象領域を抽出する画像抽出部74とを備え、表示部9は、画像抽出部74で抽出された測定対象領域の撮影画像を表示する。
[Mask formation]
Next, a method for extracting and comparing the same portion from images having different times when observing a change in a captured image with time will be described. In the present embodiment, a method using a mask when extracting the same portion from images having different times will be described. As described in the ninth embodiment, it is also possible to sequentially perform alignment using the alignment unit 72.
In this embodiment, the image processing unit 7 uses a mask forming unit 73 that forms a mask for extracting a measurement target region from a captured image obtained by the light receiving unit 30 and a mask formed by the mask forming unit 73. The display unit 9 displays a photographed image of the measurement target region extracted by the image extraction unit 74.

図7にマスク形成の処理フロー例を示す。まず、画像処理部7は撮影画像取得部71にて、時間t1で撮影された撮影画像P1と時間t2で撮影された撮影画像P2を取得する(S351)。本実施例では、本来、これらの撮影画像に代えて時間t1における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像と時間t2における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像にマスク形成を適用するのであるが、ここでは説明の簡易のため、撮影画像P1と撮影画像P2について適用する例を説明する。なお、撮影画像には撮影画像を加工処理した画像を含むものとする。   FIG. 7 shows a processing flow example of mask formation. First, the image processing unit 7 uses the captured image acquisition unit 71 to acquire a captured image P1 captured at time t1 and a captured image P2 captured at time t2 (S351). In this embodiment, instead of these captured images, the comparison target image created from the captured image at the first light receiving unit 31 and the captured image at the second light receiving unit 32 at time t1 and the first received light at time t2. The mask formation is applied to the comparison target image created from the captured image of the unit 31 and the captured image of the second light receiving unit 32. Here, for the sake of simplicity of explanation, the mask formation is applied to the captured image P1 and the captured image P2. An example will be described. The captured image includes an image obtained by processing the captured image.

図8に、時間t1で撮影された撮影画像P1と時間t2で撮影された撮影画像P2を並べて示す。図8(a)に撮影画像P1、図8(b)に撮影画像P2を示す。時間t1と時間t2との間に眼球運動が生じると撮影画像P1と撮影画像P2とに差異が生じる。すなわち、比較したい対象部分の位置が撮影画像P1と撮影画像P2とで異なることになる。次に、基準マスク領域抽出部77にて撮影画像P1から測定対象領域を抽出する(S352)。   FIG. 8 shows the photographed image P1 photographed at time t1 and the photographed image P2 photographed at time t2. FIG. 8A shows the captured image P1, and FIG. 8B shows the captured image P2. When eye movement occurs between time t1 and time t2, a difference occurs between the captured image P1 and the captured image P2. That is, the position of the target portion to be compared differs between the captured image P1 and the captured image P2. Next, the measurement target region is extracted from the captured image P1 by the reference mask region extraction unit 77 (S352).

図9に時間t1で撮影された撮影画像P1から測定対象領域を抽出するための基準マスクM1を示す。この例では測定対象領域として動脈の一部を抽出する。撮影画像P1から比較したい測定対象領域を抽出するには、例えば明度が周囲に比して暗く、コントラストが高い部分を抽出するなど、適当なアルゴリズムを使用する。アルゴリズムについては後述する。このようにして抽出した部分を白色(抽出領域)、他の部分を黒色(排除領域)と二値化して基準マスク領域とする(S353)。また、加工処理部78において基準マスク領域を加工し、完成度を高めて基準マスクM1を形成する。アルゴリズムについては後述する。なお、加工処理部78の加工を省略し、基準マスク領域をそのまま基準マスクM1として使用することも可能である。   FIG. 9 shows a reference mask M1 for extracting a measurement target region from the captured image P1 captured at time t1. In this example, a part of the artery is extracted as the measurement target region. In order to extract the measurement target region to be compared from the photographed image P1, for example, an appropriate algorithm is used such as extracting a portion where the brightness is darker than the surroundings and the contrast is high. The algorithm will be described later. The extracted portion is binarized as white (extracted region) and the other portion is black (excluded region) to be a reference mask region (S353). In addition, the reference mask region is processed in the processing unit 78 to improve the completeness and form the reference mask M1. The algorithm will be described later. It is also possible to omit the processing of the processing unit 78 and use the reference mask region as it is as the reference mask M1.

次に、撮影画像P1と撮影画像P2を位置合せするための変換パラメータを求める(S354)。撮影画像P1のうち基準マスク領域を含む基準ウインドウ領域(例えば測定対象領域の凸包(convex hull)を含む四角形、凸包はここでは測定対象領域を囲む凸の多角形をいう。)A1を定める。基準ウインドウ領域A1は、変換に利用できる特徴点を多く含むように拡張しても良い。また、撮影画像P2のうち基準ウインドウ領域A1に対応する抽出ウインドウ領域A2を定める。撮影画像P1内の基準ウインドウ領域A1と撮影画像P2内の抽出ウインドウ領域A2の位置が異なる可能性があるので、マスク形成部73は変換パラメータ算出部76にて、基準ウインドウ領域A1と抽出ウインドウ領域A2から共通の特徴点を複数個抽出して、基準ウインドウ領域A1と抽出ウインドウ領域A2を、すなわち、撮影画像P1と撮影画像P2を位置合せするための変換パラメータを求める。変換は、移動、回転、縮小/拡大等であり、例えばアフィン変換を用いる。なお、ヘルマート変換を用いても良い。変換の詳細については後述する。撮影画像全体を変換するよりも、基準マスク領域周辺すなわち測定対象領域周辺に限定して変換することにより、変換パラメータを求める工程(S354)、後述する抽出マスク(S355)を形成する工程を含め変換処理に要する時間を短縮できる。変換パラメータは比較対象画像又は経過時間を特定して記憶部6に保存しておく。   Next, a conversion parameter for aligning the captured image P1 and the captured image P2 is obtained (S354). A reference window region including a reference mask region (for example, a quadrangle including a convex hull of the measurement target region, a convex hull being a convex polygon surrounding the measurement target region) A1 is defined in the captured image P1. . The reference window area A1 may be expanded to include many feature points that can be used for conversion. Further, an extraction window area A2 corresponding to the reference window area A1 is determined in the captured image P2. Since there is a possibility that the position of the reference window area A1 in the photographic image P1 and the extraction window area A2 in the photographic image P2 may be different, the mask forming unit 73 uses the conversion parameter calculation unit 76 to perform the reference window area A1 and the extraction window area. A plurality of common feature points are extracted from A2, and a conversion parameter for aligning the reference window area A1 and the extraction window area A2, that is, the captured image P1 and the captured image P2, is obtained. The transformation includes movement, rotation, reduction / enlargement, and for example, affine transformation is used. It should be noted that Helmat transform may be used. Details of the conversion will be described later. Rather than converting the entire captured image, conversion is performed including the step of obtaining a conversion parameter by converting only the periphery of the reference mask region, that is, the region to be measured (S354), and the step of forming an extraction mask (S355) described later. Processing time can be shortened. The conversion parameter specifies the comparison target image or the elapsed time and stores it in the storage unit 6.

図10に時間t2で撮影された撮影画像P2から測定対象領域を抽出するためのマスクである抽出マスクM2を示す。また、図中に抽出ウインドウ領域A2を示す。抽出マスクM2は記憶部6に保存された変換パラメータを用いて、抽出マスク作成部79にて、基準マスクM1を変換処理(移動、回転、縮小/拡大等)して求める(S355)。変換は、変換パラメータを求めた時と同じ変換、例えばアフィン変換を用いる。図10では、基準マスクM1を黒色で、抽出マスクM2を灰色で表している。画像抽出部74では、この抽出マスクM2を用いて撮影画像P2から測定対象領域を抽出する(S356)。網膜の撮影画像間の変化はこのような移動、回転、縮小/拡大等の簡単な変換で近似できるので、このように変換処理して形成した抽出マスクM2で充分実用可能である。   FIG. 10 shows an extraction mask M2 that is a mask for extracting a measurement target region from the captured image P2 captured at time t2. Further, the extraction window area A2 is shown in the figure. The extraction mask M2 is obtained by performing conversion processing (movement, rotation, reduction / enlargement, etc.) of the reference mask M1 in the extraction mask creation unit 79 using the conversion parameters stored in the storage unit 6 (S355). For the conversion, the same conversion as when the conversion parameter is obtained, for example, affine conversion is used. In FIG. 10, the reference mask M1 is shown in black and the extraction mask M2 is shown in gray. The image extraction unit 74 extracts a measurement target region from the captured image P2 using the extraction mask M2 (S356). Since the change between the retina captured images can be approximated by such simple conversion as movement, rotation, reduction / enlargement, etc., the extraction mask M2 formed by such conversion processing is sufficiently practical.

ここで、第1の時間t1と第2の時間t2は異なる時間であれば任意に選択できる。例えば第1の時間t1として測定開始時の撮像時間を、第2の時間t2としてその後の撮像時間を採用できる。この方法によれば、同じ基準マスクを用いてその後の複数の撮像画像からの抽出マスクを形成できるので、基準が安定しているといえる。   Here, the first time t1 and the second time t2 can be arbitrarily selected as long as they are different times. For example, the imaging time at the start of measurement can be adopted as the first time t1, and the subsequent imaging time can be adopted as the second time t2. According to this method, it is possible to form extraction masks from a plurality of subsequent captured images using the same reference mask, so that it can be said that the reference is stable.

次に、測定対象領域抽出のアルゴリズムについて説明する。マスク形成部73では基準マスク領域抽出部77において、眼底画像に基づいて測定対象領域(血管、網膜動静脈、視神経乳頭等)の輝度とその背景の輝度とのコントラストを算出し、コントラストの高い部分を基準マスク領域として抽出する。   Next, the measurement target region extraction algorithm will be described. In the mask formation unit 73, the reference mask region extraction unit 77 calculates the contrast between the luminance of the measurement target region (blood vessel, retinal arteriovenous, optic nerve head, etc.) and the luminance of the background based on the fundus image, and the high-contrast portion Are extracted as a reference mask region.

図11に抽出された基準マスク領域の例として、網膜動静脈と視神経乳頭の抽出画像の例を示す。図中黒色の部分が基準マスク領域である。このうち、中央から左側の非常に明るい楕円形の部分が視神経乳頭に該当し(楕円形内部を基準マスク領域に含めても良い)、その部分から放射状に延びている細長い線状の部分が網膜動静脈に該当する。このようにして抽出された基準マスク領域から基準マスクM1を形成できる。ただし、図11の例のように基準マスク領域を広くとる代わりに、図7の処理フローで説明したように、局所的な領域に限定して変換パラメータを求めることにより、変換処理に要する時間を短縮できる。
基準マスク領域は測定対象領域の特徴を手がかりに検出することも可能である。例えば網膜動静脈血管は線状で輝度が低いという特徴、視神経乳頭は楕円形であるという特徴、脈絡膜血管は線状で輝度が高いという特徴があり、これらの特徴を拠り所に抽出できる。
As an example of the reference mask area extracted in FIG. 11, an example of an extracted image of the retinal arteriovenous vein and the optic disc is shown. The black portion in the figure is the reference mask area. Among these, the very bright oval part on the left side from the center corresponds to the optic nerve head (the inside of the ellipse may be included in the reference mask area), and the elongated linear part extending radially from that part is the retina. Corresponds to arteriovenous. The reference mask M1 can be formed from the reference mask region extracted in this way. However, instead of taking a large reference mask area as in the example of FIG. 11, as described in the processing flow of FIG. 7, the conversion parameter is obtained only in a local area, thereby reducing the time required for the conversion process. Can be shortened.
The reference mask region can be detected by using the characteristics of the measurement target region as a clue. For example, the retinal arteriovenous blood vessel is linear and has low luminance, the optic nerve head is elliptical, and the choroidal blood vessel is linear and high in luminance. These features can be extracted based on these features.

図12に加工処理の流れの例を示す。ここでは、加工処理のアルゴリズムについて説明する。加工処理は加工処理部78において、基準マスク領域抽出部77にて抽出された基準マスク領域についてノイズ除去等の加工処理を行なう。まず、平均値フィルタを適用し(S501)、次いでラプラシアンガウシアンフィルタを適用する(S502)。平均値フィルタは周囲の画素を含めて平均化し、ノイズを除去するオペレータ、ラプラシアンガウシアンフィルタはコントラストが鮮明なエッジを抽出し、ガウス関数を適用してなだらかに処理することによりノイズを除去するオペレータである。次に、ラベリング処理により連続する同じ特性を有する部分に1つの番号を付与して識別し(S503)、膨張処理により点を膨らませ(S504)、細線化処理により線を細くしてノイズを除去する(S505)。次に、ラベル付け、すなわち番号付けした各部分について属性を付し、例えばカラー表示する(S506)。次に網膜動静脈の線幅を測定する(S507)。線幅は健康状態或は病状の尺度を表すものとして用いられる。このように血管(動脈、静脈)等の測定対象領域に対して加工処理を行い、ノイズ除去した鮮明な測定対象領域を抽出する。形成された基準マスクM1は制御部8の制御により記憶部6に保存され、第1の時間t1で取得された撮影画像P1から測定対象領域を抽出するための基準マスクM1として使用に供される。   FIG. 12 shows an example of the processing flow. Here, a processing algorithm will be described. In the processing process, the processing unit 78 performs processing such as noise removal on the reference mask region extracted by the reference mask region extraction unit 77. First, an average value filter is applied (S501), and then a Laplacian Gaussian filter is applied (S502). The average value filter is an operator that averages the surrounding pixels and removes noise, and the Laplacian Gaussian filter is an operator that removes noise by extracting edges with sharp contrast and applying a Gaussian function to smooth it. is there. Next, one number is assigned and identified by the labeling process having the same characteristic (S503), the point is expanded by the expansion process (S504), and the line is thinned by the thinning process to remove noise. (S505). Next, labeling, that is, assigning attributes to the numbered parts, for example, color display (S506). Next, the line width of the retinal artery and vein is measured (S507). Line width is used as a measure of health status or medical condition. In this way, processing is performed on a measurement target region such as a blood vessel (artery or vein), and a clear measurement target region from which noise is removed is extracted. The formed reference mask M1 is stored in the storage unit 6 under the control of the control unit 8, and is used as the reference mask M1 for extracting the measurement target region from the captured image P1 acquired at the first time t1. .

抽出マスク作成部79では、この基準マスクM1に記憶部6に保存した変換パラメータを用いてアフィン変換等の変換処理を行い抽出マスクM2を形成する。このような画像処理により形成するマスクは、撮影時間の異なる任意の2画像について、ハードマスクを作成することなく、それぞれの画像に適した測定対象領域の基準マスク及び抽出マスクを形成でき、融通性、便宜性に富んだ抽出マスクとして利用できる。   In the extraction mask creating unit 79, a conversion process such as affine transformation is performed on the reference mask M1 using the conversion parameter stored in the storage unit 6 to form an extraction mask M2. The mask formed by such image processing can form a reference mask and an extraction mask of a measurement target region suitable for each image without creating a hard mask for any two images having different shooting times, and is flexible. Therefore, it can be used as an extraction mask that is convenient.

図13に変換パラメータ算出及び抽出マスク形成の処理フローの例を示す。画像処理部7では撮影画像取得部71において、受光部30のCCDカメラで異なる時間に撮影した2つの撮影画像P1,P2を読み込む(S401)。本実施例では、本来、撮影画像P1,P2に代えて時間t1における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像と時間t2における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像について変換パラメータ算出及び抽出マスク形成の処理を適用するのであるが、ここでは説明の簡易のため、撮影画像P1と撮影画像P2について適用する例を説明する。次に、変換パラメータ算出部76において、画像合わせのマッチング点として複数の特徴点(特徴があり識別性が高い点、線状の場合もある)を2画像から選択する(S402)。次に、変換パラメータ算出部76において、対応するマッチング点の位置を探索する(S403)。探索には例えば最小二乗法(LSM:Least Squares Matching)を用いる。   FIG. 13 shows an example of a processing flow for conversion parameter calculation and extraction mask formation. In the image processing unit 7, the captured image acquisition unit 71 reads two captured images P1 and P2 captured at different times by the CCD camera of the light receiving unit 30 (S401). In this embodiment, the comparison target image created from the captured image at the first light receiving unit 31 and the captured image at the second light receiving unit 32 at time t1 instead of the captured images P1 and P2 and the first at time t2. The conversion parameter calculation and extraction mask formation processing is applied to the comparison target image created from the image captured by the light receiving unit 31 and the image captured by the second light receiving unit 32. An example applied to the image P1 and the captured image P2 will be described. Next, the conversion parameter calculation unit 76 selects a plurality of feature points (points that have features and high discriminability, which may be linear) as matching points for image matching from two images (S402). Next, the conversion parameter calculation unit 76 searches for the position of the corresponding matching point (S403). For example, a least square method (LSM) is used for the search.

最小二乗法とは、テンプレートの位置と形状を固定し、マッチングウインドウとテンプレートとの濃淡の差の二乗和が最小になるようにマッチングウインドウの位置と形状を変化させてマッチングを行う(相関をとる)方法である。マッチングウインドウの位置と形状を変化するために、アフィン変換又はヘルマート変換を選択可能である。これらについて変換パラメータ(変換係数)を変えて濃淡の差を演算し、最も適切な変換パラメータ(変換係数)を求める(S404)。変換パラメータは制御部8の制御により記憶部6に保存しておく。次に、抽出マスク作成部79において、基準マスク領域抽出部77及び加工処理部78において形成された基準マスクM1に対して、求められた変換パラメータ(変換係数)を用いて画像の変換を行ない、抽出マスクM2を形成する(S405)。この場合、線形補間法又はバイキュービック補間法を選択可能である。   In the least square method, the position and shape of the template are fixed, and matching is performed by changing the position and shape of the matching window so that the sum of squares of the difference in density between the matching window and the template is minimized. ) Method. In order to change the position and shape of the matching window, an affine transformation or a Helmat transformation can be selected. For these, the conversion parameter (conversion coefficient) is changed to calculate the difference in shading to obtain the most appropriate conversion parameter (conversion coefficient) (S404). The conversion parameters are stored in the storage unit 6 under the control of the control unit 8. Next, the extraction mask creating unit 79 performs image conversion on the reference mask M1 formed in the reference mask region extracting unit 77 and the processing unit 78 using the obtained conversion parameter (conversion coefficient). An extraction mask M2 is formed (S405). In this case, a linear interpolation method or a bicubic interpolation method can be selected.

バイキュービック法(bicubic法)とは、3次補間法と呼ばれている画像の補間方式である。一般のスキャナでは1次補間法(2点を通る直線上にある画素を参照して計算する)や最近傍法(ニアレストネイバー法)で計算させている機種が多いが、バイキュービック法は情報の損失が最も少なく、写真画などでは滑らかで自然な画像が得られる。ただし、複雑な演算を行なうため処理に時間がかかる。また、線形補間法とは、最近傍法が周りの1つの画素のみから値を決定しているのに対し、周りの最も近い4つの画素から値を設定する手法なので、最近傍法に比して補間精度が高い。   The bicubic method (bicubic method) is an image interpolation method called a cubic interpolation method. In general scanners, there are many models that use the linear interpolation method (calculated by referring to pixels on a straight line passing through two points) and the nearest neighbor method (nearest neighbor method), but the bicubic method uses information. Loss is the least, and a smooth and natural image can be obtained in a photo. However, it takes a long time to perform a complicated operation. In addition, the linear interpolation method is a method in which the value is determined from only the surrounding four pixels while the nearest neighbor method determines the value from only one surrounding pixel. Interpolation accuracy is high.

次に、基準マスクM1から変換された抽出マスクM2を制御部8の制御により記憶部6に保存する(S406)。形成された抽出マスクM2は制御部8の制御により記憶部6に保存され、第2の時間t2で取得された撮影画像P2から測定対象領域を抽出するための抽出マスクM2として使用に供される。保存形式は、例えば、BMP形式、JPG形式を使用でき、生データとして出力しても良い。基準マスクM1及び抽出マスクM2により抽出された測定対象領域の画像は、時系列的に比較可能である。本実施例では、撮影画像P1,P2に代えて時間t1における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像と時間t2における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像にマスク形成を適用して基準マスクM1及び抽出マスクM2を形成し、基準マスクM1及び抽出マスクM2により抽出された測定対象領域の画像を時系列的に比較することにより光刺激による眼底の各部分の反応の様相を解析する。   Next, the extraction mask M2 converted from the reference mask M1 is stored in the storage unit 6 under the control of the control unit 8 (S406). The formed extraction mask M2 is stored in the storage unit 6 under the control of the control unit 8, and is used as an extraction mask M2 for extracting the measurement target region from the captured image P2 acquired at the second time t2. . For example, a BMP format or a JPG format can be used as the storage format, and it may be output as raw data. The images of the measurement target area extracted by the reference mask M1 and the extraction mask M2 can be compared in time series. In this embodiment, instead of the captured images P1 and P2, the comparison target image created from the captured image at the first light receiving unit 31 and the captured image at the second light receiving unit 32 at the time t1 and the first light receiving unit at the time t2. The reference mask M1 and the extraction mask M2 are formed by applying mask formation to the comparison target image created from the photographed image at 31 and the photographed image at the second light receiving unit 32, and extracted by the reference mask M1 and the extraction mask M2. The aspect of the reaction of each part of the fundus caused by light stimulation is analyzed by comparing the images of the measured area in time series.

以上により、本実施例によれば、第1に、同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成して、時系列的に比較する比較部70を備えることにより、比較事象を時系列的に比較することが可能であり、刺激による眼底の各部分の反応を検知できる機能イメージング眼科装置を提供できる。第2に、波長域の異なる複数の撮影画像から作成した比較対象画像を利用して、明瞭に血管部分等の特定部分を抽出できるような機能イメージング眼科装置を提供できる。第3に、異なる時間に撮影された撮影画像から同一部分を効率良く抽出するマスクを形成することにより、同一部分を効率良く抽出できる機能イメージング眼科装置を提供できる。   As described above, according to the present embodiment, first, by including a comparison unit 70 that creates a comparison target image from captured images in a plurality of wavelength regions captured at the same timing, and compares them in time series. It is possible to provide a functional imaging ophthalmologic apparatus that can compare comparative events in time series and can detect the reaction of each part of the fundus due to stimulation. Secondly, it is possible to provide a functional imaging ophthalmologic apparatus that can clearly extract a specific portion such as a blood vessel using a comparison target image created from a plurality of captured images having different wavelength ranges. Thirdly, by forming a mask that efficiently extracts the same part from captured images taken at different times, a functional imaging ophthalmologic apparatus that can efficiently extract the same part can be provided.

実施例1では、反射光束を2波長域に分割して受光する例を説明したが、実施例2では、反射光束を3以上の波長域に分割して受光する例について説明する。図3によれば、酸化ヘモグロビンHbO及び還元ヘモグロビンHbの吸収光量は、波長により大きな変化を示す。したがって、2波長域での光学濃度(ODx,yλ1,(ODx,yλ2の測定値から酸化ヘモグロビン濃度C(HbO)及び還元ヘモグロビン濃度C(Hb)を求めるよりも、多くの波長域での測定値を用いることにより、吸収光量パターンに良く合致するようにより精度の高い酸化ヘモグロビン濃度C(HbO)及び還元ヘモグロビン濃度C(Hb)を求めることができる。波長分割部として、例えば、実施例1における1つのダイクロイックミラー28(図1参照)に代えて2段構成のダイクロイックミラーを用いると、波長域を4分割できる。また、波長分割部として、4分割プリズムを用いて波長域を4分割しても良い。そして、4つの分割光束を、それぞれフィルタ、結像レンズを通してCCDカメラで受光することにより受光光学系20を構成できる。また、同じタイミングで4つのCCDカメラで撮像する。同じタイミングで撮影された4つの撮影画像による4波長域での光学濃度の測定値を用いることにより、酸化ヘモグロビン濃度C(HbO)及び還元ヘモグロビン濃度C(Hb)を高い精度で求めることができる。また、実施例1と同様であるが、これら複数の波長域でのそれぞれの撮影画像や測定値の時系列的変化を比較でき、それぞれの局所位置での測定値の時系列的変化をグラフ化することも可能である。これにより、各波長での変化を直接検討することも可能である。その他の装置構成及び処理フローは実施例1と同様である。 In the first embodiment, an example in which the reflected light beam is divided into two wavelength regions and received is described. In the second embodiment, an example in which the reflected light beam is divided into three or more wavelength regions and received is described. According to FIG. 3, the amount of absorbed light of oxygenated hemoglobin HbO 2 and reduced hemoglobin Hb varies greatly depending on the wavelength. Therefore, it is more than determining the oxidized hemoglobin concentration C (HbO 2 ) and the reduced hemoglobin concentration C (Hb) from the measured values of the optical densities (OD x, y ) λ1 and (OD x, y ) λ2 in the two wavelength regions. By using the measured values in the wavelength region of, the oxygenated hemoglobin concentration C (HbO 2 ) and the reduced hemoglobin concentration C (Hb) can be obtained with higher accuracy so as to better match the absorbed light amount pattern. For example, if a two-stage dichroic mirror is used instead of the one dichroic mirror 28 (see FIG. 1) in the first embodiment, the wavelength region can be divided into four. Further, the wavelength region may be divided into four by using a four-dividing prism as the wavelength dividing unit. The light receiving optical system 20 can be configured by receiving the four divided light beams with a CCD camera through a filter and an imaging lens. In addition, images are taken with four CCD cameras at the same timing. By using the measured values of the optical density in the four wavelength regions of the four captured images taken at the same timing, the oxidized hemoglobin concentration C (HbO 2 ) and the reduced hemoglobin concentration C (Hb) can be obtained with high accuracy. . Moreover, although it is the same as that of Example 1, the time-sequential change of each picked-up image and measurement value in these several wavelength ranges can be compared, and the time-sequential change of the measurement value in each local position is graphed. It is also possible to do. Thereby, it is also possible to directly examine the change at each wavelength. Other apparatus configurations and processing flows are the same as those in the first embodiment.

実施例1では、比較対象画像として酸素飽和度画像を作成する例を説明したが、実施例3では比較対象画像として第1波長域の撮影画像と第2波長域の撮影画像との差画像を作成する例について説明する。本実施例では、図2の第1比較工程(S140)において、第1波長域の撮影画像と第2波長域の撮影画像とを比較し、比較対象画像作成工程(S150)において、その差画像を作成する。図3より、酸化ヘモグロビン及び還元ヘモグロビンの吸光感度が波長依存性を有し、特定の波長で両者の吸光感度が逆転することがわかる。そこで、酸化ヘモグロビンの感度が高い波長と還元ヘモグロビンの感度が高い波長の差画像を作成すればより血管部分を明瞭に抽出できる。また、差画像を作成すると、波長により吸光感度が変化しない部分を除去した画像が得られるので、波長により吸光感度が変化する部分、例えば血管(動脈、静脈)を低バックグラウンドノイズで抽出できる。本実施例では、このように、比較部70では、第1比較モードにおいて、比較対象画像として第1波長域の撮影画像と第2波長域の撮影画像との差画像を作成し、血管(動脈、静脈)を抽出する。また、第2比較モードにおいて、抽出された血管(動脈、静脈)を時系列的に比較し、刺激による血管(動脈、静脈)の反応を検知する。なお、時系列的比較として、差画像で局所部分の平均強度を算出してグラフ化してもよい。これにより、画像解析部75にて、血管(動脈、静脈)部分に特定した解析ができる。その他の装置構成及び処理フローは実施例1と同様である。本実施例によれば、波長域の異なる撮影画像の差画像を利用して、明瞭に血管部分等の特定部分を抽出できるような機能イメージング眼科装置を提供できる。   In Example 1, an example in which an oxygen saturation image is created as a comparison target image has been described. In Example 3, a difference image between a captured image in the first wavelength region and a captured image in the second wavelength region is used as a comparison target image. An example of creation will be described. In this embodiment, in the first comparison step (S140) of FIG. 2, the captured image in the first wavelength range is compared with the captured image in the second wavelength range, and the difference image is compared in the comparison target image creation step (S150). Create FIG. 3 shows that the absorption sensitivities of oxyhemoglobin and reduced hemoglobin have wavelength dependence, and the absorption sensitivities of both are reversed at a specific wavelength. Therefore, if a difference image between a wavelength with high sensitivity of oxyhemoglobin and a wavelength with high sensitivity of deoxyhemoglobin is created, the blood vessel portion can be extracted more clearly. Further, when the difference image is created, an image is obtained by removing a portion where the light absorption sensitivity does not change depending on the wavelength, so that a portion where the light absorption sensitivity changes depending on the wavelength, for example, blood vessels (arteries, veins) can be extracted with low background noise. In the present embodiment, in this way, in the first comparison mode, the comparison unit 70 creates a difference image between the captured image in the first wavelength region and the captured image in the second wavelength region as the comparison target image, and the blood vessel (artery) Extract veins). In the second comparison mode, the extracted blood vessels (arteries and veins) are compared in time series, and the reaction of the blood vessels (arteries and veins) due to the stimulation is detected. As a time-series comparison, the average intensity of the local portion may be calculated from the difference image and graphed. Accordingly, the image analysis unit 75 can perform analysis specified for the blood vessel (artery, vein) portion. Other apparatus configurations and processing flows are the same as those in the first embodiment. According to the present embodiment, it is possible to provide a functional imaging ophthalmologic apparatus that can clearly extract a specific portion such as a blood vessel portion by using a difference image of captured images having different wavelength ranges.

実施例1では、第1比較モード及び第2比較モードを共に実行し、両者の結果を共に表示する例を説明したが、実施例4では第2比較モードのみを実行し、その比較結果を表示する例について説明する。実施例1と異なる点を主に説明する。   In the first embodiment, an example in which both the first comparison mode and the second comparison mode are executed and both results are displayed has been described. However, in the fourth embodiment, only the second comparison mode is executed and the comparison result is displayed. An example will be described. Differences from the first embodiment will be mainly described.

図14に、本実施例における眼機能画像解析方法の処理フロー例を示す。図2に比して波長分割工程(S120)、第1比較工程(S140)ないし第1表示工程(S155)がなく、同じタイミングで複数波長域での受光工程(S130)の代わりに全体で1つの受光工程(S135)がある。第2比較工程(S170)では刺激の前中後における撮影画像又は撮影画像に基づいて加工した画像を時系列的に比較する。装置構成では、図1において、波長分割部28がなくなり、受光光学系20及び受光部30は1つになる。この構成では、血管中の酸素飽和度のような定量的な変化を検出できないが、酸素濃度の変化のために血管の吸収光量の変化を検出できるので、刺激による反応の様相を定性的に検出可能である。なお、受光部30の前に波長可変フィルタを挿入すれば、時間は異なるが複数波長域での受光も可能になる。その他の装置構成及び処理フローは実施例1と同様である。   FIG. 14 shows an example of the processing flow of the eye function image analysis method in the present embodiment. Compared to FIG. 2, there is no wavelength division step (S120), first comparison step (S140) to first display step (S155), and instead of the light receiving step (S130) in a plurality of wavelength regions at the same timing, 1 in total. There are two light receiving steps (S135). In the second comparison step (S170), the captured images before and after stimulation or images processed based on the captured images are compared in time series. In the apparatus configuration, in FIG. 1, the wavelength division unit 28 is eliminated, and the light receiving optical system 20 and the light receiving unit 30 become one. With this configuration, quantitative changes such as oxygen saturation in the blood vessel cannot be detected, but changes in the amount of absorbed blood in the blood vessel can be detected due to changes in the oxygen concentration. Is possible. If a wavelength tunable filter is inserted in front of the light receiving unit 30, it is possible to receive light in a plurality of wavelength regions although the time is different. Other apparatus configurations and processing flows are the same as those in the first embodiment.

実施例1では、第1比較モード及び第2比較モードを共に実行し、両者の結果を共に表示する例を説明したが、実施例5では、第1比較モードのみを実行し、第2比較モードを行わない例を説明する。実施例1と異なる点を主に説明する。   In the first embodiment, an example in which both the first comparison mode and the second comparison mode are executed and both results are displayed has been described. In the fifth embodiment, only the first comparison mode is executed and the second comparison mode is executed. An example of not performing will be described. Differences from the first embodiment will be mainly described.

図15に、眼機能画像解析方法の処理フロー例を示す。図2に比して、刺激前中後コース判定工程(S105)、繰り返し回数判定工程(S160)、第2比較工程(S170)、第2表示工程(S175)が削除されている。すなわち、測定は刺激中の1回又は刺激後の1回でも良い。その他の工程は実施例1と同じである。すなわち、受光工程(S130)での第1波長域の撮影画像と第2波長域の撮影画像とを比較し(第1比較工程:S140)、比較対象画像を作成する(比較対象画像作成工程:S150)。比較対象画像として、第1受光部31での撮影画像と前記第2受光部32での撮影画像の差画像を作成すると、波長により吸光感度が変化しない部分を除去した画像が得られるので、波長により吸光感度が変化する部分、例えば血管(動脈、静脈)を低バックグラウンドノイズで抽出できる。また、比較対象画像として酸素飽和度画像を作成しても良い。また、光学系構成は実施例1と同様に図1で表される。   FIG. 15 shows a processing flow example of the eye function image analysis method. Compared to FIG. 2, the pre-stimulus middle and post course determination step (S105), the repetition number determination step (S160), the second comparison step (S170), and the second display step (S175) are deleted. That is, the measurement may be performed once during stimulation or once after stimulation. Other steps are the same as those in the first embodiment. That is, the captured image in the first wavelength region and the captured image in the second wavelength region in the light receiving step (S130) are compared (first comparison step: S140), and a comparison target image is created (comparison target image creation step: S150). When a difference image between the image captured by the first light receiving unit 31 and the image captured by the second light receiving unit 32 is created as a comparison target image, an image in which a portion where the light absorption sensitivity does not change depending on the wavelength is obtained. Thus, a portion where the light absorption sensitivity changes, for example, blood vessels (arteries, veins) can be extracted with low background noise. Further, an oxygen saturation image may be created as a comparison target image. The optical system configuration is represented in FIG.

実施例1では、第1比較モード及び第2比較モードを共に実行し、両者の結果を共に表示する例を説明したが、実施例6では、第1比較モードの表示を省略し、第2比較モードの表示を行う例を説明する。実施例1と異なる点を主に説明する。機能イメージング眼科装置を用いた眼機能画像解析方法の処理フローは、図2から第1表示工程S155を省略するだけである。それでも、第2表示工程(S175)で比較対象画像が時系列的に表示される場合には、その表示に含まれることになる。また、光学系構成は実施例1と同様に図1で表される。したがって、実施例1と同様の効果を奏する。   In the first embodiment, an example in which both the first comparison mode and the second comparison mode are executed and both results are displayed has been described. However, in the sixth embodiment, the display of the first comparison mode is omitted and the second comparison mode is displayed. An example of mode display will be described. Differences from the first embodiment will be mainly described. In the processing flow of the eye function image analysis method using the functional imaging ophthalmologic apparatus, only the first display step S155 is omitted from FIG. Nevertheless, if the comparison target image is displayed in time series in the second display step (S175), it is included in the display. The optical system configuration is represented in FIG. Therefore, the same effects as those of the first embodiment are obtained.

実施例1では、光刺激を付与して繰り返し測定を行なう場合に、第1の時間t1として測定開始時の撮像時間を、第2の時間t2としてその後の撮像時間を採用する例を説明したが、別の選択も可能である。実施例4では、測定開始時の撮像時間を第1の時間t1とし、第1の時間t1での第1の撮影画像P1に基づいて基準マスクM1を形成し、第2番目の撮影時間を第2の時間t2での第2の撮影画像P2から測定対象領域を抽出するマスクM2を基準マスクM1と変換パラメータを用いて形成した後に、第2番目の撮影時間を第1の時間t1、その時の撮影画像を第1の撮影画像P1、その時に形成された抽出マスクを新たな基準マスクM1として使用し、第3番目の撮影時間を第2の時間t2、その時の撮影画像を第2の撮影画像P2、その時に第2の撮影画像P2から測定対象領域を抽出するために形成されるマスクを新たな抽出マスクM2とする。このように、順次、新たな基準マスクM1により新たな抽出マスクM2を形成することも可能である。この方法によれば、第1の時間t1と第2の時間t2の間隔を短くできるので、常に変換の程度が少なくなり、誤差の少ない抽出マスクM2を得られる。その他の光学系構成、処理フローは実施例1と同様であり、実施例1と同様の効果を奏する。   In the first embodiment, in the case where light stimulation is applied and repeated measurement is performed, the imaging time at the start of measurement is used as the first time t1, and the subsequent imaging time is used as the second time t2. Other choices are possible. In Example 4, the imaging time at the start of measurement is the first time t1, the reference mask M1 is formed based on the first captured image P1 at the first time t1, and the second imaging time is set to the second time. After forming the mask M2 for extracting the measurement target region from the second captured image P2 at the time t2 of 2 using the reference mask M1 and the conversion parameter, the second imaging time is the first time t1, The photographed image is used as the first photographed image P1, the extraction mask formed at that time is used as a new reference mask M1, the third photographed time is the second time t2, and the photographed image at that time is the second photographed image. Let P2 be a new extraction mask M2 which is a mask formed to extract the measurement target region from the second captured image P2 at that time. In this way, it is also possible to sequentially form a new extraction mask M2 with a new reference mask M1. According to this method, since the interval between the first time t1 and the second time t2 can be shortened, the degree of conversion is always reduced, and an extraction mask M2 with less errors can be obtained. Other optical system configurations and processing flows are the same as those of the first embodiment, and the same effects as those of the first embodiment are obtained.

実施例1では、光刺激を付与して繰り返し測定を行なう場合に、第1の時間t1として各繰り返しにおける測定開始時の撮像時間を、第2の時間t2としてその後の撮像時間を採用する例を説明したが、別の選択も可能である。実施例8では、第1の時間t1として、光刺激による反応により測定対象領域が最も鮮明に撮影される撮像時間とする。これにより、明確な基準マスクを得られやすく、基準マスクM1の形成が容易になる。また、全撮像画像の中で、位置がほぼ中間にあるものを第1の時間t1とし、他の撮像画像を第2の時間t2として変換処理することもできる。こうすることにより、全体の位置の変化量を抑えることができ、安定した変換画像が得られる。その他の光学系構成、処理フローは実施例1と同様であり、実施例1と同様の効果を奏する。   In Example 1, when repeated measurement is performed with light stimulation, the imaging time at the start of measurement in each repetition is used as the first time t1, and the subsequent imaging time is used as the second time t2. While described, other options are possible. In the eighth embodiment, the first time t1 is an imaging time during which the measurement target region is most clearly imaged by a reaction caused by light stimulation. This makes it easy to obtain a clear reference mask and facilitates the formation of the reference mask M1. Also, conversion processing can be performed by setting the first time t1 as the first time t1 and the other time t2 as the second time t2 of all the captured images. By doing this, the amount of change in the overall position can be suppressed, and a stable converted image can be obtained. Other optical system configurations and processing flows are the same as those of the first embodiment, and the same effects as those of the first embodiment are obtained.

実施例1では、第2比較モードにおいて、画像処理により、眼底の測定対象領域を抽出するためにマスクを形成し、マスクにより抽出された測定対象領域を時系列的に比較する例を説明したが、実施例9では、画像間の位置合わせを行ない、測定対象領域を時系列的に比較する例を説明する。実施例1と異なる点を主に説明する。本実施例では、本来、撮影画像P1,P2に代えて時間t1における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像と時間t2における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像について画像間の位置合わせを適用するのであるが、ここでは説明の簡易のため、撮影画像P1と撮影画像P2について適用する例を説明する。なお、撮影画像には撮影画像を加工処理した画像を含むものとする。   In the first embodiment, in the second comparison mode, an example has been described in which a mask is formed to extract a fundus measurement target region by image processing, and the measurement target regions extracted by the mask are compared in time series. In the ninth embodiment, an example will be described in which alignment between images is performed and measurement target regions are compared in time series. Differences from the first embodiment will be mainly described. In this embodiment, the comparison target image created from the captured image at the first light receiving unit 31 and the captured image at the second light receiving unit 32 at time t1 instead of the captured images P1 and P2 and the first at time t2. The alignment between the images is applied to the comparison target image created from the photographed image at the light receiving unit 31 and the photographed image at the second light receiving unit 32. Here, for simplicity of explanation, the photographed image P1 and the photographed image are captured. An example applied to the image P2 will be described. The captured image includes an image obtained by processing the captured image.

図16に、実施例9における画像処理部7の構成例を示す。その他の構成は実施例1(図1参照)と同様である。画像処理部7は、マスク形成部73が無く、これに代えて異なる時間に取得された撮影画像間の位置合わせを位置合わせ部72により行う。位置合わせ部72が行なう画像間の位置合わせの処理フローは図13の処理フローと類似する。すなわち、画像合わせのマッチング点の選択(S402)から画像の変換(S405)までの工程を位置合わせ部72が行なうが、ここで変換される画像がマスクではなく、第1の時間t1で撮影された撮影画像P1(基準画像)と第2の時間t2で撮影された撮影画像P2(補正前画像)である。そして、変換された補正画像を新たな基準画像とし、次の時間に撮影された撮影画像を新たな補正前画像として、順次、画像合わせのマッチング点の選択(S402)から画像の変換(S405)が行なわれる。また、画像抽出部74は位置合わせ部72により位置合わせされた画像から測定対象領域を抽出する。この抽出には例えば実施例1における基準マスク領域抽出部77での抽出のアルゴリズムを適用できる。その他の処理フローは実施例1において図13で説明したと同様である。   FIG. 16 shows a configuration example of the image processing unit 7 in the ninth embodiment. Other configurations are the same as those of the first embodiment (see FIG. 1). The image processing unit 7 does not have the mask forming unit 73, and instead of this, the registration unit 72 performs alignment between captured images acquired at different times. The processing flow of registration between images performed by the registration unit 72 is similar to the processing flow of FIG. That is, the alignment unit 72 performs the steps from selection of matching points for image matching (S402) to image conversion (S405), but the image to be converted here is not a mask but is taken at the first time t1. The captured image P1 (reference image) and the captured image P2 (pre-correction image) captured at the second time t2. Then, the converted corrected image is used as a new reference image, and the captured image taken at the next time is used as a new pre-correction image, so that image matching matching point selection (S402) to image conversion (S405) are sequentially performed. Is done. Further, the image extraction unit 74 extracts the measurement target region from the image aligned by the alignment unit 72. For this extraction, for example, an extraction algorithm in the reference mask region extraction unit 77 in the first embodiment can be applied. Other processing flows are the same as those described in the first embodiment with reference to FIG.

本実施例では、撮影画像P1,P2に代えて時間t1における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像と時間t2における第1受光部31での撮影画像と第2受光部32での撮影画像から作成された比較対象画像に画像間の位置合わせを適用して、第2比較モードにおいて測定対象領域の画像を時系列的に比較することにより光刺激による眼底の各部分の反応の様相を解析する。このように、画像間の位置合わせを行なえば、マスクを使用しない時系列的比較も可能である。   In this embodiment, instead of the captured images P1 and P2, the comparison target image created from the captured image at the first light receiving unit 31 and the captured image at the second light receiving unit 32 at the time t1 and the first light receiving unit at the time t2. By applying the alignment between the images to the comparison target image created from the captured image at 31 and the captured image at the second light receiving unit 32, the images in the measurement target region are compared in time series in the second comparison mode. Thus, the reaction of each part of the fundus by light stimulation is analyzed. In this way, if alignment between images is performed, a time-series comparison without using a mask is also possible.

実施例1では、刺激の種類として光刺激を使用する例を説明したが、実施例10では経角膜電気刺激を使用する例を説明する。経角膜電気刺激は、例えばコンタクトレンズ型の電極を用いて経角膜的に網膜を電気刺激するもので、神経保護治療が期待されている。実施例1の光学的構成の、光刺激光学系40の照射系である刺激光光源41、コンデンサーレンズ42、反射鏡43を削除し、経角膜的に網膜を電気刺激するための、パルス電源、リード線、コンタクトレンズ型の電極を追加すれば、図1の光学的構成を使用できる。機能イメージング眼科装置を用いた眼機能画像解析方法の処理フローは、光刺激に代えて電気刺激を用いる。その他の構成、処理フローは実施例1と同様である。これにより、電気刺激による被検眼の反応を検知可能である。なお、電気刺激として、強膜上の局所的な部分に電気刺激を与える強膜1点刺激を用いても良い。   In Example 1, although the example which uses a light stimulus as a kind of irritation | stimulation was demonstrated, in Example 10, the example which uses transcorneal electrical stimulation is demonstrated. Transcorneal electrical stimulation is, for example, electrical stimulation of the retina transcorneally using a contact lens type electrode, and neuroprotective treatment is expected. A pulse power source for electrically stimulating the retina transcorneally by eliminating the stimulation light source 41, the condenser lens 42, and the reflecting mirror 43 that are the irradiation system of the optical stimulation optical system 40 in the optical configuration of the first embodiment. If a lead wire or contact lens type electrode is added, the optical configuration of FIG. 1 can be used. The processing flow of the eye function image analysis method using the functional imaging ophthalmologic apparatus uses electrical stimulation instead of light stimulation. Other configurations and processing flow are the same as those in the first embodiment. Thereby, the reaction of the eye to be examined due to electrical stimulation can be detected. Note that as the electrical stimulation, scleral single-point stimulation that applies electrical stimulation to a local portion on the sclera may be used.

以上、本発明の実施の形態について説明したが、本発明は上記の実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で実施例に種々変更を加えられることは明白である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it is obvious that various modifications can be made to the embodiments without departing from the spirit of the present invention. .

例えば、照明用光源については、およそ700nmから900nmの近赤外域の光束を発光できれば、ハロゲンランプに限定されず、レーザ光を使用しても良い。また、波長分割部についても、ダイクロイックミラーに限られず、他のビームスプリッターを使用しても良い。また、画像処理のフローも変更可能であり、例えば基準マスクの形成工程から加工工程を省略しても良く、変換パラメータを求める際に定めた基準ウインドウ領域を基準マスク領域を求めるために用いても良い。また、例えば血管等の特徴を手がかりに、最も鮮明な画像を得られる波長での撮影画像から測定対象領域を抽出し、基準マスクを形成しても良い。また、以上の実施例では、ヘモグロビンの吸収光量を比較・解析する例を説明したが、ヘモグロビン以外の成分の分光分布を測定することも可能である。また、記憶部に測定対象領域としての血管の受光信号強度データを累積することにより、血管の累積データを診断等に利用することも可能である。その他、刺激付与条件、波長域の範囲、撮影条件等も適宜変更可能である。   For example, the illumination light source is not limited to a halogen lamp as long as it can emit a light beam in the near infrared region of about 700 nm to 900 nm, and laser light may be used. Further, the wavelength division unit is not limited to the dichroic mirror, and other beam splitters may be used. Also, the image processing flow can be changed. For example, the processing step may be omitted from the reference mask formation step, or the reference window region determined when obtaining the conversion parameter may be used to obtain the reference mask region. good. Further, for example, a measurement target region may be extracted from a photographed image at a wavelength at which the sharpest image can be obtained using a characteristic such as a blood vessel, and a reference mask may be formed. In the above embodiment, an example in which the amount of absorbed light of hemoglobin is compared and analyzed has been described. However, it is also possible to measure the spectral distribution of components other than hemoglobin. Further, by accumulating the light reception signal intensity data of the blood vessel as the measurement target region in the storage unit, it is possible to use the accumulated blood vessel data for diagnosis or the like. In addition, the stimulus application conditions, the wavelength range, the imaging conditions, and the like can be changed as appropriate.

本発明は、機能イメージング眼科装置に利用できる。特に、複数の波長域の撮影画像を用いて刺激による眼の分光特性の変化を測定する機能イメージング眼科装置に利用できる。   The present invention can be used for a functional imaging ophthalmic apparatus. In particular, it can be used in a functional imaging ophthalmologic apparatus that measures changes in spectral characteristics of an eye due to stimulation using captured images in a plurality of wavelength ranges.

1 機能イメージング眼科装置
2 眼底カメラ部
3 トップハウジング部
7 画像処理定部
6 記憶部
8 制御部
9 表示部
10 照明光学系
11 ハロゲンランプ
12 コンデンサーレンズ
13 分光特性補正フィルタ
14 絞り板
15 反射鏡
16 リレーレンズ
17 ビームスプリッター
18 対物レンズ
20 受光光学系
20A 第1の受光光学系
20B 第2の受光光学系
21 アイリス絞り板
22 合焦レンズ
23 結像レンズ
24 反射鏡
25 切り替えミラー
26 フィールドレンズ
27 ダイクロイックミラー
28 ダイクロイックミラー(波長分割部)
30 受光部
31 第1のCCDカメラ(第1受光部)
32 第2のCCDカメラ(第2受光部)
34 フィルタ
35 結像レンズ
36 フィルタ
37 結像レンズ
40 光刺激光学系
41 刺激光光源
42 コンデンサーレンズ
43 反射鏡
44 ダイクロイックミラー
50 アライメント光学系
51 アライメント光源
53 結像レンズ
54 第3のCCDカメラ
60 ファインダー光学系
70 比較部
70a 第1比較部
70b 第2比較部
71 撮影画像取得部
72 位置合わせ部
73 マスク形成部
74 画像抽出部
75 画像解析部
76 変換パラメータ算出部
77 基準マスク領域抽出部
78 加工処理部
79 抽出マスク作成部
80 条件設定部
81 経過時間判定部
82 繰返回数判定部
A1 基準ウインドウ領域
A2 抽出ウインドウ領域
E 被検眼
F 眼底
M1 基準マスク
M2 抽出マスク
P1 第1の撮影画像
P2 第2の撮影画像
t1 第1の時間
t2 第2の時間
DESCRIPTION OF SYMBOLS 1 Functional imaging ophthalmologic apparatus 2 Fundus camera part 3 Top housing part 7 Image processing fixed part 6 Memory | storage part 8 Control part 9 Display part 10 Illumination optical system 11 Halogen lamp 12 Condenser lens 13 Spectral characteristic correction filter 14 Diaphragm plate 15 Reflecting mirror 16 Relay Lens 17 Beam splitter 18 Objective lens 20 Light receiving optical system 20A First light receiving optical system 20B Second light receiving optical system 21 Iris diaphragm plate 22 Focusing lens 23 Imaging lens 24 Reflecting mirror 25 Switching mirror 26 Field lens 27 Dichroic mirror 28 Dichroic mirror (wavelength division unit)
30 Light-receiving unit 31 First CCD camera (first light-receiving unit)
32 2nd CCD camera (2nd light-receiving part)
34 Filter 35 Imaging lens 36 Filter 37 Imaging lens 40 Stimulating optical system 41 Stimulating light source 42 Condenser lens 43 Reflecting mirror 44 Dichroic mirror 50 Alignment optical system 51 Alignment light source 53 Imaging lens 54 Third CCD camera 60 Viewfinder optics System 70 Comparison unit 70a First comparison unit 70b Second comparison unit 71 Captured image acquisition unit 72 Position adjustment unit 73 Mask formation unit 74 Image extraction unit 75 Image analysis unit 76 Conversion parameter calculation unit 77 Reference mask region extraction unit 78 Processing unit 79 Extraction mask creation unit 80 Condition setting unit 81 Elapsed time determination unit 82 Repeat count determination unit A1 Reference window region A2 Extraction window region E Eye fundus M1 Reference mask M2 Extraction mask P1 First captured image P2 Second imaging Image t1 first time t2 second time

Claims (10)

近赤外域の照明光束で、被検眼の眼底を照明する照明光学系と;
可視域の刺激光束で前記眼底の測定対象領域を照射して刺激する刺激光照射光学系と;
前記照明光束の前記眼底からの反射光束を、近赤外域の複数の波長域の光束に分割する波長分割部と;
前記刺激光束での刺激の前後において、前記波長分割部で分割された複数の波長域の光束を同じタイミングで受光する受光部と;
前記受光部で同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成する第1比較部と、前記第1比較部で作成された比較対象画像を時系列的に比較する第2比較部とを有する比較部と;
前記比較部での比較結果を表示する表示部とを備える;
機能イメージング眼科装置。
An illumination optical system that illuminates the fundus of the subject's eye with a near-infrared illumination beam;
A stimulating light irradiation optical system for irradiating the measurement target region of the fundus with a stimulating light beam in a visible range;
A wavelength division unit that divides the reflected light beam from the fundus of the illumination light beam into light beams in a plurality of near-infrared wavelength regions;
A light receiving unit that receives light beams in a plurality of wavelength regions divided by the wavelength division unit at the same timing before and after stimulation with the stimulation light beam;
A first comparison unit that creates a comparison target image from a plurality of captured images in a plurality of wavelength ranges captured at the same timing by the light receiving unit, and a comparison target image created by the first comparison unit are compared in time series. A comparison unit having a second comparison unit;
A display unit for displaying a comparison result in the comparison unit;
Functional imaging ophthalmic device.
近赤外域の照明光束で、被検眼の眼底を照明する照明光学系と;
可視域の刺激光束で前記眼底の測定対象領域を照射して刺激する刺激光照射光学系と;
前記照明光束の前記眼底からの反射光束を、近赤外域の複数の波長域の光束に分割する波長分割部と;
前記刺激光束での刺激の前後において、前記波長分割部で分割された複数の波長域の光束を同じタイミングで受光する受光部と;
前記受光部で同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成する比較部と;
前記比較対象画像を表示する表示部とを備える;
機能イメージング眼科装置。
An illumination optical system that illuminates the fundus of the subject's eye with a near-infrared illumination beam;
A stimulating light irradiation optical system for irradiating the measurement target region of the fundus with a stimulating light beam in a visible range;
A wavelength division unit that divides the reflected light beam from the fundus of the illumination light beam into light beams in a plurality of near-infrared wavelength regions;
A light receiving unit that receives light beams in a plurality of wavelength regions divided by the wavelength division unit at the same timing before and after stimulation with the stimulation light beam;
A comparison unit that creates a comparison target image from captured images in a plurality of wavelength ranges captured at the same timing by the light receiving unit;
A display unit for displaying the comparison target image;
Functional imaging ophthalmic device.
近赤外域の照明光束で、被検眼の眼底を照明する照明光学系と;
可視域の刺激光束で前記眼底の測定対象領域を照射して刺激する刺激光照射光学系と;
前記照明光束の前記眼底からの反射光束を受光する受光部と;
前記受光部で複数の時間に撮影された撮影画像又は前記撮影画像を基に作成された画像を時系列的に比較する比較部と;
前記比較部での比較結果を表示する表示部とを備える;
機能イメージング眼科装置。
An illumination optical system that illuminates the fundus of the subject's eye with a near-infrared illumination beam;
A stimulating light irradiation optical system for irradiating the measurement target region of the fundus with a stimulating light beam in a visible range;
A light receiving unit that receives a reflected light beam from the fundus of the illumination light beam;
A comparison unit that chronologically compares a captured image captured at a plurality of times by the light receiving unit or an image created based on the captured image;
A display unit for displaying a comparison result in the comparison unit;
Functional imaging ophthalmic device.
前記比較対象画像は、前記複数の波長域での撮影画像から作成された酸素飽和度画像である;
請求項1又は請求項2に記載の機能イメージング眼科装置。
The comparison target image is an oxygen saturation image created from the captured images in the plurality of wavelength ranges;
The functional imaging ophthalmic apparatus according to claim 1 or 2.
前記比較対象画像は、前記複数の波長域のうち2波長域での撮影画像間の差画像である;
請求項1又は請求項2に記載の機能イメージング眼科装置。
The comparison target image is a difference image between captured images in two wavelength regions of the plurality of wavelength regions;
The functional imaging ophthalmic apparatus according to claim 1 or 2.
前記比較部での比較結果から前記刺激光束での刺激による前記被検眼の反応を解析する画像解析部を備える;
請求項1又は請求項3に記載の機能イメージング眼科装置。
An image analysis unit that analyzes a reaction of the eye to be examined by stimulation with the stimulation light beam from a comparison result in the comparison unit;
The functional imaging ophthalmic apparatus according to claim 1 or 3.
前記複数の波長域のうち第1波長域と前記第2波長域は、血液の酸化ヘモグロビンと還元ヘモグロビンの分光濃度特性の交点を挟んで設定されている;
請求項1又は請求項2に記載の機能イメージング眼科装置。
Of the plurality of wavelength ranges, the first wavelength range and the second wavelength range are set across an intersection of spectral density characteristics of oxyhemoglobin and reduced hemoglobin of blood;
The functional imaging ophthalmic apparatus according to claim 1 or 2.
前記第1波長域は730ないし780nmであり、前記第2波長域は820ないし880nmである;
請求項7に記載の機能イメージング眼科装置。
The first wavelength range is 730 to 780 nm, and the second wavelength range is 820 to 880 nm;
The functional imaging ophthalmic apparatus according to claim 7.
前記刺激光束は絞り又はスリットにより前記測定対象領域に照射される;、
請求項1ないし請求項8のいずれか1項に記載の機能イメージング眼科装置。
The stimulation light beam is irradiated to the measurement target region by a diaphragm or a slit;
The functional imaging ophthalmic apparatus according to any one of claims 1 to 8.
近赤外域の照明光束で、被検眼の眼底を照明する照明工程と;
可視域の刺激光束で前記眼底の測定対象領域を照射して刺激する刺激光照射工程と;
前記照明光束の前記眼底からの反射光束を、近赤外域の複数の波長域の光束に分割する波長分割工程と;
前記刺激光照射工程での刺激の前後において、前記波長分割部で分割された複数の波長域の光束を同じタイミングで受光する受光工程と;
前記受光工程で同じタイミングで撮影された複数の波長域での撮影画像から比較対象画像を作成する第1比較工程と;
前記第1比較工程で作成された比較対象画像を時系列的に比較する第2比較工程と;
前記第2比較工程での比較結果を表示する表示工程とを備える;
眼機能画像解析方法。
An illumination process for illuminating the fundus of the subject's eye with a near-infrared illumination beam;
A stimulating light irradiation step of stimulating by irradiating the measurement target area of the fundus with a stimulating light beam in a visible range;
A wavelength division step of dividing the reflected light beam from the fundus of the illumination light beam into light beams in a plurality of near-infrared wavelength regions;
A light receiving step of receiving light beams in a plurality of wavelength regions divided by the wavelength division unit at the same timing before and after stimulation in the stimulation light irradiation step;
A first comparison step of creating a comparison target image from a plurality of captured images in a plurality of wavelength ranges that are captured at the same timing in the light receiving step;
A second comparison step of comparing the comparison target images created in the first comparison step in time series;
A display step of displaying a comparison result in the second comparison step;
Eye function image analysis method.
JP2009020836A 2009-01-30 2009-01-30 Function imaging ophthalmic apparatus Pending JP2010172614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009020836A JP2010172614A (en) 2009-01-30 2009-01-30 Function imaging ophthalmic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009020836A JP2010172614A (en) 2009-01-30 2009-01-30 Function imaging ophthalmic apparatus

Publications (1)

Publication Number Publication Date
JP2010172614A true JP2010172614A (en) 2010-08-12

Family

ID=42704118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009020836A Pending JP2010172614A (en) 2009-01-30 2009-01-30 Function imaging ophthalmic apparatus

Country Status (1)

Country Link
JP (1) JP2010172614A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019170996A (en) * 2018-03-29 2019-10-10 イメドース システムズ ゲーエムベーハー Device and method for determining retinal blood pressure values and for mapping retinal blood pressure values and perfusion pressure values
JP7373502B2 (en) 2018-03-29 2023-11-02 イメドース システムズ ゲーエムベーハー Method and device for testing neurovascular connections in a patient's eye

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0871045A (en) * 1994-09-02 1996-03-19 Canon Inc Eyegrounds inspection apparatus
JP2002521115A (en) * 1998-07-31 2002-07-16 グリンヴァルド,アミラム System and method for non-invasive imaging of retinal function

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0871045A (en) * 1994-09-02 1996-03-19 Canon Inc Eyegrounds inspection apparatus
JP2002521115A (en) * 1998-07-31 2002-07-16 グリンヴァルド,アミラム System and method for non-invasive imaging of retinal function

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019170996A (en) * 2018-03-29 2019-10-10 イメドース システムズ ゲーエムベーハー Device and method for determining retinal blood pressure values and for mapping retinal blood pressure values and perfusion pressure values
JP7373502B2 (en) 2018-03-29 2023-11-02 イメドース システムズ ゲーエムベーハー Method and device for testing neurovascular connections in a patient's eye

Similar Documents

Publication Publication Date Title
JP6970306B2 (en) Multispectral fundus imaging system and method with dynamic visual stimuli
JP4197953B2 (en) Retinal function camera
JP6062793B2 (en) Blood flow diagnostic equipment
CN104523225B (en) Multimodal laser speckle imaging
CN104173023B (en) Information processing apparatus and information processing method
US8807751B2 (en) Retinal fundus surveillance method and apparatus
US7370967B2 (en) Method and apparatus for optical imaging of retinal function
JP5773598B2 (en) Image processing apparatus, image processing method, and program
JP5170625B2 (en) Infrared fundus photographing method and apparatus
WO2020188007A1 (en) A patient tuned ophthalmic imaging system with single exposure multi-type imaging, improved focusing, and improved angiography image sequence display
JP6188992B1 (en) Image analysis apparatus, image analysis system, and operation method of image analysis apparatus
JP6742691B2 (en) Ophthalmic apparatus, image processing method and program
JP5372540B2 (en) Functional imaging ophthalmic apparatus and mask forming method
CN107137073A (en) The microcirculqtory system disease detection technologies such as a kind of glaucoma and diabetes based on first wall blood flow analysis
JP2010172614A (en) Function imaging ophthalmic apparatus
JP2003532461A (en) Non-invasive measurement method using retinal image
JP2009165624A (en) Ophthalmic photographing apparatus
JP2019054994A (en) Ophthalmologic imaging apparatus, ophthalmologic information processing apparatus, program, and recording medium
Di Cecilia et al. Hyperspectral imaging of the human iris
Arimoto et al. Retinal blood oxygen saturation mapping by multispectral imaging and morphological angiography
Beach et al. Multispectral fundus imaging for early detection of diabetic retinopathy
WO2024084753A1 (en) Eye observation device
JP5160958B2 (en) Fundus photographing apparatus and fundus image processing apparatus
JP2018000587A (en) Information acquisition device, imaging device and information acquisition method
JP6664992B2 (en) Ophthalmic imaging equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130806