JP2017185342A - Optical image measuring device - Google Patents

Optical image measuring device Download PDF

Info

Publication number
JP2017185342A
JP2017185342A JP2017139356A JP2017139356A JP2017185342A JP 2017185342 A JP2017185342 A JP 2017185342A JP 2017139356 A JP2017139356 A JP 2017139356A JP 2017139356 A JP2017139356 A JP 2017139356A JP 2017185342 A JP2017185342 A JP 2017185342A
Authority
JP
Japan
Prior art keywords
light
image
optical
spectrum
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017139356A
Other languages
Japanese (ja)
Inventor
雅博 澁谷
Masahiro Shibuya
雅博 澁谷
祥聖 森口
Yoshikiyo Moriguchi
祥聖 森口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017139356A priority Critical patent/JP2017185342A/en
Publication of JP2017185342A publication Critical patent/JP2017185342A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology to acquire an image from which a fixed pattern noise has been removed, regardless of an image or noise mode, without substantially adding hardware.SOLUTION: An optical image measuring device corrects a phase of an interference light spectrum based on an object to be measured, and forms an image based on the corrected spectrum. The optical image measuring device includes an interference optical system, an optical member, and phase correction means. The interference optical system divides a light from a wavelength scan type light source into a signal light and a reference light, and detects an interference light of the signal light and the reference light passing through the object to be measured. The optical member is disposed in a light path of the signal light or in a light path of the reference light. The phase correction means corrects the phase of the spectrum based on the phase shift by the optical member.SELECTED DRAWING: Figure 4

Description

この発明は、光コヒーレンストモグラフィ(Optical Coherence Tomography:以下、OCT)を用いて被測定物体の画像を取得する光画像計測装置に関する。   The present invention relates to an optical image measurement device that acquires an image of an object to be measured using optical coherence tomography (hereinafter referred to as OCT).

近年、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CT(Computed Tomography)のような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。   In recent years, OCT that forms an image representing the surface form or internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT (Computed Tomography), it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.

特許文献1には、いわゆるフーリエドメインOCT(Fourier Domain OCT)の手法を用いた装置が開示されている。すなわち、この装置は、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。更に、この装置は、光ビーム(信号光)をz方向に直交する1方向(x方向)に走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断層画像となる。なお、この手法は、特にスペクトラルドメイン(Spectral Domain)とも呼ばれる。   Patent Document 1 discloses an apparatus using a so-called Fourier domain OCT (Fourier Domain OCT) technique. That is, this apparatus irradiates the object to be measured with a beam of low coherence light, superimposes the reflected light and the reference light to generate interference light, acquires the spectral intensity distribution of the interference light, and performs Fourier transform. By performing the conversion, the form of the object to be measured in the depth direction (z direction) is imaged. Further, this apparatus includes a galvanometer mirror that scans a light beam (signal light) in one direction (x direction) orthogonal to the z direction, thereby forming an image of a desired measurement target region of the object to be measured. It has become. An image formed by this apparatus is a two-dimensional tomographic image in the depth direction (z direction) along the scanning direction (x direction) of the light beam. Note that this technique is also called a spectral domain.

特許文献2には、信号光を水平方向(x方向)及び垂直方向(y方向)に走査(スキャン)することにより水平方向の2次元断層画像を複数形成し、これら複数の断層画像に基づいて測定範囲の3次元の断層情報を取得して画像化する技術が開示されている。この3次元画像化技術としては、たとえば、複数の断層画像を並べて表示させる方法(スタックデータなどと呼ばれる)や、スタックデータに基づきボリュームデータ(ボクセルデータ)を生成し、このボリュームデータにレンダリング処理を施して3次元画像を形成する方法などがある。   In Patent Document 2, a plurality of horizontal two-dimensional tomographic images are formed by scanning (scanning) signal light in the horizontal direction (x direction) and the vertical direction (y direction), and based on the plurality of tomographic images. A technique for acquiring and imaging three-dimensional tomographic information of a measurement range is disclosed. As this three-dimensional imaging technology, for example, a method of displaying a plurality of tomographic images side by side (called stack data), volume data (voxel data) is generated based on the stack data, and rendering processing is performed on the volume data. And a method for forming a three-dimensional image.

特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化する装置が記載されている。このような装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。   Patent Documents 3 and 4 disclose other types of OCT apparatuses. In Patent Document 3, the wavelength of light irradiated to a measured object is scanned (wavelength sweep), and interference intensity obtained by superimposing reflected light of each wavelength and reference light is detected to detect spectral intensity distribution. Is obtained, and an apparatus for imaging the form of the object to be measured by performing Fourier transform on the obtained image is described. Such a device is called a swept source type. The swept source type is a kind of Fourier domain type.

また、特許文献4には、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成するOCT装置が記載されている。このようなOCT装置は、フルフィールド(full−field)タイプ、或いはインファス(en−face)タイプなどと呼ばれる。   In Patent Document 4, the traveling direction of light is obtained by irradiating the object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light. An OCT apparatus for forming an image of an object to be measured in a cross-section orthogonal to is described. Such an OCT apparatus is called a full-field type or an en-face type.

特許文献5には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが応用される以前には、被検眼を観察するための装置として眼底カメラ、スリットランプ、SLOなどが使用されていた(たとえば特許文献6、特許文献7、特許文献8を参照)。眼底カメラは被検眼に照明光を照射し、その眼底反射光を受光することで眼底を撮影する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。SLOは、レーザ光で眼底を走査し、その反射光を光電子増倍管等の高感度な素子で検出することにより眼底表面の形態を画像化する装置である。   Patent Document 5 discloses a configuration in which OCT is applied to the ophthalmic field. Prior to the application of OCT, fundus cameras, slit lamps, SLOs, and the like were used as devices for observing the eye to be examined (see, for example, Patent Document 6, Patent Document 7, and Patent Document 8). A fundus camera is a device that shoots the fundus by illuminating the subject's eye with illumination light and receiving the fundus reflection light. A slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light. The SLO is an apparatus that images the fundus surface by scanning the fundus with laser light and detecting the reflected light with a highly sensitive element such as a photomultiplier tube.

OCTを用いた装置は、高精細の画像を取得できる点、更には断層画像や3次元画像を取得できる点などにおいて、眼底カメラ等に対して優位性を持つ。   An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired, and further, a tomographic image or a three-dimensional image can be acquired.

このように、OCTを用いた装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。   As described above, an apparatus using OCT can be applied to observation of various parts of an eye to be examined, and can acquire high-definition images, and thus has been applied to diagnosis of various ophthalmic diseases.

OCTを用いた装置の中でフーリエドメインOCTの手法を用いた装置では、取得された画像に固定パターンノイズ(Fixed Pattern Noise:以下、FPN)が現れることが知られている。   Among apparatuses using OCT, it is known that fixed pattern noise (hereinafter referred to as FPN) appears in an acquired image in an apparatus using a Fourier domain OCT technique.

図16は、FPNの説明図を表す。図16は、眼底の断層画像(Bスキャン画像)の一例を表したものであり、縦方向が深度方向(z方向)を表し、横方向が走査方向(xy平面における所定方向)を表す。OCTを用いた装置内に設けられた走査手段は、被検眼(眼底)に対して信号光の照射位置を走査方向に走査する。断層画像IMG2は、Bスキャン画像であり、各照射位置におけるAスキャン画像を走査方向に並べることにより取得される。図16では、断層画像IMG2は、たとえば1024ライン分のAスキャン画像を用いて構成される。Aスキャン画像は、指定された照射位置におけるAラインの干渉光のスペクトルに基づいて取得される。断層画像IMG2には、照射位置(Aラインの位置)にかかわらず、所定の深度方向の位置において、たとえばノイズN1〜N5がFPNとして現れる。   FIG. 16 shows an explanatory diagram of FPN. FIG. 16 shows an example of a fundus tomographic image (B-scan image), where the vertical direction represents the depth direction (z direction) and the horizontal direction represents the scanning direction (predetermined direction on the xy plane). The scanning means provided in the apparatus using OCT scans the irradiation position of the signal light on the eye to be examined (fundus) in the scanning direction. The tomographic image IMG2 is a B scan image, and is acquired by arranging A scan images at the respective irradiation positions in the scanning direction. In FIG. 16, the tomographic image IMG2 is configured using, for example, an A-scan image for 1024 lines. The A scan image is acquired based on the spectrum of the interference light of the A line at the designated irradiation position. In the tomographic image IMG2, for example, noises N1 to N5 appear as FPN at positions in a predetermined depth direction regardless of the irradiation position (position of the A line).

スペクトラルドメインの手法を用いた装置(以下、SD−OCT)では、各照射位置におけるAライン方向に平均スペクトルを算出し、測定されたスペクトルから平均スペクトルを差し引くことにより、たとえば図16に示すFPNを除去することができる。   In an apparatus using a spectral domain method (hereinafter referred to as SD-OCT), an average spectrum is calculated in the A-line direction at each irradiation position, and the average spectrum is subtracted from the measured spectrum, for example, the FPN shown in FIG. Can be removed.

しかしながら、スウェプトソースタイプの装置(以下、SS−OCT)では、SD−OCTと同様の手法を用いても、図16に示すようなFPNを除去することができない。この要因として、光学系を構成する光学部材における多重反射や、光源の制御タイミングと光源からの光の出射タイミングとのずれ等が考えられている。そのため、SS−OCTでは、一般的に、前処理として、すべての干渉光のスペクトルの位相を合わせてから画像を形成することによりFPNの除去が行われている。また、このようなSS−OCTにおいてFPNを除去する技術については、種々提案されている(非特許文献1〜3、特許文献9、10)。   However, the swept source type apparatus (hereinafter referred to as SS-OCT) cannot remove the FPN as shown in FIG. 16 even if a technique similar to that of SD-OCT is used. As this factor, a multiple reflection in the optical member constituting the optical system, a shift between the light source control timing and the light emission timing from the light source, and the like are considered. Therefore, in SS-OCT, as a pre-process, FPN is generally removed by forming an image after matching the phases of all interference light spectra. Various techniques for removing FPN in such SS-OCT have been proposed (Non-Patent Documents 1 to 3, Patent Documents 9 and 10).

非特許文献1には、マッハツェンダー干渉計を別途用意し、参照光をさらに分岐して得られた光のスペクトルを計測し、計測されたスペクトルの位相に基づいて干渉信号の位相ずれを補正する技術が開示されている。   Non-Patent Document 1 separately prepares a Mach-Zehnder interferometer, measures the spectrum of light obtained by further branching the reference light, and corrects the phase shift of the interference signal based on the phase of the measured spectrum. Technology is disclosed.

非特許文献2には、ファイバーブラッググレーティング(Fiber Bragg Grating:FBG)を組み入れて、Aラインのトリガー信号を生成し、このトリガー信号を基準に干渉信号の位相ずれを補正する技術が開示されている。   Non-Patent Document 2 discloses a technology that incorporates a fiber Bragg grating (FBG), generates an A-line trigger signal, and corrects a phase shift of an interference signal based on the trigger signal. .

非特許文献3及び特許文献9には、隣接する2つのAラインのうち一方について参照光のスペクトルを用い、所定の式に従って位相ずれを求め、求められた位相ずれに基づいて干渉信号の位相を補正する技術が開示されている。   In Non-Patent Document 3 and Patent Document 9, the spectrum of the reference light is used for one of the two adjacent A lines, the phase shift is obtained according to a predetermined formula, and the phase of the interference signal is calculated based on the obtained phase shift. Techniques for correcting are disclosed.

特許文献10には、干渉光を受光した検出器から出力されたスペクトル信号に含まれるノイズ成分に対応する信号の位相情報を取得し、取得された位相情報に基づいてスペクトル信号の位相ずれを補正する技術が開示されている。   Patent Document 10 acquires phase information of a signal corresponding to a noise component included in a spectrum signal output from a detector that has received interference light, and corrects a phase shift of the spectrum signal based on the acquired phase information. Techniques to do this are disclosed.

特開平11−325849号公報JP 11-325849 A 特開2002−139421号公報JP 2002-139421 A 特開2007−24677号公報JP 2007-24677 A 特開2006−153838号公報JP 2006-153838 A 特開2008−73099号公報JP 2008-73099 A 特開平9−276232号公報JP-A-9-276232 特開2008−259544号公報JP 2008-259544 A 特開2009−11381号公報JP 2009-11811 A 国際公開第2013/103080号International Publication No. 2013/103080 特開2013−156229号公報JP 2013-156229 A

J.F.de Boer et al.、“Phase−stabilized optical frequency domain imaging at 1−μm for measurement of blood flow in the human choroid”、OPTICS EXPRESS.2011 October 24、Vol.19、No.22、pp.20886−20903J. et al. F. de Boer et al. "Phase-stabilized optical frequency domain imaging at 1-μm for measurement of blood in the human choroid", OPTIC EXPRESS. 2011 October 24, Vol. 19, no. 22, pp. 20886-20903 M.T Tsai et al.、“Microvascular Imaging Using Swept−Source Optical Coherence Tomography with Single−Channel Acquisition”、Applied Physics Express 4(2011)、pp.097001−1〜097001−3M.M. T Tsai et al. , “Microvascular Imaging Usage Swept-Source Optical Coherence Tomography with Single-Channel Acquisition”, Applied Physics Express, 4 (20). 09701-1 to 097001-3 Y.Yasuno et al.、“High−penetration swept source Doppler optical coherence angiography by fully numerical phase stabilization”、OPTICS EXPRESS.2012 January 30、Vol.20、No.3、pp.2740−2760Y. Yasuno et al. "High-penetration swept source Doppler optical coherence by full numeric phase stabilization", OPTIC EXPRESS. 2012 January 30, Vol. 20, no. 3, pp. 2740-2760

SS−OCTにおいてFPNを除去する技術については、特許文献1〜10、及び非特許文献1〜3のうち特許文献9、10、及び非特許文献1〜3に開示されている。しかしながら、特許文献9及び非特許文献3に開示されている技術では、干渉光のスペクトルの強度や位相によってFPNを除去することができない場合があり、画像やノイズの態様にかかわらずFPNを除去することができない。また、非特許文献1、2に開示されている技術では、ハードウェアの大幅な追加が必要となり、コスト高や装置の大型化を招く。また、特許文献10に開示されている技術では、断層画像上においてFPNが生じている位置を検出するため、FPNを高精度に識別することは困難であり、画像によってはFPNを除去することができない場合がある。   Techniques for removing FPN in SS-OCT are disclosed in Patent Documents 9 and 10 and Non-Patent Documents 1 to 3 among Patent Documents 1 to 10 and Non-Patent Documents 1 to 3. However, the techniques disclosed in Patent Document 9 and Non-Patent Document 3 sometimes cannot remove the FPN depending on the intensity or phase of the spectrum of the interference light, and remove the FPN regardless of the mode of the image or noise. I can't. In addition, the techniques disclosed in Non-Patent Documents 1 and 2 require a significant addition of hardware, leading to high costs and large equipment. Further, in the technique disclosed in Patent Document 10, it is difficult to identify the FPN with high accuracy because the position where the FPN is generated on the tomographic image is detected. Depending on the image, the FPN can be removed. There are cases where it is not possible.

この発明は、上記の問題を解決するためになされたものであり、その目的の1つは、ハードウェアを大幅に追加することなく、画像やノイズの態様にかかわらずFPNが除去された画像の取得が可能な技術を提供することにある。   The present invention has been made in order to solve the above-mentioned problems, and one of its purposes is that of an image from which FPN is removed regardless of the mode of the image or noise without adding a large amount of hardware. It is to provide a technology that can be acquired.

上記目的を達成するために、請求項1に記載の発明は、被測定物体に基づく干渉光のスペクトルの位相を補正し、補正された前記スペクトルに基づいて画像を形成する光画像計測装置であって、波長走査型光源からの光を信号光と参照光とに分割し、被測定物体を経由した前記信号光と前記参照光との干渉光を検出する干渉光学系と、前記信号光の光路又は前記参照光の光路に配置された光学部材と、前記光学部材による位相ずれに基づいて前記スペクトルの位相を補正する位相補正手段と、を含む。
また、請求項2に記載の発明は、請求項1に記載の光画像計測装置であって、前記位相補正手段は、前記位相ずれに基づいて前記スペクトルの位相をピクセルレベルで補正する。
また、請求項3に記載の発明は、請求項1又は請求項2に記載の光画像計測装置であって、前記位相補正手段は、信号光の各照射位置におけるAラインについて、前記光学部材における位相ずれを求め、求められた前記位相ずれに基づいて前記スペクトルの位相を補正する。
また、請求項4に記載の発明は、請求項1〜請求項3のいずれか一項に記載の光画像計測装置であって、前記位相補正手段は、基準となる位相を有する基準スペクトルと前記スペクトルとの相関値に基づいて前記光学部材における位相ずれを求める。
また、請求項5に記載の発明は、請求項1〜請求項4のいずれか一項に記載の光画像計測装置であって、前記光学部材は、偏光子である。
また、請求項6に記載の発明は、請求項1〜請求項5のいずれか一項に記載の光画像計測装置であって、前記光学部材は、部材内を通過する光の光学距離の変更が可能に構成されている。
また、請求項7に記載の発明は、請求項1〜請求項6のいずれか一項に記載の光画像計測装置であって、前記干渉光学系は、前記信号光の光路又は前記参照光の光路に配置された複数の光学部材を含み、前記位相補正手段は、前記複数の光学部材のいずれか1つにおける位相ずれを求める。
また、請求項8に記載の発明は、請求項1〜請求項7のいずれか一項に記載の光画像計測装置であって、前記被測定物体は、生体眼である。
In order to achieve the above object, an invention according to claim 1 is an optical image measurement device that corrects a phase of a spectrum of interference light based on an object to be measured and forms an image based on the corrected spectrum. An interference optical system that divides light from the wavelength scanning light source into signal light and reference light and detects interference light between the signal light and the reference light that has passed through the object to be measured, and an optical path of the signal light Alternatively, an optical member disposed in the optical path of the reference light, and phase correction means for correcting the phase of the spectrum based on a phase shift by the optical member.
The invention according to claim 2 is the optical image measurement device according to claim 1, wherein the phase correction unit corrects the phase of the spectrum at a pixel level based on the phase shift.
The invention according to claim 3 is the optical image measurement device according to claim 1 or 2, wherein the phase correction unit is configured to adjust the A line at each irradiation position of the signal light in the optical member. A phase shift is obtained, and the phase of the spectrum is corrected based on the obtained phase shift.
The invention according to claim 4 is the optical image measurement device according to any one of claims 1 to 3, wherein the phase correction unit includes a reference spectrum having a reference phase and the reference spectrum. A phase shift in the optical member is obtained based on the correlation value with the spectrum.
Moreover, invention of Claim 5 is an optical image measuring device as described in any one of Claims 1-4, Comprising: The said optical member is a polarizer.
The invention according to claim 6 is the optical image measurement device according to any one of claims 1 to 5, wherein the optical member changes an optical distance of light passing through the member. Is configured to be possible.
The invention according to claim 7 is the optical image measurement device according to any one of claims 1 to 6, wherein the interference optical system is an optical path of the signal light or the reference light. The phase correction means includes a plurality of optical members arranged in an optical path, and obtains a phase shift in any one of the plurality of optical members.
The invention according to claim 8 is the optical image measurement device according to any one of claims 1 to 7, wherein the object to be measured is a living eye.

この発明によれば、ハードウェアを大幅に追加することなく、画像やノイズの態様にかかわらずFPNが除去された画像の取得が可能となる。   According to the present invention, it is possible to obtain an image from which FPN is removed regardless of the mode of the image or noise, without significantly adding hardware.

実施形態に係る眼底撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a fundus photographing device concerning an embodiment. 実施形態に係る眼底撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a fundus photographing device concerning an embodiment. 実施形態に係る眼底撮影装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of a fundus photographing device concerning an embodiment. 実施形態に係る眼底撮影装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of a fundus photographing device concerning an embodiment. 実施形態に係る眼底撮影装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the fundus imaging apparatus according to the embodiment. 実施形態に係る眼底撮影装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the fundus imaging apparatus which concerns on embodiment. 実施形態に係る眼底撮影装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the fundus imaging apparatus according to the embodiment. 実施形態に係る眼底撮影装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the fundus imaging apparatus according to the embodiment. 実施形態に係る眼底撮影装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the fundus imaging apparatus according to the embodiment. 実施形態に係る眼底撮影装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the fundus imaging apparatus according to the embodiment. 実施形態に係る眼底撮影装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the fundus imaging apparatus which concerns on embodiment. 実施形態に係る眼底撮影装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the fundus imaging apparatus which concerns on embodiment. 実施形態に係る眼底撮影装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the fundus imaging apparatus which concerns on embodiment. 実施形態に係る眼底撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a fundus photographing device concerning an embodiment. 実施形態に係る眼底撮影装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of a fundus photographing device concerning an embodiment. 実施形態に係るFPNの説明図である。It is explanatory drawing of FPN which concerns on embodiment.

この発明に係る光画像計測装置の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る光画像計測装置は、OCTを用いて被測定物体の断層画像や3次元画像を形成する。この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。   An example of an embodiment of an optical image measurement device according to the present invention will be described in detail with reference to the drawings. The optical image measurement device according to the present invention forms a tomographic image or a three-dimensional image of an object to be measured using OCT. In this specification, images acquired by OCT may be collectively referred to as OCT images. In addition, a measurement operation for forming an OCT image may be referred to as OCT measurement. In addition, it is possible to use suitably the description content of the literature described in this specification as the content of the following embodiment.

以下の実施形態では、被測定物体を生体眼(被検眼、眼底)とし、フーリエドメインタイプのOCTの手法により眼底のOCT計測を行う光画像計測装置が適用された眼底撮影装置について説明する。特に、実施形態に係る眼底撮影装置は、スウェプトソースタイプのOCTの手法を用いて眼底のOCT画像及び眼底像の双方を取得可能である。なお、スウェプトソースタイプ以外のタイプ、たとえばスペクトラルドメインのOCTの手法を用いる光画像計測装置に対して、この発明に係る構成を適用することも可能である。また、この実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、眼底カメラ以外の眼底撮影装置、たとえばSLO(Scanning Laser Ophthalmoscope)、スリットランプ、眼科手術用顕微鏡などに、この実施形態に係る構成を有するOCT装置を組み合わせることも可能である。また、この実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。   In the following embodiments, a fundus imaging apparatus to which an optical image measurement device that performs OCT measurement of the fundus by a Fourier domain type OCT method using a living body eye (examined eye, fundus) as an object to be measured will be described. In particular, the fundus imaging apparatus according to the embodiment can acquire both an OCT image and a fundus image of the fundus using a swept source type OCT technique. Note that the configuration according to the present invention can be applied to an optical image measurement apparatus using a type other than the swept source type, for example, a spectral domain OCT technique. In this embodiment, an apparatus combining an OCT apparatus and a fundus camera will be described. However, this embodiment may be applied to a fundus imaging apparatus other than a fundus camera, such as an SLO (Scanning Laser Ophthalmoscope), a slit lamp, an ophthalmic surgical microscope, and the like. It is also possible to combine an OCT apparatus having the configuration according to the above. In addition, the configuration according to this embodiment can be incorporated into a single OCT apparatus.

[構成]
図1及び図2に示すように、眼底撮影装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
[Constitution]
As shown in FIGS. 1 and 2, the fundus imaging apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The retinal camera unit 2 has almost the same optical system as a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.

〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efを角膜側から見た正面画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、又は近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for acquiring a front image (fundus image) of the eye E of the eye E viewed from the cornea side. The fundus image includes an observation image and a captured image. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.

眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30とが設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38。)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。   The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38). The imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.

照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。   The observation light source 11 of the illumination optical system 10 is constituted by a halogen lamp, for example. The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef. An LED (Light Emitting Diode) can also be used as the observation light source.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。   The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens. The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system 30 is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.

撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。   The imaging light source 15 is constituted by, for example, a xenon lamp. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. On the display device 3, an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In addition, when similar imaging is performed by illuminating the eye E with infrared light, an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。   An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.

LCD39から出力された光は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   A part of the light output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。   By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed. As the fixation position of the eye E, for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.

更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。   Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in a conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。   The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the aperture mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。   The cornea-reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, and is reflected by the mirror 32. The light passes through 33A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. The light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。   The fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the cornea reflection light of the alignment light. A light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.

ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。   The dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus photography. The dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing. In this optical path for OCT measurement, a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。   The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1 and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.

ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。ガルバノスキャナ42は、この実施形態において、被検眼に対する信号光LSの照射位置を走査する「走査手段」の一例である。   The galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS. The galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane. In this embodiment, the galvano scanner 42 is an example of a “scanning unit” that scans the irradiation position of the signal light LS on the eye to be examined.

〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスウェプトソースタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、波長走査型(波長掃引型)光源からの光を信号光と参照光とに分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系における干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef. This optical system has the same configuration as a conventional swept source type OCT apparatus. That is, this optical system splits light from a wavelength scanning (wavelength sweep) light source into signal light and reference light, and causes signal light passing through the fundus oculi Ef and reference light passing through the reference optical path to interfere with each other. This is an interference optical system that generates interference light and detects the interference light. The detection result (detection signal) of the interference light in the interference optical system is a signal indicating the spectrum of the interference light, and is sent to the arithmetic control unit 200.

光源ユニット101は、一般的なスウェプトソースタイプのOCT装置と同様に、出射光の波長を走査(掃引)可能な波長走査型(波長掃引型)光源を含んで構成される。光源ユニット101は、人眼では視認できない近赤外の波長帯において、出力波長を時間的に変化させる。光源ユニット101から出力された光を符号L0で示す。   The light source unit 101 includes a wavelength scanning type (wavelength sweeping type) light source capable of scanning (sweeping) the wavelength of the emitted light, as in a general swept source type OCT apparatus. The light source unit 101 temporally changes the output wavelength in the near-infrared wavelength band that cannot be visually recognized by the human eye. The light output from the light source unit 101 is indicated by a symbol L0.

光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。偏波コントローラ103は、たとえばループ状にされた光ファイバ102に対して外部から応力を与えることで、光ファイバ102内を導かれる光L0の偏光状態を調整する。   The light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102 and its polarization state is adjusted. The polarization controller 103 adjusts the polarization state of the light L0 guided through the optical fiber 102, for example, by applying stress from the outside to the looped optical fiber 102.

偏波コントローラ103により偏光状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて信号光LSと参照光LRとに分割される。   The light L0 whose polarization state is adjusted by the polarization controller 103 is guided to the fiber coupler 105 by the optical fiber 104, and is divided into the signal light LS and the reference light LR.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束となる。平行光束となった参照光LRは、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRと信号光LSの光路長(光学距離)を合わせるための遅延手段として作用する。分散補償部材113は、参照光LRと信号光LSの分散特性を合わせるための分散補償手段として作用する。   The reference light LR is guided to the collimator 111 by the optical fiber 110 and becomes a parallel light beam. The reference light LR that has become a parallel light beam is guided to the corner cube 114 via the optical path length correction member 112 and the dispersion compensation member 113. The optical path length correction member 112 functions as a delay unit for matching the optical path lengths (optical distances) of the reference light LR and the signal light LS. The dispersion compensation member 113 functions as a dispersion compensation means for matching the dispersion characteristics of the reference light LR and the signal light LS.

コーナーキューブ114は、コリメータ111により平行光束となった参照光LRの進行方向を逆方向に折り返す。コーナーキューブ114に入射する参照光LRの光路と、コーナーキューブ114から出射する参照光LRの光路とは平行である。また、コーナーキューブ114は、参照光LRの入射光路及び出射光路に沿う方向に移動可能とされている。この移動により参照光LRの光路(参照光路)の長さが変更される。   The corner cube 114 folds the traveling direction of the reference light LR that has become a parallel light beam by the collimator 111 in the reverse direction. The optical path of the reference light LR incident on the corner cube 114 and the optical path of the reference light LR emitted from the corner cube 114 are parallel. The corner cube 114 is movable in a direction along the incident optical path and the outgoing optical path of the reference light LR. By this movement, the length of the optical path (reference optical path) of the reference light LR is changed.

コーナーキューブ114を経由した参照光LRは、波長板(たとえばλ/4板又はλ/2板)115、分散補償部材113、及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換されて光ファイバ117に入射し、偏波コントローラ118に導かれて参照光LRの偏光状態が調整される。波長板115は、偏光方向を調整する光学部材である。また、波長板115は、参照光LRの位相ずれを求めるために用いられる。図2では、波長板115は、参照光LRの光路に配置される。波長板115は、この実施形態における「光学部材」の一例である。   The reference light LR that has passed through the corner cube 114 passes through a wave plate 115 (for example, a λ / 4 plate or a λ / 2 plate) 115, a dispersion compensation member 113, and an optical path length correction member 112, and is collimated from a parallel light beam by a collimator 116. And is incident on the optical fiber 117 and guided to the polarization controller 118 to adjust the polarization state of the reference light LR. The wave plate 115 is an optical member that adjusts the polarization direction. The wave plate 115 is used for obtaining a phase shift of the reference light LR. In FIG. 2, the wave plate 115 is disposed in the optical path of the reference light LR. The wave plate 115 is an example of the “optical member” in this embodiment.

偏波コントローラ118は、たとえば、偏波コントローラ103と同様の構成を有する。偏波コントローラ118により偏光状態が調整された参照光LRは、光ファイバ119によりアッテネータ120に導かれて、演算制御ユニット200の制御の下で光量が調整される。アッテネータ120により光量が調整された参照光LRは、光ファイバ121によりファイバカプラ122に導かれる。   For example, the polarization controller 118 has the same configuration as the polarization controller 103. The reference light LR whose polarization state is adjusted by the polarization controller 118 is guided to the attenuator 120 by the optical fiber 119, and the light quantity is adjusted under the control of the arithmetic control unit 200. The reference light LR whose light amount has been adjusted by the attenuator 120 is guided to the fiber coupler 122 by the optical fiber 121.

ファイバカプラ105により生成された信号光LSは、光ファイバ127により導かれ、コリメータレンズユニット40により平行光束とされる。平行光束にされた信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。   The signal light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40. The signal light LS converted into a parallel light beam reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.

ファイバカプラ122は、光ファイバ128を介して入射された信号光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(たとえば1:1)で、信号光LSと参照光LRとの干渉光を分岐することにより、一対の干渉光LCを生成する。ファイバカプラ122から出射した一対の干渉光LCは、それぞれ光ファイバ123、124により検出器125に導かれる。   The fiber coupler 122 combines (interferes) the signal light LS incident through the optical fiber 128 and the reference light LR incident through the optical fiber 121 to generate interference light. The fiber coupler 122 branches the interference light between the signal light LS and the reference light LR at a predetermined branching ratio (for example, 1: 1), thereby generating a pair of interference lights LC. The pair of interference lights LC emitted from the fiber coupler 122 are guided to the detector 125 by optical fibers 123 and 124, respectively.

検出器125は、たとえば一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力するバランスドフォトダイオード(Balanced Photo Diode:以下、BPD)である。検出器125は、その検出結果(検出信号)を演算制御ユニット200に送る。演算制御ユニット200は、たとえば一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等を施すことで断層画像を形成する。演算制御ユニット200は、形成された画像を表示装置3に表示させる。   The detector 125 is, for example, a balanced photodiode (hereinafter referred to as BPD) that includes a pair of photodetectors that respectively detect a pair of interference lights LC and outputs a difference between detection results obtained by the pair of photodetectors. The detector 125 sends the detection result (detection signal) to the arithmetic control unit 200. The arithmetic control unit 200 forms a tomographic image by performing Fourier transform or the like on the spectrum distribution based on the detection result obtained by the detector 125 for each series of wavelength scans (for each A line), for example. The arithmetic control unit 200 causes the display device 3 to display the formed image.

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。この実施形態では、干渉光学系は、ファイバカプラ105及び122、検出器125、並びにこれらの間で参照光LRや信号光LSを導く光ファイバや各種光学素子を含んで構成される。干渉光学系は、光源ユニット101を更に含んで構成されてもよい。この干渉光学系は、この実施形態における「干渉光学系」の一例である。   In this embodiment, a Michelson type interferometer is employed, but any type of interferometer such as a Mach-Zehnder type can be appropriately employed. In this embodiment, the interference optical system includes fiber couplers 105 and 122, a detector 125, and optical fibers and various optical elements that guide the reference light LR and the signal light LS therebetween. The interference optical system may further include a light source unit 101. This interference optical system is an example of the “interference optical system” in this embodiment.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、検出器125から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスウェプトソースタイプのOCT装置と同様である。
[Calculation control unit]
The configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the detector 125 and forms an OCT image of the fundus oculi Ef. The arithmetic processing for this is the same as that of a conventional swept source type OCT apparatus.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。   The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.

また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15及びLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。   As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.

また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、コーナーキューブ114の移動制御、検出器125の動作制御、アッテネータ120の動作制御、偏波コントローラ103、118の動作制御などを行う。   As the control of the OCT unit 100, the arithmetic control unit 200 controls the operation of the light source unit 101, the movement control of the corner cube 114, the operation control of the detector 125, the operation control of the attenuator 120, and the operations of the polarization controllers 103 and 118. Control and so on.

演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼底撮影装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。   The arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, etc., as in a conventional computer. A computer program for controlling the fundus imaging apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。   The fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more housings. It may be.

〔制御系〕
眼底撮影装置1の制御系の構成について図3及び図4を参照しつつ説明する。
[Control system]
The configuration of the control system of the fundus imaging apparatus 1 will be described with reference to FIGS. 3 and 4.

(制御部)
眼底撮影装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(Control part)
The control system of the fundus imaging apparatus 1 is configured around the control unit 210. The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.

(主制御部)
主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A、光路長変更部41及びガルバノスキャナ42、更にOCTユニット100の光源ユニット101、参照駆動部114A、偏波コントローラ103、118、アッテネータ120、検出器125を制御する。
(Main control unit)
The main control unit 211 performs the various controls described above. In particular, the main control unit 211 includes a focus driving unit 31A of the fundus camera unit 2, an optical path length changing unit 41 and a galvano scanner 42, a light source unit 101 of the OCT unit 100, a reference driving unit 114A, a polarization controller 103, 118, The attenuator 120 and the detector 125 are controlled.

合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることができる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、被検眼Eを動画撮影して得られる画像に基づき被検眼Eの位置や向きに合わせて装置光学系をリアルタイムで移動させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。   The focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed. The main control unit 211 can control an optical system drive unit (not shown) to move the optical system provided in the fundus camera unit 2 three-dimensionally. This control is used in alignment and tracking. Tracking refers to moving the apparatus optical system in accordance with the movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking maintains a suitable positional relationship in which alignment and focus are achieved by moving the apparatus optical system in real time according to the position and orientation of the eye E based on an image obtained by taking a moving image of the eye E. It is a function.

参照駆動部114Aは、参照光の光路に設けられたコーナーキューブ114を、この光路に沿って移動させる。それにより、参照光の光路長が変更される。   114 A of reference drive parts move the corner cube 114 provided in the optical path of reference light along this optical path. Thereby, the optical path length of the reference light is changed.

また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。   Further, the main control unit 211 performs processing for writing data into the storage unit 212 and processing for reading data from the storage unit 212.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼底撮影装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information. The eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information. The storage unit 212 stores various programs and data for operating the fundus photographing apparatus 1.

(画像形成部)
画像形成部220は、検出器125からの検出信号に基づいて、眼底Efの断層画像の画像データを形成する。この処理には、従来のスウェプトソースタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理に加えて、後述のFPNを除去する処理が含まれている。画像形成部220は、この実施形態における「画像形成手段」の一例である。
(Image forming part)
The image forming unit 220 forms image data of a tomographic image of the fundus oculi Ef based on the detection signal from the detector 125. In this process, as in the conventional swept source type optical coherence tomography, in addition to processes such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform), a process for removing FPN, which will be described later, is performed. include. The image forming unit 220 is an example of an “image forming unit” in this embodiment.

画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。   The image forming unit 220 includes, for example, the circuit board described above. In this specification, “image data” and “image” based thereon may be identified.

画像形成部220は、干渉光学系により検出された干渉光LCに基づいて被検眼Eの画像を形成する。この際、画像形成部220は、波長板115(光学部材)による位相ずれを求め、求められた位相ずれに基づいて干渉光のスペクトルの位相を補正し、補正された干渉光のスペクトルに基づいて被検眼Eの画像を形成する。干渉光のスペクトルは、検出器125から出力される。   The image forming unit 220 forms an image of the eye E based on the interference light LC detected by the interference optical system. At this time, the image forming unit 220 obtains a phase shift by the wave plate 115 (optical member), corrects the phase of the spectrum of the interference light based on the obtained phase shift, and based on the corrected spectrum of the interference light. An image of the eye E is formed. The spectrum of the interference light is output from the detector 125.

また、画像形成部220は、求められた位相ずれに基づいて干渉光のスペクトルの位相をピクセルレベルで補正することが可能である。FPNの要因の1つとして、干渉光の検出信号を取り込む手段(たとえば、DAQ(Data Acquisition Board))の動作クロックと、波長走査型光源(光源ユニット101)における波長走査タイミング(いわゆるkクロック)との位相ずれがある。この位相ずれは、検出信号の取り込みタイミングをピクセルレベルでシフトさせる。従って、ピクセルレベルで干渉光のスペクトルの位相を補正することにより、上記の原因に基づくFPNを除去することが可能となる。また、サブピクセルレベルで干渉光のスペクトルの位相を補正することによりFPNを除去することができず、却って画質を劣化させてしまう事態を回避することもできる。   Further, the image forming unit 220 can correct the phase of the spectrum of the interference light at the pixel level based on the obtained phase shift. As one of the factors of FPN, an operation clock of a means for capturing a detection signal of interference light (for example, DAQ (Data Acquisition Board)), a wavelength scanning timing (so-called k clock) in a wavelength scanning light source (light source unit 101), and There is a phase shift of. This phase shift shifts the detection signal capture timing at the pixel level. Therefore, by correcting the phase of the interference light spectrum at the pixel level, it is possible to remove the FPN based on the above cause. In addition, it is possible to avoid a situation in which the FPN cannot be removed by correcting the phase of the spectrum of the interference light at the subpixel level and the image quality is deteriorated.

また、画像形成部220は、求められた位相ずれをピクセルレベルに相当する位相ずれに変換し、変換されたピクセルレベルに相当する位相ずれに基づいて干渉光のスペクトルの位相を補正することが可能である。これにより、サブピクセルレベルの位相ずれに基づいて干渉光のスペクトルの位相を補正した後、この位相補正をピクセルレベルに変換する場合と比較して、高精度な位相補正の処理を簡素化することができる。   Further, the image forming unit 220 can convert the obtained phase shift into a phase shift corresponding to the pixel level, and correct the phase of the spectrum of the interference light based on the phase shift corresponding to the converted pixel level. It is. As a result, after correcting the phase of the interference light spectrum based on the phase shift at the sub-pixel level, the phase correction is simplified compared to the case of converting the phase correction to the pixel level. Can do.

このような画像形成部220は、位相補正部221と、スペクトル演算部222と、参照スペクトル算出部223とを含んで構成されている。   Such an image forming unit 220 includes a phase correction unit 221, a spectrum calculation unit 222, and a reference spectrum calculation unit 223.

位相補正部221は、信号光LSの各照射位置におけるAラインについて、波長板115による位相ずれを求め、求められた位相ずれに基づいて干渉光のスペクトルの位相を補正する。照射位置は、ガルバノスキャナ42によって被検眼Eに対して走査される。スペクトル演算部222は、Aライン毎に、位相補正部221により位相が補正された干渉光のスペクトルから予め算出された参照スペクトルを差し引く。   The phase correction unit 221 obtains a phase shift by the wave plate 115 for the A line at each irradiation position of the signal light LS, and corrects the phase of the spectrum of the interference light based on the obtained phase shift. The irradiation position is scanned with respect to the eye E by the galvano scanner 42. The spectrum calculation unit 222 subtracts a reference spectrum calculated in advance from the spectrum of the interference light whose phase is corrected by the phase correction unit 221 for each A line.

参照スペクトルは、干渉光のスペクトルに基づいて算出される。参照スペクトル算出部223は、ガルバノスキャナ42により走査された複数の照射位置における複数の干渉光のスペクトルに基づいて参照スペクトルを算出する。これにより、バックグラウンドスペクトルを別途取り込んでおく必要がなくなる。バックグラウンドスペクトルは、光学系を予め決められた経路に切り換えることで取得されるが、切り換え後の光学系の経路上の影響や計測環境の影響を受ける場合がある。たとえば、切り換え後の光学系の経路の違いによって、その反射光に起因してバックグラウンドスペクトルに与える影響の度合いが異なることがある。また、たとえば、計測環境の違いによって、バックグラウンドスペクトルそのものが変化することがある。このようなバックグラウンドスペクトルを参照スペクトルとして干渉光のスペクトルを補正すると画質が低下することがある。この実施形態によれば、上記の各種の影響を受けることなく、FPNを除去することが可能となる。   The reference spectrum is calculated based on the spectrum of the interference light. The reference spectrum calculation unit 223 calculates a reference spectrum based on a plurality of interference light spectra at a plurality of irradiation positions scanned by the galvano scanner 42. This eliminates the need to capture a background spectrum separately. The background spectrum is acquired by switching the optical system to a predetermined path, but may be affected by the influence of the optical system path after switching or the measurement environment. For example, depending on the path of the optical system after switching, the degree of influence on the background spectrum may be different due to the reflected light. Further, for example, the background spectrum itself may change due to a difference in measurement environment. If the interference light spectrum is corrected using such a background spectrum as a reference spectrum, the image quality may deteriorate. According to this embodiment, it is possible to remove the FPN without being affected by the various effects described above.

位相補正部221は、この実施形態における「位相補正手段」の一例である。スペクトル演算部222は、この実施形態における「スペクトル演算手段」の一例である。参照スペクトル算出部223は、この実施形態における「参照スペクトル算出手段」の一例である。   The phase correction unit 221 is an example of the “phase correction unit” in this embodiment. The spectrum calculation unit 222 is an example of the “spectrum calculation means” in this embodiment. The reference spectrum calculation unit 223 is an example of the “reference spectrum calculation unit” in this embodiment.

画像形成部220は、スペクトル演算部222により得られたスペクトルに基づいて被検眼Eの画像を形成する。すなわち、画像形成部220は、スペクトル演算部222により得られたスペクトルにフーリエ変換等を施すことで被検眼Eの画像を形成する。   The image forming unit 220 forms an image of the eye E based on the spectrum obtained by the spectrum calculation unit 222. That is, the image forming unit 220 forms an image of the eye E by subjecting the spectrum obtained by the spectrum calculating unit 222 to Fourier transform or the like.

(画像処理部)
画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、トラッキングの実行時において、被検眼Eの前眼部を動画撮影して得られた画像を解析して被検眼Eの位置及び向きを求める処理を行う。
(Image processing unit)
The image processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the image processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. The image processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2. For example, the image processing unit 230 performs processing for obtaining the position and orientation of the eye E by analyzing an image obtained by capturing a moving image of the anterior eye part of the eye E during tracking.

画像処理部230は、断層画像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。   The image processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef. Note that the image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system. As image data of a three-dimensional image, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the image processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and views the image from a specific gaze direction. Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.

また、3次元画像の画像データとして、複数の断層画像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層画像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層画像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。   It is also possible to form stack data of a plurality of tomographic images as image data of a three-dimensional image. The stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, the stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems using one three-dimensional coordinate system (that is, embedding in one three-dimensional space). is there.

以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムが予め格納されている。   The image processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼底撮影装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The user interface 240 includes a display unit 240A and an operation unit 240B. The display unit 240A includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation unit 240B includes the operation device of the arithmetic control unit 200 described above. The operation unit 240B may include various buttons and keys provided on the housing of the fundus photographing apparatus 1 or outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing. The display unit 240 </ b> A may include various display devices such as a touch panel provided on the housing of the fundus camera unit 2.

なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。   The display unit 240A and the operation unit 240B do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. In that case, the operation unit 240B includes the touch panel and a computer program. The operation content for the operation unit 240B is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.

[動作]
眼底撮影装置1の動作について説明する。
[Operation]
The operation of the fundus imaging apparatus 1 will be described.

図5は、眼底撮影装置1の動作の一例を表す。この動作例には、画像に基づく被検眼Eと装置光学系との位置合わせの処理と、画像に基づく走査領域の設定処理とが含まれる。位置合わせの処理には、OCT計測のためのアライメント(オートアライメント)、ピント合わせ(オートフォーカス)、トラッキング(オートトラッキング)が含まれる。   FIG. 5 shows an example of the operation of the fundus imaging apparatus 1. This operation example includes a process for aligning the eye E to be examined and the apparatus optical system based on an image, and a process for setting a scanning region based on the image. The alignment processing includes alignment for OCT measurement (auto alignment), focusing (auto focus), and tracking (auto tracking).

(S1:リアルタイム近赤外動画像の取得を開始)
まず、観察光源11からの照明光(可視カットフィルタ14により近赤外光となる)で眼底Efを連続照明することにより、眼底Efの近赤外動画像の取得を開始する。この近赤外動画像は、連続照明が終了するまでリアルタイムで得られる。この動画像を構成する各フレームの画像は、フレームメモリ(記憶部212)に一時記憶され、画像処理部230に逐次送られる。
(S1: Start acquiring real-time near-infrared video)
First, acquisition of a near-infrared moving image of the fundus oculi Ef is started by continuously illuminating the fundus oculi Ef with illumination light from the observation light source 11 (which becomes near-infrared light by the visible cut filter 14). This near-infrared moving image is obtained in real time until the continuous illumination ends. The image of each frame constituting this moving image is temporarily stored in the frame memory (storage unit 212) and sequentially sent to the image processing unit 230.

なお、被検眼Eには、アライメント光学系50によるアライメント指標と、フォーカス光学系60によるスプリット指標とが投影されている。よって、近赤外動画像にはアライメント指標とスプリット指標とが描画されている。これら指標を用いてアライメントやピント合わせを行うことができる。また、被検眼Eには、LCD39による固視標も投影されている。被検者は、この固視標を凝視するように指示を受ける。   Note that an alignment index by the alignment optical system 50 and a split index by the focus optical system 60 are projected onto the eye E to be examined. Therefore, the alignment index and the split index are drawn on the near-infrared moving image. These indices can be used for alignment and focusing. A fixation target by the LCD 39 is also projected onto the eye E. The subject is instructed to stare at the fixation target.

(S2:アライメント)
画像処理部230は、光学系によって被検眼Eを動画撮影することにより得られるフレームを逐次に解析して、アライメント視標の位置を求め、光学系の移動量を算出する。制御部210は、画像処理部230により算出された光学系の移動量に基づいて図示しない光学系駆動部を制御することにより、オートアライメントを行う。
(S2: Alignment)
The image processing unit 230 sequentially analyzes frames obtained by taking a moving image of the eye E with the optical system, obtains the position of the alignment target, and calculates the movement amount of the optical system. The control unit 210 performs auto alignment by controlling an optical system driving unit (not shown) based on the movement amount of the optical system calculated by the image processing unit 230.

(S3:ピント合わせ)
画像処理部230は、光学系によって被検眼Eを動画撮影することにより得られるフレームを逐次に解析して、スプリット視標の位置を求め、合焦レンズ31の移動量を算出する。制御部210は、画像処理部230により算出された合焦レンズ31の移動量に基づいて合焦駆動部31Aを制御することにより、オートフォーカスを行う。
(S3: Focusing)
The image processing unit 230 sequentially analyzes frames obtained by taking a moving image of the eye E with the optical system, obtains the position of the split target, and calculates the movement amount of the focusing lens 31. The control unit 210 performs autofocus by controlling the focusing drive unit 31A based on the movement amount of the focusing lens 31 calculated by the image processing unit 230.

(S4:トラッキングを開始)
続いて、制御部210は、オートトラッキングを開始する。具体的には、画像処理部230は、光学系によって被検眼Eを動画撮影することにより逐次に得られるフレームをリアルタイムで解析して、被検眼Eの動き(位置の変化)を監視する。制御部210は、逐次に取得される被検眼Eの位置に合わせて光学系を移動させるように図示しない光学系駆動部を制御する。それにより、被検眼Eの動きに対して光学系をリアルタイムで追従させることができ、アライメントとピントが合った好適な位置関係を維持することが可能となる。
(S4: Start tracking)
Subsequently, the control unit 210 starts auto-tracking. Specifically, the image processing unit 230 analyzes in real time frames obtained sequentially by taking a moving image of the eye E with the optical system, and monitors the movement (position change) of the eye E. The control unit 210 controls an optical system driving unit (not shown) so as to move the optical system in accordance with the position of the eye E to be sequentially acquired. As a result, the optical system can follow the movement of the eye E in real time, and it is possible to maintain a suitable positional relationship in which the alignment is in focus.

(S5:走査領域を設定)
制御部210は、近赤外動画像を表示部240Aにリアルタイムで表示させる。ユーザは、操作部240Bを用いることにより、この近赤外動画像上に走査領域を設定する。設定される走査領域は1次元領域でも2次元領域でもよい。
(S5: Set scanning area)
The control unit 210 displays the near-infrared moving image on the display unit 240A in real time. The user sets a scanning region on the near-infrared moving image by using the operation unit 240B. The scanning area to be set may be a one-dimensional area or a two-dimensional area.

なお、信号光LSの走査態様や注目部位(視神経乳頭、黄斑部、病変部等)が予め設定されている場合などには、これら設定内容に基づいて制御部210が走査領域を設定するように構成することも可能である。具体的には、画像処理部230による画像解析により注目部位を特定し、制御部210が、この注目部位を含むように(たとえば、この注目部位が中心に位置するように)所定パターンの領域を設定する。   When the scanning mode of the signal light LS and the site of interest (optic nerve head, macula, lesion, etc.) are set in advance, the control unit 210 sets the scanning area based on these settings. It is also possible to configure. Specifically, a region of interest is identified by image analysis by the image processing unit 230, and the control unit 210 defines a region of a predetermined pattern so as to include the region of interest (for example, the region of interest is located at the center). Set.

また、過去に実施されたOCT計測と同じ走査領域を設定する場合(いわゆるフォローアップ)、制御部210は、この過去の走査領域をリアルタイム近赤外動画像上に再現して設定することができる。その具体例として、制御部210は、過去の検査で設定された走査領域を表す情報(走査態様等)と、この走査領域が設定された近赤外眼底像(静止画、たとえばフレームでよい)とを対応付けて記憶部212に記憶している(実用上は、患者IDや左右眼情報とも対応付けられる)。制御部210は、過去の近赤外眼底像と現在の近赤外動画像のフレームとの位置合わせを行い、過去の近赤外眼底像における走査領域に対応する現在の近赤外動画像中の画像領域を特定する。これにより、過去の検査で適用された走査領域が現在の近赤外動画像に対して設定される。   Further, when setting the same scanning region as the OCT measurement performed in the past (so-called follow-up), the control unit 210 can reproduce and set the past scanning region on the real-time near-infrared moving image. . As a specific example, the control unit 210 includes information (scanning mode or the like) indicating a scanning area set in a past examination, and a near-infrared fundus image (a still image, for example, a frame) in which the scanning area is set. Are associated with each other and stored in the storage unit 212 (practically associated with patient ID and left and right eye information). The control unit 210 aligns the past near-infrared fundus image and the frame of the current near-infrared moving image, and in the current near-infrared moving image corresponding to the scanning region in the past near-infrared fundus image. Specify the image area. Thereby, the scanning area applied in the past examination is set for the current near-infrared moving image.

(S6:OCT計測)
制御部210は、光源ユニット101や光路長変更部41を制御するとともに、ステップS5で設定された走査領域に基づいてガルバノスキャナ42を制御することにより、眼底EfのOCT計測を行う。
(S6: OCT measurement)
The control unit 210 controls the light source unit 101 and the optical path length changing unit 41, and controls the galvano scanner 42 based on the scanning region set in step S5, thereby performing OCT measurement of the fundus oculi Ef.

画像形成部220は、OCT計測により得られた干渉光のスペクトルに基づいて眼底Efの断層画像を形成する。走査態様が3次元スキャンである場合、画像処理部230は、画像形成部220により形成された複数の断層画像に基づいて眼底Efの3次元画像を形成する。以上で、この動作例は終了となる(エンド)。   The image forming unit 220 forms a tomographic image of the fundus oculi Ef based on the spectrum of the interference light obtained by the OCT measurement. When the scanning mode is a three-dimensional scan, the image processing unit 230 forms a three-dimensional image of the fundus oculi Ef based on a plurality of tomographic images formed by the image forming unit 220. This is the end of this operation example (end).

なお、上記ステップS4、S5の順序を入れ替えてもよい。また、上記ステップS4、S5では、近赤外動画像を表示させ、この近赤外動画像上に走査領域を設定しているが、走査領域の設定態様はこれに限定されるものではない。たとえば、近赤外動画像における一のフレームの画像(基準画像と呼ぶ)を表示させるとともに、そのバックグラウンドでオートトラッキングを実行する。基準画像上に走査領域が設定されると、制御部210は、基準画像と、現にオートトラッキングに供されている画像との間の位置合わせを行うことにより、基準画像上に設定された走査領域に対応するリアルタイム近赤外動画像中の画像領域を特定する。この処理によっても上記ステップS4、S5と同様にリアルタイム近赤外動画像中に走査領域を設定できる。更に、この方法によれば、静止画像上に走査領域を設定することができるので、現にオートトラッキングされている動画像上に設定する場合よりも作業の容易化や確実化を図ることができる。   Note that the order of steps S4 and S5 may be changed. In steps S4 and S5, a near-infrared moving image is displayed and a scanning area is set on the near-infrared moving image. However, the setting mode of the scanning area is not limited to this. For example, an image of one frame (referred to as a reference image) in the near-infrared moving image is displayed, and auto tracking is executed in the background. When the scanning area is set on the reference image, the control unit 210 performs alignment between the reference image and the image currently used for auto-tracking, thereby setting the scanning area set on the reference image. An image region in the real-time near-infrared moving image corresponding to is specified. This process can also set the scanning area in the real-time near-infrared moving image as in steps S4 and S5. Further, according to this method, since the scanning area can be set on the still image, the work can be facilitated and ensured as compared with the case of setting on the moving image that is actually auto-tracked.

この実施形態では、検出器125により得られた干渉光のスペクトルに対してフーリエ変換を施すことにより、次のようなプロファイルが得られる。   In this embodiment, the following profile is obtained by performing Fourier transform on the spectrum of the interference light obtained by the detector 125.

図6は、この実施形態におけるプロファイルの一例を表す。図6は、横軸がインデックスを表し、縦軸が平均パワー(平均強度)を表す。インデックスは、フーリエ変換での周波数を表す変数である。波数は周波数に比例するため、インデックスは波数を表す変数でもある。また、インデックスは、眼底Efの深度(z)方向の座標位置にも対応する変数である。   FIG. 6 shows an example of a profile in this embodiment. In FIG. 6, the horizontal axis represents the index, and the vertical axis represents the average power (average intensity). The index is a variable representing a frequency in Fourier transform. Since the wave number is proportional to the frequency, the index is also a variable representing the wave number. The index is also a variable corresponding to the coordinate position of the fundus oculi Ef in the depth (z) direction.

図6に示すプロファイルにおいて略パルス状に平均パワーが変化する部分にFPNが現れる。FPNが現れるインデックスを特定することにより、特定されたインデックスに対応する周波数も特定することができ、FPNの要因の特定が可能となる場合がある。図6では、ノイズFN2、FN3は、光源及び電気系に起因するFPNであり、パターンFN4は、網膜層の信号である。ノイズFN6は、波長板115の前面と後面における多重反射に起因したノイズであり、高い平均パワーで安定している。   In the profile shown in FIG. 6, FPN appears in a portion where the average power changes in a substantially pulse shape. By specifying the index at which the FPN appears, the frequency corresponding to the specified index can also be specified, and the factor of the FPN may be specified. In FIG. 6, noises FN2 and FN3 are FPN caused by the light source and the electrical system, and a pattern FN4 is a signal of the retinal layer. The noise FN6 is noise caused by multiple reflections on the front and rear surfaces of the wave plate 115, and is stable at a high average power.

そこで、この実施形態では、以下のように、波長板115におけるFPNに基づいて位相ずれを求めることにより、画像やノイズの態様にかかわらずFPNが除去された画像の取得を可能にする。   Therefore, in this embodiment, by obtaining the phase shift based on the FPN in the wave plate 115 as described below, it is possible to obtain an image from which the FPN has been removed regardless of the mode of the image or noise.

[FPNの除去処理]
図7は、この実施形態に係る眼底撮影装置1における具体的なFPNの除去処理の一例を表す。この動作例は、ステップS6におけるOCT計測により干渉光のスペクトルが得られた後であって断層画像が形成される前に、画像形成部220により実行される処理である。図7に示す処理は、Aライン毎に波長板115の位相ずれを求め、求められた位相ずれに基づいて干渉光のスペクトルの位相を補正する処理と、1断層画像内で1つの参照スペクトルを算出する処理と、Aライン毎にFPNを除去する処理とを含む。
[FPN removal process]
FIG. 7 shows an example of a specific FPN removal process in the fundus imaging apparatus 1 according to this embodiment. This operation example is processing executed by the image forming unit 220 after the interference light spectrum is obtained by the OCT measurement in step S6 and before the tomographic image is formed. In the process shown in FIG. 7, the phase shift of the wave plate 115 is obtained for each A line, the process of correcting the phase of the spectrum of the interference light based on the obtained phase shift, and one reference spectrum in one tomographic image. The calculation process and the process of removing the FPN for each A line are included.

(S11:1断層画像のスペクトルを取得)
図5のステップS6におけるOCT計測では、眼底Efにおける各照射位置の干渉光を検出することにより得られた干渉光のスペクトルが、たとえば記憶部212に保存される。ここで、1断層画像(Bスキャン画像)が1024ライン分のAスキャン画像により構成されるものとする。1断層画像分に相当する1024ライン分のスペクトルが得られると、画像形成部220は、これらを内部の図示しない記憶部にロードすることにより、1断層画像の干渉光のスペクトルを取得する。画像形成部220は、この記憶部にロードされたスペクトルに対して処理を行う。
(S11: Acquire spectrum of tomographic image)
In the OCT measurement in step S6 of FIG. 5, the spectrum of the interference light obtained by detecting the interference light at each irradiation position on the fundus oculi Ef is stored in the storage unit 212, for example. Here, it is assumed that one tomographic image (B scan image) is composed of 1024 lines of A scan images. When a spectrum of 1024 lines corresponding to one tomographic image is obtained, the image forming unit 220 acquires the spectrum of the interference light of the one tomographic image by loading them into an internal storage unit (not shown). The image forming unit 220 performs processing on the spectrum loaded in the storage unit.

(S12:干渉光のスペクトルの位相を補正)
画像形成部220は、位相補正部221において、Aライン毎に、波長板115の位相ずれを求め、求められた位相ずれが零になる方向に当該Aラインの干渉光のスペクトルの位相を補正する。このとき、位相補正部221は、各Aラインについて、基準となる位相を有する基準スペクトルと当該Aラインの干渉光のスペクトルとの相関値に基づいて波長板115の位相ずれを求める。基準スペクトルは、被検眼に対して信号光LSの照射位置を走査することにより得られた複数のAラインのいずれか1つにおける干渉光のスペクトルとすることが可能である。ステップS12の具体的な処理内容については、後述する。
(S12: Correct the phase of the interference light spectrum)
The image forming unit 220 obtains the phase shift of the wave plate 115 for each A line in the phase correction unit 221 and corrects the phase of the interference light spectrum of the A line in a direction in which the obtained phase shift becomes zero. . At this time, for each A line, the phase correction unit 221 obtains the phase shift of the wave plate 115 based on the correlation value between the reference spectrum having a reference phase and the spectrum of the interference light of the A line. The reference spectrum can be a spectrum of interference light in any one of a plurality of A lines obtained by scanning the irradiation position of the signal light LS on the eye to be examined. Specific processing contents of step S12 will be described later.

(S13:参照スペクトルを算出)
画像形成部220は、参照スペクトル算出部223において、参照スペクトルを算出する。参照スペクトル算出部223は、上記のように、被検眼Eに対する信号光LCの複数の照射位置における複数のAラインの干渉光のスペクトルに基づいて参照スペクトルを算出する。この実施形態では、参照スペクトル算出部223は、複数の干渉光のスペクトルの代表値を、参照スペクトルとして求める。ここでは、参照スペクトル算出部223は、代表値として複数の干渉光のスペクトルの中央値を求める。その具体例として、参照スペクトル算出部223は、複数のAラインの干渉光のスペクトルに対しFFT処理(広義には、フーリエ変換処理。以下、同様。)を施すことにより得られた複数の実数部と複数の虚数部のそれぞれを昇順又は降順にソートし、中央値となる実数部と虚数部に対し逆フーリエ変換を施すことにより実数部を求める。この実数部が、参照スペクトルとして用いられる。ステップS13の具体的な処理内容については、後述する。これ以降のステップS14〜ステップS19の各ステップは、Aライン毎に実行される。
(S13: Calculate reference spectrum)
The image forming unit 220 calculates a reference spectrum in the reference spectrum calculation unit 223. As described above, the reference spectrum calculation unit 223 calculates a reference spectrum based on a plurality of A-line interference light spectra at a plurality of irradiation positions of the signal light LC with respect to the eye E. In this embodiment, the reference spectrum calculation unit 223 obtains a representative value of a plurality of interference light spectra as a reference spectrum. Here, the reference spectrum calculation unit 223 obtains a median value of a plurality of interference light spectra as a representative value. As a specific example, the reference spectrum calculation unit 223 includes a plurality of real parts obtained by performing FFT processing (Fourier transform processing in a broad sense; the same applies hereinafter) on a plurality of interference light spectra of A lines. Each of the plurality of imaginary parts is sorted in ascending or descending order, and the real part is obtained by performing inverse Fourier transform on the real part and imaginary part that are the median value. This real part is used as a reference spectrum. Details of the processing in step S13 will be described later. Subsequent steps S14 to S19 are executed for each A line.

(S14:FPNを除去)
画像形成部220は、スペクトル演算部222において、Aライン毎に、ステップS12において位相補正された当該Aラインの干渉光のスペクトルから、ステップS13において算出された参照スペクトルを差し引くことによりFPNを除去する。
(S14: FPN removed)
The image forming unit 220 removes the FPN by subtracting the reference spectrum calculated in step S13 from the interference light spectrum of the A line phase-corrected in step S12 for each A line in the spectrum calculation unit 222. .

(S15:アポダイゼーション処理)
画像形成部220は、図示しないアポダイゼーション処理部において、ステップS14において得られたスペクトルに対し、アポダイゼーション処理を行う。アポダイゼーション処理は、ステップS14において得られたスペクトルにアポダイゼーション関数を掛け合わせることにより、メインローブの振幅の低下をある程度抑えつつサイドローブの振幅を低下させて、ダイナミックレンジを高める処理である。アポダイゼーション関数としては、公知のハニング窓やガウス窓や矩形窓などの窓関数がある。
(S15: Apodization process)
The image forming unit 220 performs an apodization process on the spectrum obtained in step S14 in an apodization processing unit (not shown). The apodization process is a process of increasing the dynamic range by reducing the amplitude of the side lobe while suppressing the decrease in the amplitude of the main lobe to some extent by multiplying the spectrum obtained in step S14 by the apodization function. As the apodization function, there are known window functions such as a Hanning window, a Gauss window, and a rectangular window.

(S16:分散補償)
画像形成部220は、図示しない分散補償部において、分散特性のばらつき等を数値的に補償する。その具体例として、分散補償部は、アポダイゼーション処理後の当該Aラインの干渉光のスペクトルS(ζ)に対し、次の式(1)に従って、分散補償後のスペクトルS(ζ)を求める。
(S16: Dispersion compensation)
The image forming unit 220 numerically compensates for variations in dispersion characteristics and the like in a dispersion compensation unit (not shown). As a specific example, the dispersion compensation unit obtains the spectrum S 1 (ζ) after dispersion compensation for the spectrum S 0 (ζ) of the interference light of the A line after the apodization processing according to the following equation (1). .

Figure 2017185342
Figure 2017185342

式(1)において、係数aは、所定の2次関数f(ζ)の係数であり、係数aは、所定の3次関数f(ζ)の係数である。係数a、aは、事後的に変更することが可能である。なお、ζは、図6で説明したインデックスである。式(1)は、スペクトルS(ζ)の位相項に対し、(a・f(ζ)+a・f(ζ))を掛け合わせることにより分散を補償する式である。 In equation (1), the coefficient a 2 is a coefficient of a predetermined quadratic function f 2 (ζ), and the coefficient a 3 is a coefficient of a predetermined cubic function f 3 (ζ). The coefficients a 2 and a 3 can be changed afterwards. Note that ζ is the index described with reference to FIG. Expression (1) is an expression for compensating for dispersion by multiplying the phase term of the spectrum S 0 (ζ) by (a 2 · f 2 (ζ) + a 3 · f 3 (ζ)).

(S17:FFT処理、S18:振幅成分を算出)
画像形成部220は、分散補償後のスペクトルS(ζ)に対し、公知のFFTを施す。その後、画像形成部220は、FFT処理により得られた実数部Reと虚数部Imとを用いて、各インデックスζの値について次の式(2)に従って振幅成分Apを求める。式(2)において、ζは、インデックスである。これにより、当該Aラインの各画素について振幅成分が求められる。
(S17: FFT processing, S18: Calculation of amplitude component)
The image forming unit 220 performs a known FFT on the spectrum S 1 (ζ) after dispersion compensation. Thereafter, the image forming unit 220 uses the real part Re and the imaginary part Im obtained by the FFT processing to obtain the amplitude component Ap according to the following equation (2) for the value of each index ζ. In equation (2), ζ is an index. Thereby, an amplitude component is obtained for each pixel of the A line.

Figure 2017185342
Figure 2017185342

(S19:次のAライン?)
ステップS11においてロードされたBスキャン画像を構成するAライン数(1024ライン)分の処理が終了したとき(ステップS19:NO)、画像形成部220は、一連の処理を終了する(エンド)。一方、ステップS11においてロードされたBスキャン画像を構成するAライン数分の処理が終了していないとき(ステップS19:YES)、画像形成部220は、ステップS14に戻って、次のAラインについて、同様の処理を繰り返す。
(S19: Next A line?)
When the processing for the number of A lines (1024 lines) constituting the B-scan image loaded in step S11 is completed (step S19: NO), the image forming unit 220 ends a series of processing (end). On the other hand, when the processing for the number of A lines constituting the B-scan image loaded in step S11 has not been completed (step S19: YES), the image forming unit 220 returns to step S14 and performs the next A line. Repeat the same process.

1断層画像を構成する全画素の振幅成分が求められると、画像形成部220は、たとえば、振幅成分Amに対し20×log10(Am+1)により対数変換を施す。その後、画像処理部220は、1断層画像内で基準ノイズレベルを決め、基準ノイズレベルを基準に、上記のように対数変換された振幅成分に応じて各画素に対し所定の輝度値範囲内のいずれかの値を割り当てる。画像形成部220は、割り当てられた各画素の輝度値を用いて画像を形成する。 When the amplitude components of all the pixels constituting one tomographic image are obtained, the image forming unit 220 performs logarithmic conversion on the amplitude component Am, for example, by 20 × log 10 (Am + 1). Thereafter, the image processing unit 220 determines a reference noise level in one tomographic image, and with respect to each pixel within a predetermined luminance value range according to the amplitude component logarithmically converted as described above with reference to the reference noise level. Assign one of the values. The image forming unit 220 forms an image using the assigned luminance value of each pixel.

[干渉光のスペクトルの位相補正処理]
図8は、図7のステップS12の具体的な処理例のフロー図を表す。ステップS12の処理は、基準スペクトルに対してFFTを施す処理と、各Aラインの干渉光のスペクトルに対してFFTを施す処理と、基準スペクトルと各Aラインの干渉光のスペクトルとの相関値を演算する処理と、ピクセルレベルに相当する位相ずれを算出する処理と、算出された位相ずれに基づいて干渉光のスペクトルの位相を補正する処理とを含む。
[Phase correction of interference light spectrum]
FIG. 8 shows a flowchart of a specific processing example of step S12 of FIG. The process of step S12 includes a process of performing FFT on the reference spectrum, a process of performing FFT on the interference light spectrum of each A line, and a correlation value between the reference spectrum and the interference light spectrum of each A line. A process for calculating, a process for calculating a phase shift corresponding to the pixel level, and a process for correcting the phase of the spectrum of the interference light based on the calculated phase shift.

(S21:基準スペクトルに対するFFT処理)
位相補正部221は、基準スペクトルに対しFFTを施す。このFFT処理は、インデックスζの範囲(たとえば0〜1375)に対応するデータサイズ(たとえば「1376」)で行われる。基準スペクトルは、ガルバノスキャナ42によって走査された複数の照射位置における複数のAラインの干渉光のスペクトルのいずれか1つであり、たとえばガルバノスキャナ42によって走査された最初の照射位置におけるAラインの干渉光のスペクトルとすることができる。
(S21: FFT processing for reference spectrum)
The phase correction unit 221 performs FFT on the reference spectrum. This FFT processing is performed with a data size (for example, “1376”) corresponding to the range of index ζ (for example, 0 to 1375). The reference spectrum is one of a plurality of A-line interference light spectra at a plurality of irradiation positions scanned by the galvano scanner 42, for example, the A-line interference at the first irradiation position scanned by the galvano scanner 42. It can be the spectrum of light.

(S22:実数部、虚数部を保存)
位相補正部221は、ステップS22におけるFFT処理により得られた実数部Re(R)[0]〜Re(R)[1375]、及び虚数部Im(R)[0]〜Im(R)[1375]を、図示しない記憶部に保存する。ステップS23以降では、Aライン毎に処理が実行される。
(S22: Save real part and imaginary part)
The phase correction unit 221 uses the real part Re (R) [0] to Re (R) [1375] and the imaginary part Im (R) [0] to Im (R) [1375] obtained by the FFT process in step S22. ] Is stored in a storage unit (not shown). In step S23 and subsequent steps, processing is executed for each A line.

(S23:対象スペクトルに対するFFT処理)
位相補正部221は、当該Aラインの干渉光のスペクトル(対象スペクトル)に対しFFTを施す。このFFT処理は、インデックスζの範囲に対応するデータサイズ(たとえば「1376」)で行われる。
(S23: FFT processing for target spectrum)
The phase correction unit 221 performs FFT on the spectrum (target spectrum) of the interference light of the A line. This FFT processing is performed with a data size (for example, “1376”) corresponding to the range of the index ζ.

(S24:相関値を演算)
位相補正部221は、実数部及び虚数部のそれぞれについて、基準スペクトルと当該Aラインの干渉光のスペクトル(対象スペクトル)の相関値を演算する。その具体例として、位相補正部221は、次の式(3)に従って、実数部の相関値ReX及び虚数部の相関値ImXを求める。なお、式(3)において、Re(R)[ζ]は、基準スペクトルの実数部を表し、Im(R)[ζ]は、対象スペクトルの虚数部を表し、Re(T)[ζ]は、対象スペクトルの実数部を表し、Im(T)[ζ]は、対象スペクトルの虚数部を表している。
(S24: Calculate correlation value)
The phase correction unit 221 calculates a correlation value between the reference spectrum and the interference light spectrum (target spectrum) of the A line for each of the real part and the imaginary part. As a specific example, the phase correction unit 221 obtains the correlation value ReX of the real part and the correlation value ImX of the imaginary part according to the following equation (3). In Equation (3), Re (R) [ζ] represents the real part of the reference spectrum, Im (R) [ζ] represents the imaginary part of the target spectrum, and Re (T) [ζ] is Represents the real part of the target spectrum, and Im (T) [ζ] represents the imaginary part of the target spectrum.

Figure 2017185342
Figure 2017185342

(S25:波長板による位相ずれを算出)
位相補正部221は、ステップS24において算出された相関値に基づいて波長板115による位相ずれを算出する。ここで、波長板115の前面に対応するインデックスζ=566とし、波長板115の後面に対応するインデックスζ=577とする。図6に示すようなプロファイルを解析することにより、波長板115の前面や後面に対応するインデックスを事前に取得することが可能である。波長板115の前面(インデックスζ=566)による位相ずれφ[rad]は、次の式(4)に従って求められる。
(S25: Calculate the phase shift by the wave plate)
The phase correction unit 221 calculates the phase shift caused by the wave plate 115 based on the correlation value calculated in step S24. Here, an index ζ = 566 corresponding to the front surface of the wave plate 115 is set, and an index ζ = 577 corresponding to the rear surface of the wave plate 115 is set. By analyzing a profile as shown in FIG. 6, it is possible to obtain in advance indexes corresponding to the front and rear surfaces of the wave plate 115. The phase shift φ [rad] due to the front surface (index ζ = 566) of the wave plate 115 is obtained according to the following equation (4).

Figure 2017185342
Figure 2017185342

(S26:ピクセルレベルの位相ずれを算出)
位相補正部221は、ステップS25において算出されたサブピクセルレベルの位相ずれからピクセルレベルに相当する位相ずれを算出する。ステップS26の具体的な処理内容については、後述する。
(S26: Pixel level phase shift is calculated)
The phase correction unit 221 calculates a phase shift corresponding to the pixel level from the subpixel level phase shift calculated in step S25. Specific processing contents of step S26 will be described later.

(S27:共役な位相を乗じて逆FFT処理)
位相補正部221は、ステップS26で算出されたピクセルレベルに相当する位相ずれが零になるように当該Aラインの干渉光のスペクトルの位相を補正する。その具体例として、位相補正部221は、ステップS26で算出されたピクセルレベルに相当する位相ずれに、これに対応した共役な位相を乗じて当該Aラインの干渉光のスペクトルに対し逆FFTを施す。
(S27: Inverse FFT processing by multiplying conjugate phase)
The phase correction unit 221 corrects the phase of the interference light spectrum of the A line so that the phase shift corresponding to the pixel level calculated in step S26 becomes zero. As a specific example, the phase correction unit 221 multiplies the phase shift corresponding to the pixel level calculated in step S26 by a conjugate phase corresponding thereto and performs inverse FFT on the spectrum of the interference light of the A line. .

たとえば、位相補正部221は、後述するように、ピクセルレベルの位相ずれについて、波長板115に対応したインデックスζ=566で割って1波数に相当する位相ずれφ1を求める。位相補正部221は、位相の補正量φ2(ζ)=φ1×ζを用いて次の式に従って共役な位相を乗じる。   For example, as will be described later, the phase correction unit 221 divides the phase shift at the pixel level by the index ζ = 566 corresponding to the wave plate 115 to obtain the phase shift φ1 corresponding to one wave number. The phase correction unit 221 uses the phase correction amount φ2 (ζ) = φ1 × ζ and multiplies the conjugate phase according to the following equation.

Figure 2017185342
Figure 2017185342

続いて、位相補正部221は、式(5)により得られた実数部Re1(ζ)及び虚数部Im1(ζ)に対し逆FFTを施す。   Subsequently, the phase correction unit 221 performs inverse FFT on the real part Re1 (ζ) and the imaginary part Im1 (ζ) obtained by Expression (5).

(S28:実数部を出力)
位相補正部221は、ステップS27における逆FFT処理により得られた実数部Re1(ζ)及び虚数部Im1(ζ)のうち実数部Re1(ζ)を位相補正されたスペクトルとして出力する。
(S28: Output the real part)
The phase correction unit 221 outputs the real part Re1 (ζ) of the real part Re1 (ζ) and the imaginary part Im1 (ζ) obtained by the inverse FFT process in step S27 as a phase-corrected spectrum.

(S29:次のAライン?)
1断層画像を構成するAライン数(1024ライン)分の処理が終了したとき(ステップS29:NO)、位相補正部221は、一連の処理を終了する(エンド)。一方、1断層画像を構成するAライン数分の処理が終了していないとき(ステップS29:YES)、位相補正部221は、ステップS23に戻って、次のAラインについて、同様の処理を繰り返す。
(S29: Next A line?)
When the processing for the number of A lines (1024 lines) constituting one tomographic image is completed (step S29: NO), the phase correction unit 221 ends a series of processing (end). On the other hand, when the processing for the number of A lines constituting one tomographic image has not been completed (step S29: YES), the phase correction unit 221 returns to step S23 and repeats the same processing for the next A line. .

[ピクセルレベルに相当する位相ずれの算出]
図8のステップS26において、事前に設定されたピクセルシフト範囲内でシフトされるピクセル数をpとすると、位相ずれφは、式(6)のように表される。
[Calculation of phase shift equivalent to pixel level]
In step S26 in FIG. 8, when the number of pixels to be shifted within a pixel shift range set in advance is p, the phase shift φ is expressed as in Expression (6).

Figure 2017185342
Figure 2017185342

位相補正部221は、誤差d(たとえば0.5)を考慮した範囲で場合分けすることにより、上記のピクセルシフト範囲内でピクセルレベルに相当する位相ずれを算出する。ここでは、ピクセルシフト範囲のピクセル数pは、−1、0、1、2のいずれかであるものとする。   The phase correction unit 221 calculates a phase shift corresponding to the pixel level within the pixel shift range by dividing the case into a range in consideration of the error d (for example, 0.5). Here, it is assumed that the number of pixels p in the pixel shift range is -1, 0, 1, or 2.

波長板115の前面(インデックスζ=566)では、式(6)より、p=−1、0、1、2のとき、ピクセルレベルの位相ずれφ−1〜φ[rad]は次のようになる。
p=−1:φ−1=2π×(−1)/1376×566=−2.5845808[rad]
p= 0:φ=2π×0/1376×566=0[rad]
p= 1:φ=2π×1/1376×566=2.584508[rad]
p= 2:φ=2π×2/1376×566−2π=−1.114169[rad]
On the front surface of the wave plate 115 (index ζ = 566), from equation (6), when p = −1, 0, 1, 2, the pixel level phase shifts φ −1 to φ 2 [rad] are as follows: become.
p = −1: φ −1 = 2π × (−1) /1376×566=−2.5845808 [rad]
p = 0: φ 0 = 2π × 0/1376 × 566 = 0 [rad]
p = 1: φ 1 = 2π × 1/1376 × 566 = 2.584508 [rad]
p = 2: φ 2 = 2π × 2/1376 × 566-2π = −1.114169 [rad]

位相補正部221は、ステップS25で求められた位相ずれφについて、次のようにピクセルレベルに相当する位相ずれを求める。   The phase correction unit 221 calculates a phase shift corresponding to the pixel level as follows for the phase shift φ obtained in step S25.

図9は、位相補正部221によるピクセルレベルに相当する位相ずれの算出処理の一例を表す。   FIG. 9 illustrates an example of a phase shift calculation process corresponding to the pixel level by the phase correction unit 221.

(S31:φ>φ−d 且つ φ<φ+d?)
ステップS25で求められたサブピクセルレベルの位相ずれφについて、φ>(φ−d)、且つ、φ<(φ+d)のとき(ステップS31:YES)、位相補正部221は、ステップS32に移行する。φ>(φ−d)、且つ、φ<(φ+d)ではないとき(ステップS31:NO)、位相補正部221は、ステップS33に移行する。
(S31: φ> φ 0 −d and φ <φ 0 + d?)
When φ> (φ 0 −d) and φ <(φ 0 + d) with respect to the phase shift φ at the sub-pixel level obtained in step S25 (step S31: YES), the phase correction unit 221 performs step S32. Migrate to When φ> (φ 0 −d) and φ <(φ 0 + d) are not satisfied (step S31: NO), the phase correction unit 221 proceeds to step S33.

(S32:φ1=φ/566)
位相補正部221は、ピクセル数p=0に相当するピクセルレベルの位相ずれφ1を求める。ここでは、位相補正部221は、(φ/ζ)=(φ/566)を求めることにより1波数当たりのピクセルレベルの位相ずれφ1を求める。
(S32: φ1 = φ 0/ 566)
The phase correction unit 221 calculates a pixel level phase shift φ1 corresponding to the number of pixels p = 0. Here, the phase correcting unit 221 obtains a (φ 0 / ζ) = ( φ 0/566) the phase shift φ1 pixel-level per wave number by determining the.

(S33:φ>φ−d 且つ φ<φ+d?)
ステップS25で求められたサブピクセルレベルの位相ずれφについて、φ>(φ−d)、且つ、φ<(φ+d)のとき(ステップS33:YES)、位相補正部221は、ステップS34に移行する。φ>(φ−d)、且つ、φ<(φ+d)ではないとき(ステップS33:NO)、位相補正部221は、ステップS35に移行する。
(S33: φ> φ 1 −d and φ <φ 1 + d?)
When φ> (φ 1 −d) and φ <(φ 1 + d) are satisfied with respect to the sub-pixel level phase shift φ obtained in step S25 (step S33: YES), the phase correction unit 221 performs step S34. Migrate to When φ> (φ 1 −d) and φ <(φ 1 + d) are not satisfied (step S33: NO), the phase correction unit 221 proceeds to step S35.

(S34:φ1=φ/566)
位相補正部221は、ピクセル数p=1に相当するピクセルレベルの位相ずれφ1を求める。ここでは、位相補正部221は、(φ/ζ)=(φ/566)を求めることにより1波数当たりのピクセルレベルの位相ずれφ1を求める。
(S34: φ1 = φ 1/ 566)
The phase correction unit 221 calculates a pixel level phase shift φ1 corresponding to the number of pixels p = 1. Here, the phase correcting unit 221 obtains a (φ 1 / ζ) = ( φ 1/566) the phase shift φ1 pixel-level per wave number by determining the.

(S35:φ>φ−d 且つ φ<φ+d?)
ステップS25で求められたサブピクセルレベルの位相ずれφについて、φ>(φ−d)、且つ、φ<(φ+d)のとき(ステップS35:YES)、位相補正部221は、ステップS36に移行する。φ>(φ−d)、且つ、φ<(φ+d)ではないとき(ステップS35:NO)、位相補正部221は、ステップS37に移行する。
(S35: φ> φ 2 −d and φ <φ 2 + d?)
When φ> (φ 2 −d) and φ <(φ 2 + d) are satisfied for the sub-pixel level phase shift φ obtained in step S25 (step S35: YES), the phase correction unit 221 performs step S36. Migrate to When φ> (φ 2 −d) and φ <(φ 2 + d) are not satisfied (step S35: NO), the phase correction unit 221 proceeds to step S37.

(S36:φ1=φ/566)
位相補正部221は、ピクセル数p=2に相当するピクセルレベルの位相ずれφ1を求める。ここでは、位相補正部221は、(φ/ζ)=(φ/566)を求めることにより1波数当たりのピクセルレベルの位相ずれφ1を求める。
(S36: φ1 = φ 2/ 566)
The phase correction unit 221 obtains a pixel level phase shift φ1 corresponding to the number of pixels p = 2. Here, the phase correcting unit 221 obtains the (φ 2 / ζ) = ( φ 2/566) the phase shift φ1 pixel-level per wave number by determining the.

(S37:φ>φ−1−d 且つ φ<φ−1+d?)
ステップS25で求められたサブピクセルレベルの位相ずれφについて、φ>(φ−1−d)、且つ、φ<(φ−1+d)のとき(ステップS37:YES)、位相補正部221は、ステップS38に移行する。φ>(φ−1−d)、且つ、φ<(φ−1+d)ではないとき(ステップS37:NO)、位相補正部221は、ステップS39に移行する。
(S37: φ> φ −1 -d and φ <φ −1 + d?)
When φ> (φ −1 −d) and φ <(φ −1 + d) for the phase shift φ at the sub-pixel level obtained in step S25 (step S37: YES), the phase correction unit 221 Control goes to step S38. When φ> (φ −1 −d) and φ <(φ −1 + d) are not satisfied (step S37: NO), the phase correction unit 221 proceeds to step S39.

(S38:φ1=φ−1/566)
位相補正部221は、ピクセル数p=−1に相当するピクセルレベルの位相ずれφ1を求める。ここでは、位相補正部221は、(φ−1/ζ)=(φ−1/566)を求めることにより1波数当たりのピクセルレベルの位相ずれφ1を求める。
(S38: φ1 = φ −1 / 566)
The phase correction unit 221 calculates a pixel level phase shift φ1 corresponding to the number of pixels p = −1. Here, the phase correction unit 221 obtains a pixel level phase shift φ1 per wave number by obtaining (φ −1 / ζ) = (φ −1 / 566).

(S39:φ1=0)
位相補正部221は、1波数当たりのピクセルレベルの位相ずれφ1として0を設定する。ステップS39は、事前に設定されたピクセルシフト範囲内での位相ずれが算出できないときに実行される処理であり、位相ずれφ1として0以外の値が設定されてもよい。
(S39: φ1 = 0)
The phase correction unit 221 sets 0 as the phase shift φ1 of the pixel level per wave number. Step S39 is a process executed when a phase shift within a pixel shift range set in advance cannot be calculated, and a value other than 0 may be set as the phase shift φ1.

ステップS32、S34、S36、S38、S39に続いて、位相補正部221は、一連の動作を終了する(エンド)。   Subsequent to steps S32, S34, S36, S38, and S39, the phase correction unit 221 ends a series of operations (end).

[参照スペクトルの算出処理]
図10は、図7のステップS13の具体的な処理例のフロー図を表す。ステップS13の処理は、各Aラインの干渉光のスペクトルに対するFFT処理と、FFT処理結果の中央値を算出する処理と、参照スペクトルを求める処理とを含む。
[Reference spectrum calculation process]
FIG. 10 shows a flowchart of a specific processing example of step S13 in FIG. The process in step S13 includes an FFT process for the interference light spectrum of each A line, a process for calculating the median of the FFT process result, and a process for obtaining a reference spectrum.

(S41:i=0)
参照スペクトル算出部223は、複数のAラインの1つを特定するための変数iを初期化する。ここでは、変数iの初期値として0が設定される。
(S41: i = 0)
The reference spectrum calculation unit 223 initializes a variable i for specifying one of the plurality of A lines. Here, 0 is set as the initial value of the variable i.

(S42:第iのAラインの干渉光のスペクトルに対するFFT処理)
参照スペクトル算出部223は、第iのAラインの干渉光のスペクトルに対しFFT処理(データサイズ=1376)を施す。
(S42: FFT processing for spectrum of interference light of i-th A line)
The reference spectrum calculation unit 223 performs an FFT process (data size = 1376) on the interference light spectrum of the i-th A-line.

(S43:次のAライン?、S44:iをインクリメント)
1断層画像を構成するAライン数(1024ライン)分の処理が終了したとき(ステップS43:YES)、参照スペクトル算出部223は、変数iをインクリメントして(ステップS44)、ステップS42に移行する。一方、1断層画像を構成するAライン数分の処理が終了していないとき(ステップS43:NO)、参照スペクトル算出部223は、ステップS45に移行する。
(S43: next A line ?, S44: i is incremented)
When the processing for the number of A lines (1024 lines) constituting one tomographic image is completed (step S43: YES), the reference spectrum calculation unit 223 increments the variable i (step S44), and proceeds to step S42. . On the other hand, when the processing for the number of A lines constituting one tomographic image has not been completed (step S43: NO), the reference spectrum calculation unit 223 proceeds to step S45.

(S45:実数部の中央値を算出)
参照スペクトル算出部223は、ステップS42におけるFFT処理により得られた複数の実数部の中央値を算出する。その具体例として、参照スペクトル算出部223は、複数の実数部を昇順又は降順にソートし、その中央値を算出する。1断層画像を構成するAライン数が2n(nは自然数。以下、同様。)の場合、参照スペクトル算出部223は、ソートすることにより得られたn番目の実数部と(n+1)番目の実数部との平均値を中央値として算出することができる。Aライン数が(2n+1)の場合、参照スペクトル算出部223は、ソートすることにより得られた(n+1)番目の実数部を中央値として算出することができる。
(S45: Calculate the median of the real part)
The reference spectrum calculation unit 223 calculates the median value of the plurality of real parts obtained by the FFT process in step S42. As a specific example, the reference spectrum calculation unit 223 sorts a plurality of real parts in ascending or descending order, and calculates the median value. When the number of A lines constituting one tomographic image is 2n (n is a natural number; the same applies hereinafter), the reference spectrum calculation unit 223 performs the nth real part and (n + 1) th real number obtained by sorting. The average value with the part can be calculated as the median value. When the number of A lines is (2n + 1), the reference spectrum calculation unit 223 can calculate the (n + 1) th real part obtained by sorting as the median value.

(S46:虚数部の中央値を算出)
参照スペクトル算出部223は、ステップS42におけるFFT処理により得られた複数の虚数部の中央値を算出する。その具体例として、参照スペクトル算出部223は、複数の虚数部を昇順又は降順にソートし、その中央値を算出する。1断層画像を構成するAライン数が2nの場合、参照スペクトル算出部223は、ソートすることにより得られたn番目の虚数部と(n+1)番目の虚数部との平均値を中央値として算出することができる。Aライン数が(2n+1)の場合、参照スペクトル算出部223は、ソートすることにより得られた(n+1)番目の虚数部を中央値として算出することができる。
(S46: Calculate the median of the imaginary part)
The reference spectrum calculation unit 223 calculates the median value of the plurality of imaginary parts obtained by the FFT process in step S42. As a specific example, the reference spectrum calculation unit 223 sorts a plurality of imaginary parts in ascending order or descending order, and calculates the median value. When the number of A lines constituting one tomographic image is 2n, the reference spectrum calculation unit 223 calculates an average value of the nth imaginary part and the (n + 1) th imaginary part obtained by sorting as a median value. can do. When the number of A lines is (2n + 1), the reference spectrum calculation unit 223 can calculate the (n + 1) th imaginary part obtained by sorting as the median.

(S47:算出された実数部、虚数部に対する逆FFT処理)
参照スペクトル算出部223は、ステップS45において算出された実数部の中央値と、ステップS46において算出された虚数部の中央値とに対し、逆FFTを施す。
(S47: Inverse FFT processing for the calculated real part and imaginary part)
The reference spectrum calculation unit 223 performs inverse FFT on the median value of the real part calculated in step S45 and the median value of the imaginary part calculated in step S46.

(S48:実数部を出力)
参照スペクトル算出部223は、ステップS47における逆FFT処理により得られた実数部及び虚数部のうち実数部を参照スペクトルとして出力する。以上で、この動作例は終了となる(エンド)。
(S48: Output the real part)
The reference spectrum calculation unit 223 outputs the real part as a reference spectrum among the real part and the imaginary part obtained by the inverse FFT process in step S47. This is the end of this operation example (end).

[処理結果の例]
図11及び図12は、FPNの要因に対応したインデックス近傍の位相ずれの算出結果の一例を示す。図11は、波長板115に対応するインデックス(=566)近傍の位相ずれの算出結果の一例を表す。図12は、光源又は電気系に対応するインデックス(=110)の近傍における位相ずれの算出結果の一例を表す。図11及び図12は、横軸にインデックス、縦軸にサブピクセルレベルに相当する位相ずれφ[rad]を表し、Aライン毎の位相ずれを表している。
[Example of processing results]
11 and 12 show an example of the calculation result of the phase shift near the index corresponding to the FPN factor. FIG. 11 shows an example of the calculation result of the phase shift near the index (= 566) corresponding to the wave plate 115. FIG. 12 shows an example of the calculation result of the phase shift near the index (= 110) corresponding to the light source or the electrical system. In FIGS. 11 and 12, the horizontal axis represents the index, and the vertical axis represents the phase shift φ [rad] corresponding to the sub-pixel level, and represents the phase shift for each A line.

図11に示すように、波長板115の前面に対応するインデックスの近傍では、位相ずれが安定しており、シフトするピクセル数を−1、0、1、2のいずれかに割り当てることが可能である。これに対し、図12に示すように、光源又は電気系に対応するインデックス近傍では、位相ずれが不安定であり、シフトするピクセル数を−1、0、1、2のいずれかに割り当てることは不可能である。従って、波長板115の前面において安定した位相ずれに基づいて干渉光のスペクトルの位相を補正することで、これまで完全な除去が困難であったFPNの除去を高精度に行うことが可能となる。   As shown in FIG. 11, in the vicinity of the index corresponding to the front surface of the wave plate 115, the phase shift is stable, and the number of pixels to be shifted can be assigned to -1, 0, 1 or 2. is there. On the other hand, as shown in FIG. 12, in the vicinity of the index corresponding to the light source or the electrical system, the phase shift is unstable, and it is possible to assign the number of pixels to be shifted to -1, 0, 1, or 2. Impossible. Therefore, by correcting the phase of the spectrum of the interference light based on the stable phase shift on the front surface of the wave plate 115, it becomes possible to remove the FPN, which has been difficult to remove completely, with high accuracy. .

図13は、この実施形態に係る眼底撮影装置1により取得された断層画像の一例を表す。図13は、眼底の断層画像(Bスキャン画像)であり、縦方向が深度方向(z方向)を表し、横方向が走査方向(xy平面における所定方向)を表す。   FIG. 13 shows an example of a tomographic image acquired by the fundus imaging apparatus 1 according to this embodiment. FIG. 13 is a tomographic image (B-scan image) of the fundus, where the vertical direction represents the depth direction (z direction) and the horizontal direction represents the scanning direction (predetermined direction on the xy plane).

図13に示す断層画像IMG1は、各照射位置におけるAスキャン画像を走査方向に並べることにより取得される。Aスキャン画像は、上記のように波長板115の前面による位相ずれに基づいて位相補正された干渉光のスペクトルを用いて取得されたものである。この実施形態によれば、図16に現れたFPNが除去された眼底Efの断層画像を安定して取得することが可能となる。   The tomographic image IMG1 shown in FIG. 13 is acquired by arranging the A scan images at the respective irradiation positions in the scanning direction. The A-scan image is obtained using the spectrum of interference light that has been phase-corrected based on the phase shift caused by the front surface of the wave plate 115 as described above. According to this embodiment, it is possible to stably acquire a tomographic image of the fundus oculi Ef from which the FPN that has appeared in FIG. 16 has been removed.

この実施形態では、光学部材としての波長板115が参照光LRの光路に配置された場合について説明したが、波長板115は、信号光LSの光路に配置されてもよい。たとえば、図2のファイバカプラ105、122の間の信号光LSの光路に、波長板115が配置される。   In this embodiment, the case where the wave plate 115 as the optical member is arranged in the optical path of the reference light LR has been described, but the wave plate 115 may be arranged in the optical path of the signal light LS. For example, the wave plate 115 is disposed in the optical path of the signal light LS between the fiber couplers 105 and 122 in FIG.

[効果]
眼底撮影装置1は、実施形態に係る光画像計測装置が適用された眼底撮影装置の一例である。以下、実施形態に係る光画像計測装置の効果について説明する。
[effect]
The fundus imaging apparatus 1 is an example of a fundus imaging apparatus to which the optical image measurement device according to the embodiment is applied. Hereinafter, effects of the optical image measurement device according to the embodiment will be described.

実施形態に係る光画像計測装置は、干渉光学系(たとえばファイバカプラ105、122、検出器125、及びこれらの間で参照光LRや信号光LSを導く光ファイバや各種光学素子)と、画像形成手段(たとえば画像形成部220)とを有する。干渉光学系は、光学部材(たとえば波長板115)を有する。   The optical image measurement device according to the embodiment includes an interference optical system (for example, fiber couplers 105 and 122, a detector 125, and an optical fiber and various optical elements that guide the reference light LR and the signal light LS therebetween), and image formation. Means (for example, image forming unit 220). The interference optical system has an optical member (for example, a wave plate 115).

干渉光学系は、波長走査型光源(たとえば光源ユニット101に含まれる波長走査型光源)からの光を信号光(たとえば信号光LS)と参照光(たとえば参照光LR)とに分割し、被測定物体(たとえば被検眼E)を経由した信号光と参照光との干渉光(たとえば干渉光LC)を検出する。光学部材は、信号光の光路又は参照光の光路に配置される。画像形成手段は、干渉光学系により検出された干渉光に基づいて被測定物体の画像を形成する。画像形成手段は、光学部材による位相ずれを求め、求められた位相ずれに基づいて干渉光のスペクトルの位相を補正し、補正された干渉光のスペクトルに基づいて画像を形成する。   The interference optical system divides light from a wavelength scanning light source (for example, a wavelength scanning light source included in the light source unit 101) into signal light (for example, signal light LS) and reference light (for example, reference light LR) to be measured. Interference light (for example, interference light LC) between the signal light and the reference light that passes through the object (for example, eye E) is detected. The optical member is disposed in the optical path of the signal light or the optical path of the reference light. The image forming unit forms an image of the object to be measured based on the interference light detected by the interference optical system. The image forming means obtains a phase shift by the optical member, corrects the phase of the interference light spectrum based on the obtained phase shift, and forms an image based on the corrected interference light spectrum.

SS−OCTでは、波長走査型光源や電気系のジッターや各種光学素子の多重反射等に起因して、取得された画像にFPNが現れることが知られている。この実施形態では、信号光や参照光の光路に配置された光学部材において位相が安定していることに着目し、画像形成手段は、この光学部材による位相ずれを求め、求められた位相ずれに基づいて補正された干渉光のスペクトルにより被測定物体の画像を形成する。これにより、光源や電気系や画像やノイズの態様にかかわらず、FPNの要因となった干渉光のスペクトルの位相ずれを安定して補正することが可能となり、SS−OCTにおいて取得された画像に現れるFPNを除去することが可能となる。また、画像処理によりFPNを除去する必要がなくなるため、処理負荷の軽減と、リアルタイムでFPNが除去された画像の取得に寄与することができる。   In SS-OCT, it is known that FPN appears in acquired images due to wavelength scanning light sources, electrical jitter, multiple reflections of various optical elements, and the like. In this embodiment, paying attention to the fact that the phase is stable in the optical member arranged in the optical path of the signal light and the reference light, the image forming unit obtains the phase shift by the optical member, and the calculated phase shift is obtained. An image of the object to be measured is formed based on the spectrum of the interference light corrected based on it. This makes it possible to stably correct the phase shift of the spectrum of the interference light that has caused the FPN regardless of the light source, the electrical system, the image, and the noise, and the image acquired in SS-OCT can be corrected. It becomes possible to remove the appearing FPN. Further, since it is not necessary to remove the FPN by image processing, it is possible to contribute to the reduction of processing load and the acquisition of an image from which the FPN has been removed in real time.

実施形態に係る光画像計測装置では、画像形成手段は、位相ずれに基づいて干渉光のスペクトルの位相をピクセルレベルで補正するようにしてもよい。   In the optical image measurement device according to the embodiment, the image forming unit may correct the phase of the spectrum of the interference light at the pixel level based on the phase shift.

FPNの要因の1つとして、干渉光の検出信号を取り込む手段の動作クロックと、波長走査型光源における波長走査タイミングとの位相ずれがある。この位相ずれは、干渉光の検出信号の取り込みタイミングをピクセルレベルでシフトさせる。従って、ピクセルレベルで干渉光のスペクトルの位相を補正することにより、上記の要因に基づくFPNを除去することが可能となる。また、サブピクセルレベルで干渉光のスペクトルの位相を補正することによりFPNを除去することができず、却って画質を劣化させてしまう事態を回避することもできる。   One of the causes of FPN is a phase shift between the operation clock of the means for capturing the detection signal of the interference light and the wavelength scanning timing in the wavelength scanning light source. This phase shift shifts the capture timing of the interference light detection signal at the pixel level. Therefore, it is possible to remove the FPN based on the above factors by correcting the phase of the interference light spectrum at the pixel level. In addition, it is possible to avoid a situation in which the FPN cannot be removed by correcting the phase of the spectrum of the interference light at the subpixel level and the image quality is deteriorated.

実施形態に係る光画像計測装置では、画像形成手段は、位相ずれをピクセルレベルに相当する位相ずれに変換し、変換されたピクセルレベルに相当する位相ずれに基づいて干渉光のスペクトルの位相を補正するようにしてもよい。   In the optical image measurement device according to the embodiment, the image forming unit converts the phase shift into a phase shift corresponding to the pixel level, and corrects the phase of the spectrum of the interference light based on the phase shift corresponding to the converted pixel level. You may make it do.

このような光画像計測装置によれば、サブピクセルレベルの位相ずれに基づいて干渉光のスペクトルの位相を補正した後、この位相補正をピクセルレベルに変換する場合と比較して、高精度な位相補正の処理を簡素化することができる。   According to such an optical image measurement device, after correcting the phase of the spectrum of the interference light based on the phase shift at the sub-pixel level, compared with the case where this phase correction is converted to the pixel level, a highly accurate phase is obtained. The correction process can be simplified.

実施形態に係る光画像計測装置は、走査手段を含み、画像形成手段は、位相補正手段と、スペクトル演算手段とを含んで構成されていてもよい。   The optical image measurement device according to the embodiment may include a scanning unit, and the image forming unit may include a phase correction unit and a spectrum calculation unit.

走査手段は、被測定物体に対する信号光の照射位置を走査する。位相補正手段は、各照射位置におけるAラインについて、光学部材による位相ずれを求め、求められた位相ずれに基づいて干渉光のスペクトルの位相を補正する。スペクトル演算手段は、Aライン毎に、位相補正手段により補正された干渉光のスペクトルから予め算出された参照スペクトルを差し引く。画像形成手段は、スペクトル演算手段により得られたスペクトルに基づいて被測定物体の画像を形成する。   The scanning means scans the irradiation position of the signal light on the object to be measured. The phase correction unit obtains a phase shift by the optical member for the A line at each irradiation position, and corrects the phase of the spectrum of the interference light based on the obtained phase shift. The spectrum calculation means subtracts a reference spectrum calculated in advance from the interference light spectrum corrected by the phase correction means for each A line. The image forming means forms an image of the object to be measured based on the spectrum obtained by the spectrum calculating means.

このような光画像計測装置によれば、Aライン毎に、光学部材による位相ずれに基づいて位相が補正された干渉光のスペクトルから参照スペクトルを差し引くことによりFPNを除去するようにしたので、ハードウェアを大幅に追加することなく簡素なスペクトルの演算処理でFPNを除去することが可能な光画像計測装置を提供できる。   According to such an optical image measurement device, the FPN is removed by subtracting the reference spectrum from the spectrum of the interference light whose phase is corrected based on the phase shift by the optical member for each A line. It is possible to provide an optical image measurement device capable of removing FPN by a simple spectrum calculation process without significantly adding wear.

実施形態に係る光画像計測装置では、画像形成手段は、参照スペクトル算出手段を含んで構成されていてもよい。参照スペクトル算出手段は、走査手段により走査された複数の照射位置における複数の干渉光のスペクトルに基づいて参照スペクトルを算出する。   In the optical image measurement device according to the embodiment, the image forming unit may include a reference spectrum calculating unit. The reference spectrum calculation means calculates a reference spectrum based on the spectra of the plurality of interference lights at the plurality of irradiation positions scanned by the scanning means.

このような光画像計測装置によれば、干渉光のスペクトルから参照スペクトルを算出するようにしたので、バックグラウンドスペクトルを別途取り込んでおく必要がなくなる。バックグラウンドスペクトルは、光学系を予め決められた経路に切り換えることで取得できるが、経路上の影響や計測環境の影響を受ける場合があり、バックグラウンドスペクトルを基準とすると画質が低下することがある。この実施形態によれば、上記の影響を受けることなく、FPNを除去することが可能となる。   According to such an optical image measurement device, since the reference spectrum is calculated from the spectrum of the interference light, it is not necessary to separately acquire a background spectrum. The background spectrum can be acquired by switching the optical system to a predetermined path, but it may be affected by the path and measurement environment, and the image quality may be degraded when the background spectrum is used as a reference. . According to this embodiment, it is possible to remove the FPN without being affected by the above.

実施形態に係る光画像計測装置では、参照スペクトル算出手段は、複数の干渉光のスペクトルの代表値を算出し、代表値を参照スペクトルとして求めるようにしてもよい。参照スペクトル算出手段は、代表値として複数の干渉光のスペクトルの中央値を算出するようにしてもよい。   In the optical image measurement device according to the embodiment, the reference spectrum calculation unit may calculate a representative value of a plurality of interference light spectra and obtain the representative value as a reference spectrum. The reference spectrum calculation means may calculate a median value of a plurality of interference light spectra as a representative value.

このような光画像計測装置によれば、バックグラウンドスペクトルを別途取り込んでおくことなく、簡素な処理で参照スペクトルを算出することが可能となる。   According to such an optical image measurement device, it is possible to calculate a reference spectrum by a simple process without separately acquiring a background spectrum.

実施形態に係る光画像計測装置では、参照スペクトル算出手段は、複数の干渉光のスペクトルに対しフーリエ変換処理を施すことにより得られた複数の実数部と複数の虚数部のそれぞれを昇順又は降順にソートし、中央値となる実数部と虚数部に対し逆フーリエ変換を施すことにより得られた実数部を参照スペクトルとして求めるようにしてもよい。   In the optical image measurement device according to the embodiment, the reference spectrum calculation unit performs each of a plurality of real parts and a plurality of imaginary parts obtained in an ascending or descending order by performing Fourier transform processing on the spectra of the plurality of interference lights. You may make it obtain | require as a reference spectrum the real part obtained by sorting and performing an inverse Fourier transform with respect to the real part and imaginary part which become a median value.

このような光画像計測装置によれば、複数の干渉光のスペクトルの強度や位相の偏りに影響を受けることなく参照スペクトルを算出することができるので、たとえば干渉スペクトルの平均を参照スペクトルとして求める場合に比べて、より高精度にFPNを除去することが可能となる。   According to such an optical image measurement device, the reference spectrum can be calculated without being affected by the intensity or phase bias of the plurality of interference light spectra. For example, when obtaining the average of the interference spectrum as the reference spectrum Compared to the above, FPN can be removed with higher accuracy.

実施形態に係る光画像計測装置では、画像形成手段は、基準スペクトルと干渉光のスペクトルとの相関値に基づいて光学部材による位相ずれを求めるようにしてもよい。   In the optical image measurement device according to the embodiment, the image forming unit may obtain the phase shift by the optical member based on the correlation value between the reference spectrum and the interference light spectrum.

このような光画像計測装置によれば、光学部材における安定した位相ずれを演算処理により算出し、安定したFPNの除去が可能な光画像計測装置を提供することができる。   According to such an optical image measurement device, it is possible to provide an optical image measurement device capable of calculating a stable phase shift in an optical member by arithmetic processing and stably removing FPN.

実施形態に係る光画像計測装置では、基準スペクトルは、被測定物体に対して信号光の照射位置を走査することにより得られた複数のAラインのいずれか1つの干渉光のスペクトルであってもよい。   In the optical image measurement device according to the embodiment, the reference spectrum may be the interference light spectrum of any one of a plurality of A lines obtained by scanning the irradiation position of the signal light with respect to the object to be measured. Good.

このような光画像計測装置によれば、バックグラウンドスペクトルを取り込むことなく、簡素な演算処理でFPNの除去が可能な光画像計測装置を提供することができる。   According to such an optical image measurement device, it is possible to provide an optical image measurement device capable of removing FPN by a simple calculation process without taking in a background spectrum.

実施形態に係る光画像計測装置では、基準スペクトルは、被測定物体に対して走査された最初のAラインの干渉光のスペクトルであってもよい。   In the optical image measurement device according to the embodiment, the reference spectrum may be a spectrum of the first A-line interference light scanned with respect to the object to be measured.

このような光画像計測装置によれば、参照スペクトルを求めるための演算処理を、簡素化することができる。   According to such an optical image measurement device, it is possible to simplify the arithmetic processing for obtaining the reference spectrum.

実施形態に係る光画像計測装置では、光学部材は、偏光子であってもよい。   In the optical image measurement device according to the embodiment, the optical member may be a polarizer.

このような光画像計測装置によれば、取得画像に影響を与えることなく、安定した位相ずれを検出して高精度なFPNの除去を行うことができる。   According to such an optical image measurement device, it is possible to detect a stable phase shift and perform highly accurate FPN removal without affecting the acquired image.

実施形態に係る光画像計測装置では、被測定物体は、生体眼であってもよい。   In the optical image measurement device according to the embodiment, the measured object may be a living eye.

このような光画像計測装置によれば、FPNが除去された眼底の断層画像を取得することができる。   According to such an optical image measurement device, a tomographic image of the fundus from which the FPN has been removed can be acquired.

[変形例]
上記の実施形態の変形例を説明する。以下の各変形例を、上記実施形態で説明した任意の構成に組み合わせることができる。
[Modification]
A modification of the above embodiment will be described. The following modifications can be combined with any configuration described in the above embodiment.

(第1の変形例)
上記の実施形態では、参照光の光路に1つの波長板115が配置された場合について説明したが、信号光の光路又は参照光の光路に複数の波長板が配置されていてもよい。すなわち、干渉光学系における信号光の光路又は参照光の光路に複数の光学部材が配置されていてもよい。以下、第1の変形例に係る光画像計測装置が適用された眼底撮影装置について、上記の実施形態との相違点を中心に説明する。
(First modification)
In the above embodiment, the case where one wavelength plate 115 is arranged in the optical path of the reference light has been described. However, a plurality of wavelength plates may be arranged in the optical path of the signal light or the optical path of the reference light. That is, a plurality of optical members may be arranged in the optical path of the signal light or the optical path of the reference light in the interference optical system. Hereinafter, the fundus imaging apparatus to which the optical image measurement apparatus according to the first modification is applied will be described focusing on differences from the above-described embodiment.

図14は、第1の変形例に係るOCTユニットの構成の一例を表す。図14において、図2と同様の部分には同一符号を付し、適宜説明を省略する。   FIG. 14 illustrates an example of the configuration of the OCT unit according to the first modification. 14, parts similar to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

第1の変形例に係るOCTユニット100aの構成が図2に示すOCTユニット100の構成と異なる点は、波長板115に代えて、波長板115a、115bが追加された点である。波長板115aは、波長板115と同じ位置に配置される。波長板115bは、コリメータ111と光路長補正部材112との間に配置される。画像形成部220は、波長板115a、115bのいずれか1つによる位相ずれを求め、求められた位相ずれに基づいて干渉光のスペクトルの位相を補正して被検眼Eの画像を形成する。たとえば、波長板115a、115bのうち、多重反射の回数が少ない方がFPNの除去に好適な波長板とすることができる。この場合、多重反射の回数が少ない方の波長板による位相ずれを求め、これに基づいて干渉光のスペクトルの位相が補正される。波長板115a、115bのうち多重反射の回数が少ない方の波長板(多重反射の回数が最少の波長板)の特定は、たとえば、ノイズの強度が高い方の波長板(ノイズの強度が最も高い波長板)を特定することにより可能になると考えられる。その他の構成及び動作は上記の実施形態と同様であるため、説明を省略する。   The configuration of the OCT unit 100a according to the first modification is different from the configuration of the OCT unit 100 shown in FIG. 2 in that wavelength plates 115a and 115b are added instead of the wavelength plate 115. The wave plate 115 a is disposed at the same position as the wave plate 115. The wave plate 115 b is disposed between the collimator 111 and the optical path length correction member 112. The image forming unit 220 calculates a phase shift due to any one of the wave plates 115a and 115b, and corrects the phase of the spectrum of the interference light based on the calculated phase shift to form an image of the eye E. For example, of the wave plates 115a and 115b, the wave plate having the smaller number of multiple reflections can be a wave plate suitable for removing FPN. In this case, the phase shift by the wave plate having the smaller number of multiple reflections is obtained, and based on this, the phase of the spectrum of the interference light is corrected. For example, the wavelength plate with the smaller number of multiple reflections (the wave plate with the least number of multiple reflections) of the wave plates 115a and 115b is identified, for example, the wave plate with the higher noise intensity (the highest noise intensity) It is considered possible by specifying the wave plate. Since other configurations and operations are the same as those in the above embodiment, the description thereof is omitted.

[効果]
この変形例に係る光画像計測装置は、上記の実施形態の効果に加えて、次のような効果を有する。
[effect]
The optical image measurement device according to this modification has the following effects in addition to the effects of the above embodiment.

この変形例に係る光画像計測装置では、干渉光学系は、信号光の光路又は参照光の光路に配置された複数の光学部材を含んで構成されていてもよい。画像形成手段は、複数の光学部材のいずれか1つによる位相ずれを求める。   In the optical image measurement device according to this modification, the interference optical system may be configured to include a plurality of optical members arranged in the optical path of the signal light or the optical path of the reference light. The image forming unit obtains a phase shift caused by any one of the plurality of optical members.

このような光画像計測装置によれば、信号光の光路又は参照光の光路に配置された複数の光学部材のいずれか1つの位相ずれを求めることで、FPNの除去に好適な位相ずれに基づいて干渉光のスペクトルの位相を補正して、FPNが除去された画像を形成することができる。なお、信号光の光路又は参照光の光路に配置された複数の光学部材それぞれによる位相ずれに基づいて干渉光のスペクトルの位相を補正するようにしてもよい。   According to such an optical image measurement device, the phase shift suitable for the removal of FPN is obtained by obtaining the phase shift of any one of a plurality of optical members arranged in the optical path of the signal light or the optical path of the reference light. By correcting the phase of the spectrum of the interference light, an image from which the FPN has been removed can be formed. Note that the phase of the spectrum of the interference light may be corrected based on the phase shift caused by each of the plurality of optical members arranged in the optical path of the signal light or the optical path of the reference light.

(第2の変形例)
上記の実施形態において、光学部材(波長板115)の内部を通過する光の光学距離の変更が可能に構成されていてもよい。このような光学部材は、たとえば、部材内を通過する光の光学距離が互いに異なる複数の光学素子を含んで構成され、これらを任意に選択して、信号光の光路又は参照光の光路に配置する。光学部材の内部を通過する光の光学距離を変更することにより、たとえば図6に示すプロファイルにおけるインデックスを変更することができる。なお、光学部材内を通過する光の光学距離を変更する方法として、たとえば、光学部材の入射面と出射面との距離を変更する方法が挙げられる。
(Second modification)
In the above embodiment, the optical distance of the light passing through the optical member (wavelength plate 115) may be changed. Such an optical member includes, for example, a plurality of optical elements having different optical distances of light passing through the member, and is arbitrarily selected and disposed in the optical path of the signal light or the optical path of the reference light. To do. By changing the optical distance of the light passing through the inside of the optical member, for example, the index in the profile shown in FIG. 6 can be changed. An example of a method for changing the optical distance of light passing through the optical member is a method of changing the distance between the incident surface and the exit surface of the optical member.

[効果]
この変形例に係る光画像計測装置は、上記の実施形態の効果に加えて、次のような効果を有する。
[effect]
The optical image measurement device according to this modification has the following effects in addition to the effects of the above embodiment.

この変形例に係る光画像計測装置では、光学部材(たとえば波長板115)又は複数の光学部材(たとえば波長板115a、115b)の少なくとも1つは、部材内を通過する光の光学距離の変更が可能に構成されていてもよい。   In the optical image measurement device according to this modified example, at least one of the optical member (for example, the wave plate 115) or the plurality of optical members (for example, the wave plates 115a and 115b) changes the optical distance of the light passing through the member. It may be configured to be possible.

このような光画像計測装置によれば、光学系を構成する各種部材の経年劣化や計測環境の変化が生じた場合でも、光学部材の位相ずれを高精度に求めることができ、求められた位相ずれに基づいてFPNの除去を行うことが可能となる。   According to such an optical image measurement device, even when aging of various members constituting the optical system or a change in measurement environment occurs, the phase shift of the optical member can be obtained with high accuracy, and the obtained phase It becomes possible to remove the FPN based on the deviation.

この変形例に係る光画像計測装置では、光学部材は、部材内を通過する光の光学距離が互いに異なる複数の光学素子を含み、複数の光学素子が、信号光の光路又は参照光の光路に選択的に配置されてもよい。   In the optical image measurement device according to this modification, the optical member includes a plurality of optical elements having different optical distances of light passing through the member, and the plurality of optical elements are in the optical path of the signal light or the optical path of the reference light. It may be selectively arranged.

このような光画像計測装置によれば、ハードウェアを大幅に変更することなく、光学部材の厚みを変更することが可能となる。   According to such an optical image measurement device, the thickness of the optical member can be changed without significantly changing the hardware.

(第3の変形例)
上記の実施形態において、波長板115において安定した位相ずれを求めることができる場合に限って、FPNの除去を行うようにしてもよい。以下、第3の変形例に係る光画像計測装置が適用された眼底撮影装置について、上記の実施形態との相違点を中心に説明する。
(Third Modification)
In the above embodiment, the FPN may be removed only when a stable phase shift can be obtained in the wave plate 115. Hereinafter, the fundus imaging apparatus to which the optical image measurement device according to the third modification is applied will be described focusing on differences from the above-described embodiment.

図15は、第3の変形例に係る画像形成部の構成例のブロック図を表す。図15は、第3の変形例に係る制御部についても合わせて図示し、図4と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 15 is a block diagram illustrating a configuration example of an image forming unit according to a third modification. FIG. 15 also shows a control unit according to a third modification, and the same parts as those in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

画像形成部220bは、位相補正部221と、スペクトル演算部222と、参照スペクトル算出部223と、強度検出部224bとを含んで構成されている。画像形成部220bが図4に示す画像形成部220と異なる点は、強度検出部224bが追加された点である。強度検出部224bは、光学部材としての波長板115におけるノイズ成分(スペクトル)の強度を検出する。強度検出部224bにより得られた検出結果は、制御部210bに送られる。制御部210bは、強度検出部224bにより得られた検出結果に基づき、検出された強度が閾値以上のとき、上記の実施形態のように位相補正された干渉光のスペクトルを用いて被検眼Eの画像を形成する。   The image forming unit 220b includes a phase correction unit 221, a spectrum calculation unit 222, a reference spectrum calculation unit 223, and an intensity detection unit 224b. The image forming unit 220b is different from the image forming unit 220 shown in FIG. 4 in that an intensity detecting unit 224b is added. The intensity detector 224b detects the intensity of the noise component (spectrum) in the wave plate 115 as an optical member. The detection result obtained by the intensity detector 224b is sent to the controller 210b. Based on the detection result obtained by the intensity detection unit 224b, the control unit 210b uses the interference light spectrum phase-corrected as in the above-described embodiment when the detected intensity is equal to or greater than the threshold value. Form an image.

閾値は、事後的に変更することが可能である。閾値が高いほど、波長板115による位相ずれを安定して求めることが可能となるため、求められた位相ずれに基づくFPNの除去を安定して行うことが可能となる。しかしながら、波長板115におけるノイズ成分の強度が閾値未満のとき、FPNの除去ができないケースが生ずる。一方、閾値が低いほど、強度が低いノイズ成分であっても波長板115による位相ずれを求めることが可能となるが、求められる位相ずれが不安定となり、FPNの除去を安定して行うことができないケースが生ずる。閾値は、計測環境等を考慮してFPNの除去に好適な値に事後的に変更することが望ましい。   The threshold value can be changed afterwards. The higher the threshold value, the more stable the phase shift caused by the wave plate 115 can be obtained, and therefore the FPN removal based on the obtained phase shift can be performed stably. However, when the intensity of the noise component in the wave plate 115 is less than the threshold value, a case where the FPN cannot be removed occurs. On the other hand, as the threshold value is lower, it is possible to obtain a phase shift by the wave plate 115 even for a noise component having a low intensity. However, the obtained phase shift becomes unstable, and the FPN can be stably removed. There is a case that cannot be done. It is desirable that the threshold value be changed afterwards to a value suitable for FPN removal in consideration of the measurement environment and the like.

画像形成部220bは、図3において画像形成部220に代えて設けられる。制御部210bは、図3において制御部210に代えて設けられる。その他の構成及び動作は上記の実施形態と同様であるため、説明を省略する。強度検出部224bは、この変形例における「強度検出手段」の一例である。   The image forming unit 220b is provided in place of the image forming unit 220 in FIG. The control unit 210b is provided in place of the control unit 210 in FIG. Since other configurations and operations are the same as those in the above embodiment, the description thereof is omitted. The intensity detector 224b is an example of the “intensity detector” in this modification.

[効果]
この変形例に係る光画像計測装置は、上記の実施形態の効果に加えて、次のような効果を有する。
[effect]
The optical image measurement device according to this modification has the following effects in addition to the effects of the above embodiment.

この変形例に係る光画像計測装置は、強度検出手段(たとえば強度検出部224b)を含んで構成される。強度検出手段は、光学部材(たとえば波長板115)におけるノイズ成分の強度を検出する。画像形成手段(たとえば画像形成部220b)は、強度検出手段により検出された強度が閾値以上のとき、位相補正された干渉光のスペクトルを用いて被測定物体の画像を形成する。   The optical image measurement device according to this modification is configured to include intensity detection means (for example, intensity detection unit 224b). The intensity detecting means detects the intensity of the noise component in the optical member (for example, the wave plate 115). The image forming unit (for example, the image forming unit 220b) forms an image of the object to be measured by using the phase-corrected spectrum of the interference light when the intensity detected by the intensity detecting unit is equal to or greater than the threshold value.

光学部材による位相ずれは、安定していることが望ましく、ノイズ成分の強度が大きいほど検出しやすくなる。このような光学部材の位相ずれを用いることで、安定してFPNを除去することが可能となる。このような光画像計測装置によれば、強度が閾値未満のときに光学部材による位相ずれは不安定であると判断し、位相補正を行うことにより取得画像の画質を劣化させてしまう事態を回避することができる。   It is desirable that the phase shift due to the optical member is stable, and the greater the intensity of the noise component, the easier it is to detect. By using such a phase shift of the optical member, it is possible to stably remove the FPN. According to such an optical image measurement device, it is determined that the phase shift due to the optical member is unstable when the intensity is less than the threshold, and the situation in which the image quality of the acquired image is deteriorated by performing the phase correction is avoided. can do.

(その他の変形例)
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
(Other variations)
The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.

上記の実施形態又はその変形例において、光学部材としての波長板115(波長板115a、115b)が信号光の光路又は参照光の光路に配置された場合について説明したが、位相ずれを求めるための光学部材は、図2に示す既存の光学部材(波長板115を除く、たとえば光路長補正部材112や分散補償部材113やその他の光学部材)と兼用されてもよい。すなわち、波長板115を除く図2に示すいずれかの光学部材が、上記の実施形態又はその変形例において位相ずれを求めるための光学部材として作用してもよい。   In the above embodiment or its modification, the case where the wave plate 115 (wave plate 115a, 115b) as an optical member is arranged in the optical path of the signal light or the optical path of the reference light has been described. The optical member may also be used as the existing optical member shown in FIG. 2 (excluding the wave plate 115, for example, the optical path length correcting member 112, the dispersion compensating member 113, and other optical members). That is, any one of the optical members shown in FIG. 2 excluding the wave plate 115 may act as an optical member for obtaining a phase shift in the above-described embodiment or its modification.

上記の実施形態においては、光路長変更部41の位置を変更することにより、信号光LSの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100、100aを移動させて信号光LSの光路長を変更することにより当該光路長差を変更するようにしてもよい。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも可能である。   In the above embodiment, the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41, but this optical path length difference is changed. The method is not limited to this. For example, it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light. Is possible. Further, the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT units 100 and 100a with respect to the eye E to change the optical path length of the signal light LS. In particular, when the measured object is not a living body part, the optical path length difference can be changed by moving the measured object in the depth direction (z direction).

上記の実施形態又はその変形例を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。   A computer program for realizing the above-described embodiment or its modification can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.

また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。   It is also possible to transmit / receive this program through a network such as the Internet or a LAN.

1 眼底撮影装置
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
31 合焦レンズ
31A 合焦駆動部
41 光路長変更部
42 ガルバノスキャナ
50 アライメント光学系
60 フォーカス光学系
100、100a OCTユニット
101 光源ユニット
105、122 ファイバカプラ
114 コーナーキューブ
114A 参照駆動部
115、115a、115b 波長板
125 検出器
200 演算制御ユニット
210、210b 制御部
211 主制御部
212 記憶部
220、220b 画像形成部
221 位相補正部
222 スペクトル演算部
223 参照スペクトル算出部
224b 強度検出部
230 画像処理部
240A 表示部
240B 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光
DESCRIPTION OF SYMBOLS 1 Fundus imaging apparatus 2 Fundus camera unit 10 Illumination optical system 30 Imaging optical system 31 Focusing lens 31A Focusing drive unit 41 Optical path length changing unit 42 Galvano scanner 50 Alignment optical system 60 Focus optical system 100, 100a OCT unit 101 Light source unit 105 122 Fiber coupler 114 Corner cube 114A Reference drive unit 115, 115a, 115b Wave plate 125 Detector 200 Operation control unit 210, 210b Control unit 211 Main control unit 212 Storage unit 220, 220b Image forming unit 221 Phase correction unit 222 Spectral calculation Unit 223 reference spectrum calculation unit 224b intensity detection unit 230 image processing unit 240A display unit 240B operation unit E eye Ef fundus LS signal light LR reference light LC interference light

Claims (8)

被測定物体に基づく干渉光のスペクトルの位相を補正し、補正された前記スペクトルに基づいて画像を形成する光画像計測装置であって、
波長走査型光源からの光を信号光と参照光とに分割し、被測定物体を経由した前記信号光と前記参照光との干渉光を検出する干渉光学系と、
前記信号光の光路又は前記参照光の光路に配置された光学部材と、
前記光学部材による位相ずれに基づいて前記スペクトルの位相を補正する位相補正手段と、
を含む
ことを特徴とする光画像計測装置。
An optical image measurement device that corrects a phase of a spectrum of interference light based on an object to be measured and forms an image based on the corrected spectrum,
An interference optical system that divides light from a wavelength scanning light source into signal light and reference light, and detects interference light between the signal light and the reference light that has passed through the object to be measured;
An optical member disposed in the optical path of the signal light or the optical path of the reference light;
Phase correcting means for correcting the phase of the spectrum based on a phase shift by the optical member;
An optical image measurement device comprising:
前記位相補正手段は、前記位相ずれに基づいて前記スペクトルの位相をピクセルレベルで補正することを特徴とする請求項1に記載の光画像計測装置。   The optical image measurement apparatus according to claim 1, wherein the phase correction unit corrects the phase of the spectrum at a pixel level based on the phase shift. 前記位相補正手段は、信号光の各照射位置におけるAラインについて、前記光学部材における位相ずれを求め、求められた前記位相ずれに基づいて前記スペクトルの位相を補正することを特徴とする請求項1又は請求項2に記載の光画像計測装置。   2. The phase correction means obtains a phase shift in the optical member for the A line at each irradiation position of the signal light, and corrects the phase of the spectrum based on the obtained phase shift. Or the optical image measuring device of Claim 2. 前記位相補正手段は、基準となる位相を有する基準スペクトルと前記スペクトルとの相関値に基づいて前記光学部材における位相ずれを求めることを特徴とする請求項1〜請求項3のいずれか一項に記載の光画像計測装置。   The phase correction means obtains a phase shift in the optical member based on a correlation value between a reference spectrum having a reference phase and the spectrum. The optical image measuring device described. 前記光学部材は、偏光子であることを特徴とする請求項1〜請求項4のいずれか一項に記載の光画像計測装置。   The optical image measuring device according to claim 1, wherein the optical member is a polarizer. 前記光学部材は、部材内を通過する光の光学距離の変更が可能に構成されていることを特徴とする請求項1〜請求項5のいずれか一項に記載の光画像計測装置。   The optical image measurement device according to claim 1, wherein the optical member is configured to be capable of changing an optical distance of light passing through the member. 前記干渉光学系は、前記信号光の光路又は前記参照光の光路に配置された複数の光学部材を含み、
前記位相補正手段は、前記複数の光学部材のいずれか1つにおける位相ずれを求める、
ことを特徴とする請求項1〜請求項6のいずれか一項に記載の光画像計測装置。
The interference optical system includes a plurality of optical members arranged in the optical path of the signal light or the optical path of the reference light,
The phase correction means obtains a phase shift in any one of the plurality of optical members;
The optical image measurement device according to any one of claims 1 to 6, wherein the optical image measurement device is an optical image measurement device.
前記被測定物体は、生体眼であることを特徴とする請求項1〜請求項7のいずれか一項に記載の光画像計測装置。   The optical image measurement apparatus according to claim 1, wherein the object to be measured is a living eye.
JP2017139356A 2017-07-18 2017-07-18 Optical image measuring device Pending JP2017185342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017139356A JP2017185342A (en) 2017-07-18 2017-07-18 Optical image measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017139356A JP2017185342A (en) 2017-07-18 2017-07-18 Optical image measuring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013207591A Division JP6180877B2 (en) 2013-10-02 2013-10-02 Optical image measuring device

Publications (1)

Publication Number Publication Date
JP2017185342A true JP2017185342A (en) 2017-10-12

Family

ID=60045206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017139356A Pending JP2017185342A (en) 2017-07-18 2017-07-18 Optical image measuring device

Country Status (1)

Country Link
JP (1) JP2017185342A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191087A (en) * 2018-04-27 2019-10-31 株式会社日立ハイテクサイエンス Interference signal phase correction method
CN111417334A (en) * 2017-11-30 2020-07-14 爱尔康公司 Improved segmentation in optical coherence tomography imaging
JP6797340B1 (en) * 2020-03-24 2020-12-09 三菱電機株式会社 Signal processing equipment, radar equipment and signal processing methods
JP2021142022A (en) * 2020-03-11 2021-09-24 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and program
JP2021141943A (en) * 2020-03-10 2021-09-24 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140077A (en) * 2012-01-05 2013-07-18 Univ Of Tsukuba Swept source optical coherence tomograph and phase stabilization program for the same
JP2013156229A (en) * 2012-01-31 2013-08-15 Nidek Co Ltd Optical tomographic imaging apparatus
JP2014228473A (en) * 2013-05-24 2014-12-08 国立大学法人 筑波大学 Jones matrix oct system and program for performing image processing of measurement data obtained by the oct
JP2015068775A (en) * 2013-09-30 2015-04-13 株式会社ニデック Optical coherence tomography device
JP6180877B2 (en) * 2013-10-02 2017-08-16 株式会社トプコン Optical image measuring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140077A (en) * 2012-01-05 2013-07-18 Univ Of Tsukuba Swept source optical coherence tomograph and phase stabilization program for the same
JP2013156229A (en) * 2012-01-31 2013-08-15 Nidek Co Ltd Optical tomographic imaging apparatus
JP2014228473A (en) * 2013-05-24 2014-12-08 国立大学法人 筑波大学 Jones matrix oct system and program for performing image processing of measurement data obtained by the oct
JP2015068775A (en) * 2013-09-30 2015-04-13 株式会社ニデック Optical coherence tomography device
JP6180877B2 (en) * 2013-10-02 2017-08-16 株式会社トプコン Optical image measuring device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417334A (en) * 2017-11-30 2020-07-14 爱尔康公司 Improved segmentation in optical coherence tomography imaging
JP2019191087A (en) * 2018-04-27 2019-10-31 株式会社日立ハイテクサイエンス Interference signal phase correction method
JP2021141943A (en) * 2020-03-10 2021-09-24 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and program
JP7412229B2 (en) 2020-03-10 2024-01-12 株式会社トプコン Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program
JP2021142022A (en) * 2020-03-11 2021-09-24 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and program
JP7359724B2 (en) 2020-03-11 2023-10-11 株式会社トプコン Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program
JP6797340B1 (en) * 2020-03-24 2020-12-09 三菱電機株式会社 Signal processing equipment, radar equipment and signal processing methods

Similar Documents

Publication Publication Date Title
JP6426974B2 (en) Data processing method and OCT apparatus
JP6469413B2 (en) Data processing method and OCT apparatus
JP5255524B2 (en) Optical tomographic imaging device, optical tomographic image processing device.
JP6045895B2 (en) Ophthalmic observation device
JP2017185342A (en) Optical image measuring device
JP6276943B2 (en) Ophthalmic equipment
JP6776076B2 (en) OCT device
WO2017073412A1 (en) Ophthalmological imaging device
JP6452990B2 (en) Data processing method and OCT apparatus
JP2014073207A (en) Ophthalmologic imaging device
JP6180877B2 (en) Optical image measuring device
JP2022176282A (en) Ophthalmologic apparatus and control method thereof
JP6431400B2 (en) Ophthalmic imaging apparatus and ophthalmic apparatus
WO2017069019A1 (en) Blood flow measurement device
JP7199172B2 (en) Ophthalmic device and its control method
JP2022044838A (en) Ophthalmologic apparatus and data collection method
JP6809926B2 (en) Ophthalmic equipment
JP6779674B2 (en) OCT device
JP6619203B2 (en) Ophthalmic imaging equipment
JP2018192082A (en) Ophthalmologic apparatus and control method thereof
JP6564076B2 (en) Ophthalmic equipment
JP6431399B2 (en) Ophthalmic imaging equipment
WO2017073413A1 (en) Ophthalmological imaging device
WO2022176827A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
WO2022176828A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180518

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181225