JP2008039651A - Processing method of optical tomographic image - Google Patents

Processing method of optical tomographic image Download PDF

Info

Publication number
JP2008039651A
JP2008039651A JP2006216335A JP2006216335A JP2008039651A JP 2008039651 A JP2008039651 A JP 2008039651A JP 2006216335 A JP2006216335 A JP 2006216335A JP 2006216335 A JP2006216335 A JP 2006216335A JP 2008039651 A JP2008039651 A JP 2008039651A
Authority
JP
Japan
Prior art keywords
image
optical
dimensional
measured
coherence tomography
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006216335A
Other languages
Japanese (ja)
Other versions
JP4461259B2 (en
Inventor
Yoshiaki Yasuno
嘉晃 安野
Shuichi Makita
修一 巻田
Toyohiko Yatagai
豊彦 谷田貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2006216335A priority Critical patent/JP4461259B2/en
Publication of JP2008039651A publication Critical patent/JP2008039651A/en
Application granted granted Critical
Publication of JP4461259B2 publication Critical patent/JP4461259B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize a method for correcting the strain of a three-dimensional image due to the movement of an object to be measured using only three-dimensional measuring data without using a complicated add-on system such as a compensation optics or a motion track, and a method for automatically extracting a layered structure from the image corrected in strain to separate, measure and display the structure present in the layered structure. <P>SOLUTION: In an optical tomographic imaging method due to optical coherence tomography 1 for constituting a two-dimensional tomographic image parallel to the axis in the depth direction of the object 8 to be measured using optical coherence tomography 1 or acquiring a plurality of images while shifting a position in the direction vertical to the two-dimensional tomographic image to constitute the three-dimensional image, the Doppler signal caused by the movement shift of the object 8j to be measured is detected and the correction of the positional shift of the two-dimensional tomographic image is performed on the basis of this detection result to reconstitute the three-dimensional image to correct the strain of the optical tomographic image of optical coherence tomography due to the movement of the object 8 to be measured. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

光コヒーレンストモグラフィーによって得られる3次元断層像は、被計測物体の3次元的な情報を全て含んでいるが、本発明は、その情報を正確に抽出するための光断層画像の処理方法に関する。   A three-dimensional tomographic image obtained by optical coherence tomography includes all three-dimensional information of an object to be measured. The present invention relates to a method for processing an optical tomographic image for accurately extracting the information.

医療分野等で用いられる非破壊断層計測技術の1つとして、光断層画像化法「光コヒーレンストモグラフィー」(OCT)がある(特許文献1参照)。OCTは、光を計測プローブとして用いるため、被計測物体の屈折率分布、分光情報、偏光情報(複屈折率分布)等が計測できるという利点がある。   One of the non-destructive tomographic techniques used in the medical field or the like is an optical tomographic imaging method “optical coherence tomography” (OCT) (see Patent Document 1). Since OCT uses light as a measurement probe, it has the advantage that it can measure the refractive index distribution, spectral information, polarization information (birefringence distribution), etc. of the measured object.

基本的なOCT43は、マイケルソン干渉計を基本としており、その原理を図7で説明する。光源44から射出された光は、コリメートレンズ45で平行化された後に、ビームスプリッター46により参照光と物体光に分割される。物体光は、物体アーム内の対物レンズ47によって被計測物体48に集光され、そこで散乱・反射された後に再び対物レンズ47、ビームスプリッター46に戻る。   The basic OCT 43 is based on a Michelson interferometer, and its principle will be described with reference to FIG. The light emitted from the light source 44 is collimated by the collimator lens 45 and then divided into reference light and object light by the beam splitter 46. The object light is condensed on the measurement object 48 by the objective lens 47 in the object arm, scattered and reflected there, and then returns to the objective lens 47 and the beam splitter 46 again.

一方、参照光は参照アーム内の対物レンズ49を通過した後に参照鏡50によって反射され、再び対物レンズ49を通してビームスプリッター46に戻る。このようにビームスプリッター46に戻った物体光と参照光は、物体光とともに集光レンズ51に入射し光検出器52(フォトダイオード等)に集光される。   On the other hand, the reference light passes through the objective lens 49 in the reference arm, is reflected by the reference mirror 50, and returns to the beam splitter 46 through the objective lens 49 again. The object light and the reference light that have returned to the beam splitter 46 in this way are incident on the condensing lens 51 together with the object light and are collected on the photodetector 52 (photodiode or the like).

OCTの光源44は、時間的に低コヒーレンスな光(異なった時刻に光源から出た光同士は極めて干渉しにくい光)の光源を利用する。時間的低コヒーレンス光を光源としたマイケルソン型の干渉計では、参照アームと物体アームの距離がほぼ等しいときにのみ干渉信号が現れる。この結果、参照アームと物体アームの光路長差(τ)を変化させながら、光検出器52で干渉信号の強度を計測すると、光路長差に対する干渉信号(インターフェログラム)が得られる。   The light source 44 of the OCT uses a light source of light having low temporal coherence (light emitted from the light source at different times is extremely difficult to interfere with each other). In a Michelson interferometer using temporally low coherence light as a light source, an interference signal appears only when the distance between the reference arm and the object arm is approximately equal. As a result, when the intensity of the interference signal is measured by the photodetector 52 while changing the optical path length difference (τ) between the reference arm and the object arm, an interference signal (interferogram) for the optical path length difference is obtained.

そのインターフェログラムの形状が、被計測物体48の奥行き方向の反射率分布を示しており、1次元の軸方向走査により被計測物体48の奥行き方向の構造を得ることができる。このように、OCT43では、光路長走査により、被計測物体48の奥行き方向の構造を計測できる。   The shape of the interferogram shows the reflectance distribution in the depth direction of the measurement object 48, and the structure in the depth direction of the measurement object 48 can be obtained by one-dimensional axial scanning. Thus, in the OCT 43, the structure in the depth direction of the measurement object 48 can be measured by optical path length scanning.

このような軸方向の走査のほかに、横方向の機械的走査を加え、2次元の走査を行うことで被計測物体の2次元断面画像が得られる。この横方向の走査を行う走査装置としては、被計測物体を直接移動させる構成、物体は固定したままで対物レンズをシフトさせる構成、被計測物体も対物レンズも固定したままで、対物レンズの瞳面付近においたガルバノミラーの角度を回転させる構成等が用いられている。   In addition to the scanning in the axial direction, a two-dimensional cross-sectional image of the object to be measured can be obtained by performing a two-dimensional scanning by adding a horizontal mechanical scanning. The scanning device that performs the horizontal scanning includes a configuration in which the object to be measured is directly moved, a configuration in which the objective lens is shifted while the object is fixed, and a pupil of the objective lens while the object to be measured and the objective lens are fixed. The structure etc. which rotate the angle of the galvanometer mirror in the surface vicinity are used.

以上の基本的なOCTが発展したものとして、光源の波長を走査してスペクトル干渉信号を得る波長走査型OCT(Swept Source OCT、略して「SS−OCT」という。)と、分光器を用いてスペクトル信号を得るスペクトルドメインOCTがあり、後者としてフーリエドメインOCT(Fourier Domain OCT、略して「FD−OCT」という。特許文献2参照)、及び偏光感受型OCT(Polarization-Sensitive OCT、略して「PS−OCT」という。特許文献3参照)がある。   As a development of the above basic OCT, a wavelength scanning OCT (Swept Source OCT, abbreviated as “SS-OCT” for short) that scans the wavelength of a light source to obtain a spectrum interference signal, and a spectroscope are used. There is a spectrum domain OCT for obtaining a spectrum signal. The latter includes Fourier domain OCT (Fourier Domain OCT, abbreviated as “FD-OCT”; see Patent Document 2), and polarization-sensitive OCT (Polarization-Sensitive OCT, abbreviated as “PS”. -OCT "(see Patent Document 3).

波長走査型OCTは、高速波長スキャニングレーザーにより光源の波長を変え、スペクトル信号と同期取得された光源走査信号を用いて干渉信号を最配列し、信号処理を加えることで3次元光断層画像を得るものである。なお、光源の波長を変える手段として、モノクロメーターを利用したものでも、波長走査型OCTとして利用可能である。   The wavelength scanning type OCT obtains a three-dimensional optical tomographic image by changing the wavelength of a light source by a high-speed wavelength scanning laser, rearranging interference signals using a light source scanning signal acquired in synchronization with a spectrum signal, and applying signal processing. Is. As a means for changing the wavelength of the light source, a device using a monochromator can be used as the wavelength scanning OCT.

フーリエドメインOCTは、被計測物体からの反射光の波長スペクトルを、スペクトロメーター(スペクトル分光器)で取得し、このスペクトル強度分布に対してフーリエ変換することで、実空間(OCT信号空間)上での信号を取り出すことを特徴とするものであり、このフーリエドメインOCTは、奥行き方向の走査を行う必要がなく、x軸方向の走査を行うことで被計測物体の断面構造を計測可能である。   In the Fourier domain OCT, the wavelength spectrum of the reflected light from the object to be measured is acquired with a spectrometer (spectrum spectrometer), and Fourier transform is performed on this spectrum intensity distribution, so that the real space (OCT signal space) is obtained. This Fourier domain OCT does not need to scan in the depth direction, and can measure the cross-sectional structure of the object to be measured by scanning in the x-axis direction.

偏光感受型OCTは、フーリエドメインOCTと同様に、被計測物体からの反射光の波長スペクトルをスペクトル分光器で取得するものであるが、入射光及び参照光をそれぞれ1/2波長板、1/4波長板等を通して水平直線偏光、垂直直線偏光、45°直線偏光、円偏光として、被計測物体からの反射光と参照光を重ねて1/2波長板、1/4波長板等を通して、例えば水平偏光成分だけをスペクトル分光器に入射させて干渉させ、物体光の特定偏光状態をもつ成分だけを取り出してフーリエ変換するものである。この偏光感受型OCTも、奥行き方向の走査を行う必要がない。   Like the Fourier domain OCT, the polarization-sensitive OCT acquires the wavelength spectrum of the reflected light from the object to be measured with a spectrum spectrometer. For example, horizontal linearly polarized light, vertical linearly polarized light, 45 ° linearly polarized light, and circularly polarized light passed through a four-wavelength plate, etc. Only the horizontally polarized component is incident on the spectrum spectrometer to cause interference, and only the component having a specific polarization state of the object light is extracted and subjected to Fourier transform. This polarization sensitive OCT also does not need to be scanned in the depth direction.

ドップラーOCTは、スペクトル干渉情報のフーリエ変換によって得られる位相の変化量がドップラー信号として被計測物体の移動速度に対応することを利用し、血流などの速度を求める方法であり、波長走査型OCT、フーリエドメインOCTなどに摘要することができる(非特許文献1参照)。
特開2002−310897号公報 特開平11−325849号公報 特開2004−028970号公報 B. R. White他、Optics Express、11巻25号(2003年)3490頁
Doppler OCT is a method for obtaining the velocity of blood flow or the like by utilizing the fact that the amount of phase change obtained by Fourier transform of spectral interference information corresponds to the moving velocity of an object to be measured as a Doppler signal. And can be summarized in Fourier domain OCT (see Non-Patent Document 1).
JP 2002-310897 A JP 11-325849 A JP 2004-028970 A BR White et al., Optics Express, Vol. 11, No. 25 (2003), p. 3490

ところで、生体の形状を3次元計測する場合、被計測物体が動き、測定時間内に被計測物体と測定器の相対的な位置関係が移動すると、被計測物体そのものの動きに由来する画像のゆがみが生じていた。   By the way, when measuring the shape of a living body three-dimensionally, if the object to be measured moves and the relative positional relationship between the object to be measured and the measuring instrument moves within the measurement time, the image is distorted due to the movement of the object to be measured. Has occurred.

これは、被計測物体の空間情報をゆがめるばかりではなく、流速などの計測においては測定値の誤差をもたらす。   This not only distorts the spatial information of the object to be measured, but also causes an error in the measured value when measuring the flow velocity or the like.

従来、その解決手段として、補償光学系やモーショントラック(移動を逐次測定する手段)等を用いて実時間的に計測位置の補正を行うことが主に行われている。しかしながら、補償光学系やモーショントラックは、きわめて複雑な手段であり、これらの手段を付設することは、高価であり、その取扱も面倒である。   Conventionally, as a means for solving the problem, correction of a measurement position is mainly performed in real time using an adaptive optical system, a motion track (means for sequentially measuring movement), or the like. However, the compensation optical system and the motion track are extremely complicated means, and it is expensive and troublesome to attach these means.

即ち、従来用いられていた補償光学系は、反射像などをモニターし、その形状や位置などが測定中変化しないように形状可変鏡(鏡の表面形状をコンピュータ制御などで変形させる)等を用いて被測定物の動きを補償するように光学系を変化させるものであり、形状可変鏡、液晶光学素子、プリズムなどが用いられる。   That is, the conventionally used adaptive optics system uses a variable-shape mirror (the surface shape of the mirror is deformed by computer control etc.) to monitor the reflected image and the like so that its shape and position do not change during measurement. The optical system is changed so as to compensate for the movement of the object to be measured, and a deformable mirror, a liquid crystal optical element, a prism, or the like is used.

被測定物のモニター計測システム、光学系の補償量の計算、光学系変形、変形後の被測定物のモニター、光学系の補償量の計算、光学系変形というフィードバックループで安定化する事が多く、システムも複雑で光学系も高価である。また、安定する保証がない。   Measured object monitoring measurement system, optical system compensation amount calculation, optical system deformation, post-deformation monitor object measurement, optical system compensation amount calculation, optical system deformation feedback loop The system is complicated and the optical system is expensive. There is no guarantee of stability.

モーショントラックは、上記補償光学系の簡易版であり、被測定物の特定の点をモニターし、その動きから被測定物の移動をモニターするものであり、やはり別の光学系と処理システムが必要である。   A motion track is a simplified version of the above-mentioned adaptive optics system that monitors a specific point of the object to be measured and monitors the movement of the object to be measured from its movement, which also requires a separate optical system and processing system. It is.

本発明は上記従来の問題を解決することを目的とするものであり、この解決手段として補償光学やモーショントラックなどの複雑な追加システムを用いず、3次元計測データのみを用いて、被計測物体の動きを補正する手段を実現することを課題とするものであり、具体的には、同時計測した複数の1次元画像によって構成される2次元断層画像間の初期相対的位置や歪みを画像間の移動変位を表すドップラー情報によって補正する手段を実現するものである。   The object of the present invention is to solve the above-described conventional problems, and as a means for solving this problem, an object to be measured is used by using only three-dimensional measurement data without using a complicated additional system such as adaptive optics or a motion track. In particular, the initial relative position and distortion between two-dimensional tomographic images composed of a plurality of one-dimensional images measured at the same time can be determined between the images. The means for correcting by the Doppler information representing the movement displacement is realized.

ところで、光断層画像から有用な情報を抽出することは一般に困難である。多くの雑音や細かい構造から、注目する部分の情報を得るためには、かなりの経験と熟練を要する。その分野の専門的な医師が注意深く観察することによってのみ可能である。あるいは、膨大なデータベースを用い、それとのパターンを比較することにより情報の抽出が可能であるが、それを行うためには、スーパーコンピュータと大容量メモリが必要である。   By the way, it is generally difficult to extract useful information from an optical tomographic image. It takes a lot of experience and skill to obtain the information of interest from a lot of noise and fine structures. Only possible with careful observation by a specialist in the field. Alternatively, it is possible to extract information by using a huge database and comparing patterns with it, but in order to do so, a supercomputer and a large-capacity memory are required.

多くのデータを扱う集団健康診断等の、スクリーニングにおいては自動的に得たい情報を抽出する必要がある。このような要請から、本発明は、完全に自動的に深さ方向の3次元構造を分離する方法を実現するものである。   In screening, such as group health examinations that handle a large amount of data, it is necessary to extract information that is automatically obtained. In view of such a demand, the present invention realizes a method of completely automatically separating a three-dimensional structure in the depth direction.

本発明は上記課題を解決するために、光コヒーレンストモグラフィーを用いて、被計測物体の奥行き方向の軸(Aスキャン軸)に垂直方向(Bスキャン方向)に位置をずらしながら複数の1次元断層画像を取得して被計測物体の奥行き方向の軸に平行な2次元断層画像(Bスキャン画像)を取得し、さらに、該2次元断層画像に垂直方向(Cスキャン方向)に位置をずらしながら複数2次元断層画像を取得し3次元画像を構成する光コヒーレンストモグラフィーによる光断層画像化法において、前記被計測物体の移動ぶれに起因する前記複数の1次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、該検出結果に基づいて1次元断層画像の位置ずれの補正を行い、前記2次元断層画像を再構成して、光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することを特徴とする光断層画像の処理方法を提供する。   In order to solve the above-described problems, the present invention uses optical coherence tomography, and uses a plurality of one-dimensional tomographic images while shifting the position in the vertical direction (B scan direction) to the depth axis (A scan axis) of the object to be measured. To obtain a two-dimensional tomographic image (B-scan image) parallel to the axis in the depth direction of the object to be measured, and a plurality of 2 while shifting the position vertically to the two-dimensional tomographic image (C-scan direction). In an optical tomography method using optical coherence tomography that acquires a three-dimensional tomographic image and constructs a three-dimensional image, positional deviations of the plurality of one-dimensional tomographic images caused by movement blur of the measured object are used using Doppler signal information. And detecting the position of the one-dimensional tomographic image based on the detection result, reconstructing the two-dimensional tomographic image, and performing optical coherence tomography. It provides a method of processing an optical tomographic image and correcting distortion of the image due to movement of the object to be measured in the optical tomographic imaging method.

前記光断層画像の処理方法では、光コヒーレンストモグラフィーを用いて、被計測物体の奥行き方向の軸(Aスキャン軸)に平行な2次元断層画像(Bスキャン画像)を、該2次元断層画像に垂直方向(Cスキャン方向)に位置をずらしながら複数取得し3次元画像を構成する光コヒーレンストモグラフィーによる光断層画像化法において、前記被計測物体の移動ぶれに起因する前記複数取得したそれぞれの2次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、該検出結果に基づいて2次元断層画像の位置ずれの補正を行い、前記3次元画像を再構成して、光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することが好ましい。   In the optical tomographic image processing method, a two-dimensional tomographic image (B-scan image) parallel to the axis in the depth direction (A-scan axis) of the measured object is perpendicular to the two-dimensional tomographic image using optical coherence tomography. In the optical tomographic imaging method using optical coherence tomography that forms a three-dimensional image by shifting a plurality of positions in the direction (C scan direction), each of the plurality of two-dimensional tomographic images that are acquired due to movement blur of the object to be measured The positional deviation of the image is detected using Doppler signal information, the positional deviation of the two-dimensional tomographic image is corrected based on the detection result, the three-dimensional image is reconstructed, and the optical tomographic image of optical coherence tomography It is preferable to correct the distortion of the image due to the movement of the measurement object in the conversion method.

前記光断層画像の処理方法では、前記光コヒーレンストモグラフィーは、ドップラー光コヒーレンストモグラフィーであり、該ドップラー光コヒーレンストモグラフィーにおいて、断層像内での計測対象の流速や移動量を求める場合に生じる移動ぶれによる速度計測誤差を補正するために使用される、光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することが好ましい。   In the optical tomographic image processing method, the optical coherence tomography is Doppler optical coherence tomography, and in the Doppler optical coherence tomography, a velocity due to movement blur that occurs when a flow velocity or a moving amount of a measurement target in a tomographic image is obtained. It is preferable to correct image distortion due to movement of the measurement object in the optical tomographic imaging method of optical coherence tomography, which is used to correct the measurement error.

前記光断層画像の処理方法では、前記ドップラー信号は被検物体の移動速度を表し、且つ前記光コヒーレンストモグラフィー画像の位相成分の変化量で表されものであり、Bスキャン方向に異なる位置のAスキャンデータ間のドップラー信号のヒストグラムを求め、該ヒストグラム中、最も頻度が高い成分を移動ぶれとみなして、該成分の値を用いて光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することが好ましい。   In the optical tomographic image processing method, the Doppler signal represents the moving speed of the object to be examined and is represented by the amount of change in the phase component of the optical coherence tomography image, and the A scan at different positions in the B scan direction. Obtaining a histogram of Doppler signals between data, regarding the most frequent component in the histogram as moving blur, and using the value of the component, an image by the movement of the measurement object in the optical tomography of optical coherence tomography It is preferable to correct the distortion.

前記光断層画像の処理方法では、前記ドップラー信号のメジアン値を移動ぶれとし、該メジアン値を用いて光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することが好ましい。   In the optical tomographic image processing method, the median value of the Doppler signal is assumed to be a movement blur, and the median value is used to correct image distortion due to the movement of the object to be measured in the optical tomographic imaging method of optical coherence tomography. preferable.

前記光断層画像の処理方法では、前記光断層画像の処理方法では、歪みを補正された画像について、被計測物体の奥行き方向に異なる構造が存在する場合は、分離することが好ましい。   In the optical tomographic image processing method, it is preferable that the optical tomographic image processing method separates the distortion-corrected image when a different structure exists in the depth direction of the object to be measured.

前記光断層画像の処理方法では、前記光断層画像の処理方法では、分離された層構造内の構造体を他の層構造の構造体から分離して表示することが好ましい。   In the optical tomographic image processing method, in the optical tomographic image processing method, it is preferable that the structure in the separated layer structure is displayed separately from the structures of other layer structures.

本発明の方法は、以上のとおりであるから、補償光学やモーショントラックなどの複雑、高価、且つ取扱が面倒な追加システムを用いず、3次元計測データのみを用いて、被計測物体の動きに由来する画像の歪みを補正することができる。   Since the method of the present invention is as described above, the movement of the object to be measured is performed using only the three-dimensional measurement data without using a complicated, expensive, and cumbersome additional system such as adaptive optics and a motion track. It is possible to correct the distortion of the derived image.

本発明に係る光断層画像の処理方法について、特に、光コヒーレンストモグラフィーの光断層画像化における補正方法を実施するための最良の形態を実施例1〜3に基づき図面を参照して、以下説明する。   An optical tomographic image processing method according to the present invention will be described below with reference to the drawings based on first to third embodiments, particularly the best mode for carrying out a correction method in optical tomographic imaging of optical coherence tomography. .

図1は、FD−OCT1の全体構成を示す図である。広帯域光源2、低コヒーレンス干渉計3、及び分光器4(スペクトロメーター)とを備えている。このFD−OCT1は、低コヒーレンス干渉の原理を用いて奥行き方向の分解能を得ているため、光源として、SLD(スーパールミネツセントダイオード)や超短パルスレーザー等の広帯域光源2が用いられる。   FIG. 1 is a diagram illustrating an overall configuration of the FD-OCT 1. A broadband light source 2, a low coherence interferometer 3, and a spectrometer 4 (spectrometer) are provided. Since the FD-OCT 1 obtains resolution in the depth direction using the principle of low coherence interference, a broadband light source 2 such as an SLD (super luminescent diode) or an ultrashort pulse laser is used as a light source.

広帯域光源2から出た光は、まずビームスプリッター5で物体光と参照光に分割される。このうち物体光は、レンズ6を通してガルバノミラー7で反射され被計測物体8(眼底などの生体試料)を照射し、そこで反射、散乱された後に分光器4に導かれる。一方、参照光はレンズ9を通して参照鏡10(平面鏡)で反射された後に物体光と並行に分光器4に導かれる。これらの二つの光は分光器4の回折格子11によって同時に分光され、スペクトル領域で干渉し、結果、スペクトル干渉縞がCCD12によって計測される。   The light emitted from the broadband light source 2 is first split into object light and reference light by the beam splitter 5. Of these, the object light is reflected by the galvanometer mirror 7 through the lens 6 and irradiates the measurement object 8 (biological sample such as the fundus), and is reflected and scattered there and then guided to the spectrometer 4. On the other hand, the reference light is reflected by the reference mirror 10 (plane mirror) through the lens 9 and then guided to the spectroscope 4 in parallel with the object light. These two lights are simultaneously dispersed by the diffraction grating 11 of the spectroscope 4 and interfere in the spectral region. As a result, the spectral interference fringes are measured by the CCD 12.

このスペクトル干渉縞に対して適当な信号処理を行うことで、被計測物体8のある点における深さ方向1次元の屈折率分布の微分、つまり、反射率分布を得ることが可能となる。さらに、被計測物体8上の計測点をガルバノミラー7を駆動し1次元走査することにより2次元断層画像(FD−OCT画像)を得ることができる。   By performing appropriate signal processing on the spectral interference fringes, it is possible to obtain a differential of the one-dimensional refractive index distribution in the depth direction at a certain point of the measured object 8, that is, a reflectance distribution. Furthermore, a two-dimensional tomographic image (FD-OCT image) can be obtained by driving the galvanometer mirror 7 and one-dimensionally scanning a measurement point on the measurement object 8.

通常のOCTでは、2次元断層画像を得るために、深さ(光軸)方向の走査(この走査を「A−スキャン」と言い、この方向を「A−方向」、「Aスキャン方向」とも言う。)と、縦方向の操作(この走査を「B−スキャン」と言い、この方向を「B−方向」、「Bスキャン方向」とも言う。)の2次元の機械的走査が必要なのに対して、FD−OCT1では、A−スキャンは不要で一回の測定で深さ方向の後方散乱データを取得することができるから、B−スキャンの1次元の機械的走査しか必要とされない。   In normal OCT, in order to obtain a two-dimensional tomographic image, scanning in the depth (optical axis) direction (this scanning is referred to as “A-scan”, which is referred to as “A-direction” and “A-scan direction”). And two-dimensional mechanical scanning is required for vertical operation (this scanning is called “B-scan”, and this direction is also called “B-direction”, “B-scan direction”). In FD-OCT1, since A-scan is unnecessary and backscattering data in the depth direction can be acquired by one measurement, only one-dimensional mechanical scanning of B-scan is required.

なお、A−方向とB−方向で形成される平面に垂直な方向のスキャンを「C−スキャン」と言い、この方向を「C−方向」、「Cスキャン方向」とも言う。要するに、FD−OCT1では、面内に2次元走査(B−スキャンおよびC−スキャン)をすることにより高速な断層計測が可能で、被計測物体8内部の2次元および3次元情報を得ることができる。   A scan in a direction perpendicular to the plane formed by the A-direction and the B-direction is referred to as “C-scan”, and this direction is also referred to as “C-direction” or “C-scan direction”. In short, in FD-OCT1, two-dimensional scanning (B-scan and C-scan) is performed in the plane, so that high-speed tomographic measurement is possible, and two-dimensional and three-dimensional information inside the measurement object 8 can be obtained. it can.

本発明は、以上のようなFD−OCT1において、被計測物体8の2次元データを取得し、被計測物体8そのものの動きに由来する画像のゆがみを補正するために、ドップラー信号を検出し、それを積算することでB−方向の動きの補正を行う方法で、計測データそのものの情報を用いて位置関係を補正することを特徴とする方法である。   In the FD-OCT 1 as described above, the present invention acquires two-dimensional data of the measurement object 8 and detects a Doppler signal in order to correct image distortion caused by the movement of the measurement object 8 itself. This is a method of correcting the movement in the B-direction by integrating the above, and correcting the positional relationship using information of the measurement data itself.

即ち、この発明は、光コヒーレンストモグラフィーを用いて、被計測物体の奥行き方向の軸(Aスキャン軸)に垂直方向(Bスキャン方向)に位置をずらしながら複数の1次元断層画像を取得して、被計測物体の奥行き方向とそれに垂直な方向を2辺とする2次元断層画像(Bスキャン画像)を取得し、さらに、この2次元断層画像に垂直方向(Cスキャン方向)に位置をずらしながら複数2次元断層画像を取得し3次元画像を構成する光コヒーレンストモグラフィーによる光断層画像化法において、最終的に3次元画像の歪みを補正する方法である。   That is, the present invention uses optical coherence tomography to acquire a plurality of one-dimensional tomographic images while shifting the position in the vertical direction (B scan direction) to the axis in the depth direction (A scan axis) of the object to be measured. A two-dimensional tomographic image (B-scan image) having two sides in the depth direction of the measurement object and a direction perpendicular thereto is acquired, and a plurality of the two-dimensional tomographic images are shifted while being shifted in the vertical direction (C-scan direction). In the optical tomographic imaging method using optical coherence tomography that acquires a two-dimensional tomographic image and forms a three-dimensional image, this is a method of finally correcting the distortion of the three-dimensional image.

具体的には、Bスキャン中におけるAスキャン方向の被計測物体の移動ぶれ(これを、本明細書では「バルクモーション」という。)に起因する複数の1次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、この検出結果に基づいて1次元断層画像の位置ずれの補正を行い、2次元断層画像を再構成し、さらに、Cスキャンにおいて、バルクモーションに起因する複数取得したそれぞれの2次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、この検出結果に基づいて2次元断層画像の位置ずれの補正を行い、最終的に3次元画像を再構成して、最終的に被計測物体の移動による3次元画像の歪みを補正する方法である。   Specifically, the positional deviation of a plurality of one-dimensional tomographic images caused by the movement blur of the measurement object in the A scan direction during the B scan (this is referred to as “bulk motion” in this specification) The detection is performed using information, and the positional deviation of the one-dimensional tomographic image is corrected based on the detection result, the two-dimensional tomographic image is reconstructed, and a plurality of each acquired due to the bulk motion is obtained in the C scan. The positional deviation of the two-dimensional tomographic image is detected using the Doppler signal information, the positional deviation of the two-dimensional tomographic image is corrected based on the detection result, and finally the three-dimensional image is reconstructed. In this method, the distortion of the three-dimensional image due to the movement of the object to be measured is corrected.

以下、本発明の実施例1については、本発明の基本となっている、Bスキャン中におけるAスキャン方向のバルクモーションに起因する1次元断層画像の位置ずれを補正する方法について詳細に説明するが、Cスキャン中におけるAスキャン方向のバルクモーションに起因する2次元断層画像の位置ずれの補正も同様な方法によりを行うものである。   Hereinafter, in the first embodiment of the present invention, a method for correcting the positional deviation of a one-dimensional tomographic image caused by the bulk motion in the A scan direction during the B scan, which is the basis of the present invention, will be described in detail. The correction of the positional deviation of the two-dimensional tomographic image caused by the bulk motion in the A scan direction during the C scan is performed by the same method.

あるいは、光コヒーレンストモグラフィーを用いて、被計測物体の奥行き方向の軸に平行な2次元断層画像を、該2次元断層画像に垂直方向に位置をずらしながら複数取得し3次元画像を構成する光コヒーレンストモグラフィーによる光断層画像化法において、前記計測物体の移動ぶれに起因する前記複数取得したそれぞれの2次元断層画像の位置ずれをデジタル相関を用いて検出し、該検出結果に基づいて2次元断層画像の位置ずれの補正を行い、前記3次元画像を再構成することを特徴とする光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による3次元画像の歪みを補正してもよい。   Alternatively, by using optical coherence tomography, a plurality of two-dimensional tomographic images parallel to the axis in the depth direction of the object to be measured are acquired while shifting the position in the vertical direction with respect to the two-dimensional tomographic image to form a three-dimensional image. In the optical tomographic imaging method by tomography, a positional shift of each of the plurality of acquired two-dimensional tomographic images caused by the movement blur of the measurement object is detected using digital correlation, and the two-dimensional tomographic image is based on the detection result. The distortion of the three-dimensional image due to the movement of the object to be measured in the optical tomographic imaging method of optical coherence tomography, wherein the three-dimensional image is reconstructed, may be corrected.

FD−OCT1において、図2に示すように、横方向(Bスキャン方向)の第1の位置でのA−スキャンで得られる1次元断面画像をBiとし、第1の位置から微小距離だけ横方向に移動した第2の位置でのA−スキャンで得られる1次元断面画像をBi+1とする。これら2つのデータBi、Bi+1は、それぞれ別の時間に計測されたため被計測物体8(生体)のA方向への運動により本来同じ深さであるべきデータの相対的な位置がずれている可能性がある。
In FD-OCT1, as shown in FIG. 2, a one-dimensional cross-sectional image obtained in A- scanning at a first lateral position (B-scan direction) and B i, minute distance from the first position transverse A one-dimensional cross-sectional image obtained by A-scan at the second position moved in the direction is defined as B i + 1 . Since these two data B i and B i + 1 are measured at different times, the relative position of the data that should be the same depth is shifted by the movement of the measured object 8 (living body) in the A direction. There is a possibility.

FD−OCTではOCT画像データを得る際、スペクトル干渉データのフーリエ変換を行う。フーリエ変換後は一般に複素数となるため、そのデータは強度成分と位相成分に分離することができる。このOCT画像データの強度成分は被計測物体からの散乱強度を表しているが、異なる時間において採取されたBとBi+1の位相成分の差Δφi+1(z)=φi+1(z)−φ(z)はドップラー信号としてBとBi+1のAスキャン方向の位置の移動量に比例している。ここでφはBの位相成分、φi+1はBi+1の位相成分であり、zはA−スキャンに沿った深さ方向の座標である。なお、画像の構造がずれていることは、位相が違うことである。なぜなら、数学的に、フーリエ変換の段階で位置のずれが位相成分として抽出されるからである。 In FD-OCT, when obtaining OCT image data, Fourier transform of spectral interference data is performed. Since it is generally a complex number after Fourier transform, the data can be separated into an intensity component and a phase component. The intensity component of the OCT image data represents the scattering intensity from the object to be measured, but the difference Δφ i + 1 (z) = φ i + 1 (z) −φ between the phase components of B i and B i + 1 collected at different times. i (z) is proportional to the amount of movement of the position of B i and B i + 1 in the A scan direction as a Doppler signal. Here, φ i is a phase component of B i , φ i + 1 is a phase component of B i + 1 , and z is a coordinate in the depth direction along the A-scan. Note that the fact that the image structure is shifted means that the phase is different. This is because, mathematically, a positional shift is extracted as a phase component at the stage of Fourier transform.

隣同士(iとi+1番目のBスキャン)のAスキャンデータ(z方向)についてBとBi+1の位相成分の差Δφi+1を求め、図3に示すようなヒストグラムを作成する。画像は被計測物体の存在する領域(バルク部分)と被計測物体がない領域(バックグラウンド)よりなる。バックグラウンド領域は動きが無いため位相差は−πからπまで一様に分布する。バルク部分は大きな部分を占めているので、バルクモーションに応じた、位相差の成分がヒストグラムのピークとなる。この位相変化(位相差)をΔφとする。 Obtains a difference [Delta] [phi i + 1 of the phase component of B i and B i + 1 for the A-scan data of next to each other (i and i + 1 th B-scan) (z-direction), a histogram as shown in FIG. The image consists of a region where the measured object exists (bulk portion) and a region where the measured object does not exist (background). Since there is no movement in the background area, the phase difference is uniformly distributed from −π to π. Since the bulk portion occupies a large portion, the phase difference component corresponding to the bulk motion becomes the peak of the histogram. The phase change (phase difference) and [Delta] [phi B.

あるいはすべてのzについて位相差Δφi+1を大きさ順に並べそのメジアン値(中央値:データを大きさの順に並べて、その真ん中のデータの値)のΔφi+1をもってバルクモーションによる位相変化としてもよい。この位相変化をΔφとする。 Or all z arranging the phase difference [Delta] [phi i + 1 in order of magnitude for the median value (median: data are arranged in order of size, the value of the data in the middle) may be a phase change due to bulk motion with [Delta] [phi i + 1 of the. This phase change is assumed to be Δφ B.

位相変化と被測定物体が測定時間間隔(BiとBi+1の計測時間間隔)に移動した移動量(バルクモーション速度)νiの関係は、ドップラー効果の理論により、νi=(λ/2n・2πΔT)φとなる。ここでλは光源の中心波長、nは被計測物体の屈折率、ΔTはAスキャンの時間間隔である。 The relationship between the phase change and the amount of movement (bulk motion speed) ν i that the object to be measured has moved in the measurement time interval (measurement time interval of B i and B i + 1 ) is represented by ν i = (λ / a 2n · 2πΔT) φ B. Here, λ is the center wavelength of the light source, n is the refractive index of the object to be measured, and ΔT is the time interval of the A scan.

Bスキャンの間のバルクモーション量dは、バルクモーション速度νiにAスキャン時間間隔ΔTを乗じ、それをBスキャン方向に積算したものとなる。即ち、次の数式で示されるものある。 The bulk motion amount d z during the B scan is obtained by multiplying the bulk motion speed ν i by the A scan time interval ΔT and integrating it in the B scan direction. That is, it is shown by the following formula.

(バルクモーション量から補正する手段)
こうしてバルクモーション量が積算されるが、これについて多項式(たとえば、d=a+az(a,aは定数)など)でフィッティングを行う。計測中の生体の動きはそれほど大きくないので、メジアンシフト(a≠0、a=0)、あるいは1次関数(a≠0)が有効である。この関数の形が平らになるようにBスキャン方向のデータをAスキャン方向に移動し、Bスキャン方向のバルクモーションを補正し、被計測物体の静止画像を得ることができる。
(Means for correcting from the amount of bulk motion)
Thus, the bulk motion amount is integrated, and fitting is performed with a polynomial (for example, d z = a 0 + a 1 z (a 0 , a 1 is a constant)). Since the movement of the living body during measurement is not so large, a median shift (a 0 ≠ 0, a 1 = 0) or a linear function (a 1 ≠ 0) is effective. The data in the B-scan direction is moved in the A-scan direction so that the shape of this function becomes flat, the bulk motion in the B-scan direction is corrected, and a still image of the measured object can be obtained.

あるいは、積算と関数フィッティングを用いず、隣同士のバルクモーション量の大きさだけ隣のBスキャンデータをAスキャン方向に移動し、Bスキャン方向のバルクモーションを補正し、被計測物体の静止画像を得てもよい。   Alternatively, without using integration and function fitting, the adjacent B scan data is moved in the A scan direction by the amount of the adjacent bulk motion amount, the bulk motion in the B scan direction is corrected, and the still image of the object to be measured is obtained. May be obtained.

FD−OCTにおいてスペクトル干渉信号をフーリエ変換し得られた位相データから被計測物体の速度を計測するドップラーOCT(ドップラー光コヒーレンストモグラフィー)を用いて2次元画像中の血管の中を流れる血流の速度と方向を決める場合、バルクモーションの補正は被計測物体の動きを止める効果とともに、血流などの速度計測の誤差を取り除くという効果がある。   Velocity of blood flow in blood vessels in a two-dimensional image using Doppler OCT (Doppler optical coherence tomography) that measures the velocity of an object to be measured from phase data obtained by Fourier transforming spectral interference signals in FD-OCT When determining the direction, the correction of bulk motion has the effect of stopping the movement of the object to be measured and removing the error of velocity measurement such as blood flow.

以上、Bスキャン中におけるAスキャン方向のバルクモーションに起因する1次元断層画像の位置ずれを補正する方法について詳細に説明したが、同様の方法をCスキャン中のAスキャン方向のバルクモーションに起因する2次元断層画像の位置ずれの補正に適用することで、最終的には3次元画像におけるバルクモーションに起因する位置ずれを補正することができる。   Although the method for correcting the positional deviation of the one-dimensional tomographic image due to the bulk motion in the A scan direction during the B scan has been described in detail, the same method is caused by the bulk motion in the A scan direction during the C scan. By applying the correction to the displacement of the two-dimensional tomographic image, it is possible to finally correct the displacement caused by the bulk motion in the three-dimensional image.

あるいは、光コヒーレンストモグラフィーを用いて、被計測物体の奥行き方向の軸に平行な2次元断層画像を、該2次元断層画像に垂直方向に位置をずらしながら複数取得し3次元画像を構成する光コヒーレンストモグラフィーによる光断層画像化法において、前記計測物体の移動ぶれに起因する前記複数取得したそれぞれの2次元断層画像の位置ずれをデジタル相関を用いて検出し、該検出結果に基づいて2次元断層画像の位置ずれの補正を行い、前記3次元画像を再構成することを特徴とする光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による3次元画像の歪みを補正してもよい。   Alternatively, by using optical coherence tomography, a plurality of two-dimensional tomographic images parallel to the axis in the depth direction of the object to be measured are acquired while shifting the position in the vertical direction with respect to the two-dimensional tomographic image to form a three-dimensional image. In the optical tomographic imaging method by tomography, a positional shift of each of the plurality of acquired two-dimensional tomographic images caused by the movement blur of the measurement object is detected using digital correlation, and the two-dimensional tomographic image is based on the detection result. The distortion of the three-dimensional image due to the movement of the object to be measured in the optical tomographic imaging method of optical coherence tomography, wherein the three-dimensional image is reconstructed, may be corrected.

具体的には、Cスキャン方向の第1の位置でのA−スキャンで得られる1次元断面画像をCiとし、第1の位置から微小距離だけ横方向に移動した第2の位置でのA−スキャンで得られる1次元断面画像をCi+1とする。これら2つのデータCi、Ci+1は、それぞれ別の時間に計測されたため被計測物体8(生体)のA方向への運動により本来同じ深さであるべきデータの相対的な位置がずれている可能性がある。 Specifically, a one-dimensional cross-sectional image obtained by A-scan at the first position in the C-scan direction is C i, and A at the second position moved laterally from the first position by a minute distance. -Let C i + 1 be the one-dimensional cross-sectional image obtained by scanning. Since these two data C i and C i + 1 are measured at different times, the relative position of the data that should originally have the same depth shifts due to the movement of the measured object 8 (living body) in the A direction. There is a possibility.

異なる時間において採取されたCとCi+1の位相成分の差Δφi+1(z)=φi+1(z)−φ(z)はドップラー信号としてCとCi+1のAスキャン方向の位置の移動量に比例している。ここでφはCの位相成分、φi+1はCi+1の位相成分であり、zはA−スキャンに沿った深さ方向の座標である。隣同士(iとi+1番目のCスキャン)のAスキャンデータ(z方向)についてCとCi+1の位相成分の差Δφi+1を求めヒストグラムを作成する。バックグラウンド領域は動きが無いため位相差は−πからπまで一様に分布する。 The difference Δφ i + 1 (z) = φ i + 1 (z) −φ i (z) between the phase components of C i and C i + 1 collected at different times is the movement of the position of C i and C i + 1 in the A scan direction as a Doppler signal It is proportional to the amount. Here, φ i is a phase component of C i , φ i + 1 is a phase component of C i + 1 , and z is a coordinate in the depth direction along the A-scan. A histogram is created by obtaining a difference Δφ i + 1 between the phase components of C i and C i + 1 for the A scan data (z direction) of adjacent (i and i + 1th C scan). Since there is no movement in the background region, the phase difference is uniformly distributed from −π to π.

バルク部分は大きな部分を占めているので、バルクモーションに応じた、位相差の成分がヒストグラムのピークとなる。この位相変化をΔφとする。あるいはすべてのzについて位相差Δφi+1を大きさ順に並べそのメジアン値(中央値:データを大きさの順に並べて、その真ん中のデータの値)のΔφi+1をもってバルクモーションによる位相変化としてもよい。 Since the bulk portion occupies a large portion, the phase difference component corresponding to the bulk motion becomes the peak of the histogram. This phase change is assumed to be Δφ B. Or all z arranging the phase difference [Delta] [phi i + 1 in order of magnitude for the median value (median: data are arranged in order of size, the value of the data in the middle) may be a phase change due to bulk motion with [Delta] [phi i + 1 of the.

この位相変化をΔφとする。位相変化Δφと被測定物体が測定時間間隔(BiとBi+1の計測時間間隔)に移動した移動量(バルクモーション速度)νiの関係は、ドップラー効果の理論により、νi=(λ/2n・2πΔT)φとなる。ここでλは光源の中心波長、nは被計測物体の屈折率、ΔTはAスキャンの時間間隔である。Cスキャンの間のバルクモーション量dは、バルクモーション速度νiにAスキャン時間間隔ΔTを乗じ、それをCスキャン方向に積算したものとなる。即ち、次の数式1で示されるものである。 This phase change is assumed to be Δφ B. The relationship between the phase change Δφ B and the movement amount (bulk motion speed) ν i in which the measured object is moved at the measurement time interval (measurement time interval of B i and B i + 1 ) is expressed as ν i = the (λ / 2n · 2πΔT) φ B. Here, λ is the center wavelength of the light source, n is the refractive index of the object to be measured, and ΔT is the time interval of the A scan. The bulk motion amount d z during the C scan is obtained by multiplying the bulk motion speed ν i by the A scan time interval ΔT and integrating it in the C scan direction. That is, it is shown by the following formula 1.

こうしてバルクモーション量が積算されるが、これについて多項式(たとえば、d=a+az(a,aは定数)など)でフィッティングを行う。計測中の生体の動きはそれほど大きくないので、メジアンシフト(a≠0,a=0)、あるいは1次関数(a≠0)が有効である。この関数の形が平らになるようにCスキャン方向のデータをAスキャン方向に移動し、Cスキャン方向のバルクモーションを補正し、被計測物体の静止画像を得ることができる。 Thus, the bulk motion amount is integrated, and fitting is performed with a polynomial (for example, d z = a 0 + a 1 z (a 0 , a 1 is a constant)). Since the movement of the living body during measurement is not so large, a median shift (a 0 ≠ 0, a 1 = 0) or a linear function (a 1 ≠ 0) is effective. The data in the C scan direction is moved in the A scan direction so that the shape of this function is flat, the bulk motion in the C scan direction is corrected, and a still image of the measured object can be obtained.

あるいは、積算と関数フィッティングを用いず、隣同士のバルクモーション量の大きさだけ隣のCスキャンデータをAスキャン方向に移動し、Cスキャン方向のバルクモーションを補正し、被計測物体の静止画像を得てもよい。   Alternatively, without using integration and function fitting, the adjacent C scan data is moved in the A scan direction by the amount of the adjacent bulk motion amount, the bulk motion in the C scan direction is corrected, and the still image of the measured object is obtained. May be obtained.

即ち、3次元画像計測の場合、Bスキャンと垂直方向のCスキャンについても同様の補正が可能であり、3次元像獲得中の生体の動きであるバルクモーションを、Bスキャン、Cスキャンの2次元方向に補正することで、3次元画像の歪みを補正することができる。   That is, in the case of three-dimensional image measurement, the same correction is possible for the B scan and the C scan in the vertical direction, and the bulk motion that is the movement of the living body during the acquisition of the three-dimensional image is converted into the two-dimensional B scan and C scan. By correcting in the direction, the distortion of the three-dimensional image can be corrected.

図4は、本発明の光断層画像の処理方法の実施例2のPS−FD−OCT13(偏光感受型スペクトル干渉トモグラフィー装置)の全体構成を示す図である。実施例1と同様に、広帯域光源2、低コヒーレンス干渉計3(マイケルソン干渉計)、及び分光器4(スペクトロメーター)とを備えている。具体的な構成について、以下、作用とともに説明する。   FIG. 4 is a diagram showing an overall configuration of a PS-FD-OCT 13 (polarization-sensitive spectral interference tomography apparatus) according to Embodiment 2 of the optical tomographic image processing method of the present invention. As in the first embodiment, a broadband light source 2, a low coherence interferometer 3 (Michelson interferometer), and a spectrometer 4 (spectrometer) are provided. A specific configuration will be described below together with the operation.

光源2から出た光は、光ウェッジ14によりパワーを減少された後、偏光子15により水平直線偏光(以下「H」という)となる。そして、入射光の偏光状態を、1/2波長板16と1/4波長板17により、水平直線偏光(H)、垂直直線偏光(以下「V」という)、45°直線偏光(以下「P」という)及び右周り円偏光(以下「R」という)の4通りのいずれかに選択的に調整し、ビームスプリッター5で参照光と被計測物体8に入射する光とに分ける。   The light emitted from the light source 2 is reduced in power by the optical wedge 14 and then becomes horizontal linearly polarized light (hereinafter referred to as “H”) by the polarizer 15. Then, the polarization state of the incident light is converted into horizontal linearly polarized light (H), vertical linearly polarized light (hereinafter referred to as “V”), 45 ° linearly polarized light (hereinafter referred to as “P”) by the ½ wavelength plate 16 and the ¼ wavelength plate 17. ”) And right-handed circularly polarized light (hereinafter referred to as“ R ”), and selectively adjusts the beam into reference light and light incident on the object to be measured 8 by the beam splitter 5.

ビームスプリッター5で分けられた参照光は、参照光光学系の参照鏡10、2枚の1/4波長板18、19により、偏光状態がH、V、P、Rとなるように調整されビームスプリッター5に再び入射される。一方、被計測物体8に入射する光はレンズ6により被計測物体8上の1点に集光され、反射され物体光としてビームスプリッター5に向かう。ビームスプリッター5は、上記入射してくる参照光を透過させ物体光を45°反射させて、両者を重ね合わせる。   The reference light divided by the beam splitter 5 is adjusted by the reference mirror 10 of the reference light optical system and the two quarter-wave plates 18 and 19 so that the polarization state becomes H, V, P, and R. It is incident again on the splitter 5. On the other hand, the light incident on the measurement object 8 is collected by the lens 6 at one point on the measurement object 8 and reflected to the beam splitter 5 as object light. The beam splitter 5 transmits the incident reference light and reflects the object light by 45 °, and superimposes them.

このようにして重ね合わせられてビームスプリッター5から出てくる偏光状態がH、V、P、Rとなるように調整された参照光と、被計測物体8から反射してきた物体光は、ミラー20で反射されてから1/4波長板21及び1/2波長板22を通して偏光状態をHにされ、回折格子11、レンズ23及びCCD12からなる分光器4に入射する。   The reference light adjusted in such a manner that the polarization state emitted from the beam splitter 5 is superimposed as H, V, P, and R and the object light reflected from the measured object 8 are mirror 20. Then, the polarization state is changed to H through the quarter-wave plate 21 and the half-wave plate 22 and enters the spectroscope 4 including the diffraction grating 11, the lens 23, and the CCD 12.

このように特定偏光の参照光(H、V、P、Rのいずれかの偏光状態の参照光)と物体光を干渉させることにより、物体光の特定偏光成分だけがCCD12上にスペクトル干渉縞を作り、その結果、物体光のうち参照光と同じ偏光状態をもつ成分だけを信号として取り出すことができる。そして、このスペクトル干渉縞をコンピュータ(図示せず。)に取り込み、画像のy軸のある1点から横1行を抜き取って離散フーリエ変換(DFT:Discrete Fourier transform、FFT:Fast Fourier transform)により空間的なフーリエ変換を計算する。   In this way, by causing the reference light of specific polarization (reference light in any polarization state of H, V, P, or R) to interfere with the object light, only the specific polarization component of the object light causes spectral interference fringes on the CCD 12. As a result, only the component having the same polarization state as the reference light in the object light can be extracted as a signal. Then, this spectral interference fringe is taken into a computer (not shown), one horizontal line is extracted from one point on the y-axis of the image, and a space is obtained by discrete Fourier transform (DFT: Fast Fourier transform). Compute a general Fourier transform.

これにより、参照光と物体光との一次元相関信号が得られる。さらにこれらの信号強度を組み合わせてミュラー行列(Mueller matrix)を求めることにより、被計測物体8の内部の偏光情報を捉えることができる。   Thereby, a one-dimensional correlation signal between the reference beam and the object beam is obtained. Further, by obtaining a Mueller matrix by combining these signal intensities, polarization information inside the object to be measured 8 can be captured.

この実施例2は、実施例1と同様に、被計測物体8の2次元データを取得し、被計測物体8そのものの動きに由来する画像のゆがみを補正するために、ドップラー信号を検出し、それを積算することで、BスキャンにおけるA−方向のバルクモーションに起因する1次元断層画像の位置ずれの補正を行って2次元断層画像を再構成し、同様にCスキャンについても複数取得したそれぞれの2次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、該検出結果に基づいて2次元断層画像の位置ずれの補正を行い、最終的に3次元画像を再構成するものである。その詳細は、実施例1と全く同じであるから、その説明は省略する。   In the second embodiment, similarly to the first embodiment, the two-dimensional data of the measured object 8 is acquired, and the Doppler signal is detected in order to correct the distortion of the image resulting from the movement of the measured object 8 itself. By accumulating it, the positional deviation of the one-dimensional tomographic image due to the bulk motion in the A-direction in the B scan is corrected to reconstruct the two-dimensional tomographic image, and a plurality of C scans are acquired in the same manner. 2D tomographic image positional deviation is detected using Doppler signal information, the positional deviation of the 2D tomographic image is corrected based on the detection result, and finally the 3D image is reconstructed. . Since the details are exactly the same as those in the first embodiment, the description thereof is omitted.

図5は、本発明の光断層画像の処理方法の実施例3の補正方法を適用する波長走査型OCT24の全体構成を示す図である。波長走査型光源25から出射された出力光を、ファイバ26を通してファイバカップラー27に送る。この出力光を、ファイバカップラー27において、ファイバ28を通して被計測物体29への照射する物体光と、ファイバ30を通して固定参照鏡31に照射する参照光に分割する。   FIG. 5 is a diagram showing an overall configuration of a wavelength scanning OCT 24 to which the correction method according to the third embodiment of the optical tomographic image processing method of the present invention is applied. The output light emitted from the wavelength scanning light source 25 is sent to the fiber coupler 27 through the fiber 26. In the fiber coupler 27, the output light is divided into object light that is irradiated onto the measurement object 29 through the fiber 28 and reference light that is irradiated onto the fixed reference mirror 31 through the fiber 30.

物体光は、ファイバ28、レンズ32、角度が可変な走査鏡33及びレンズ34を介して、被計測物体29に照射、反射され、同じルートでファイバカップラー27に戻る。参照光は、ファイバ30、レンズ35及びレンズ36を介して固定参照鏡31に照射、反射されて同じルートでファイバカップラー27に戻る。   The object light is irradiated and reflected on the measurement object 29 through the fiber 28, the lens 32, the scanning mirror 33 and the lens 34 having variable angles, and returns to the fiber coupler 27 through the same route. The reference light is irradiated and reflected on the fixed reference mirror 31 through the fiber 30, the lens 35, and the lens 36, and returns to the fiber coupler 27 through the same route.

そして、これらの物体光と参照光はファイバカップラー27で重ねられ、ファイバ37を通して光検知器38(PD(フォトダイオード)等のポイントセンサが使用される。)に送られ、スペクトル干渉信号として検出され、コンピュータ39に取り込まれる。光検知器38における検知出力に基づいて、被計測物体29の奥行き方向(A方向)と走査鏡の走査方向(B方向)の断面画像が形成される。コンピュータ39にはディスプレー40が接続されている。   Then, the object light and the reference light are overlapped by the fiber coupler 27 and sent to the optical detector 38 (a point sensor such as a PD (photodiode) is used) through the fiber 37 and detected as a spectrum interference signal. Is taken into the computer 39. Based on the detection output of the photodetector 38, cross-sectional images of the measured object 29 in the depth direction (A direction) and the scanning direction of the scanning mirror (B direction) are formed. A display 40 is connected to the computer 39.

ここで、波長走査型光源25は、時間的に波長を変化させて走査する光源であり、即ち波長が時間依存性を有する光源である。これにより、固定参照鏡31を走査(移動。A−スキャン)することなく、 被計測物体29の奥行き方向の反射率分布を得て奥行き方向の構造を取得することができ、1次方向の走査(B−スキャン)をするだけで、二次元の断層画像を形成することができる。   Here, the wavelength scanning light source 25 is a light source that scans while changing the wavelength with time, that is, a light source having a wavelength-dependent wavelength. This makes it possible to obtain the reflectance distribution in the depth direction of the object 29 to be measured and to obtain the structure in the depth direction without scanning (moving, A-scan) the fixed reference mirror 31. Scanning in the primary direction A two-dimensional tomographic image can be formed simply by performing (B-scan).

この実施例3は、実施例1と同様に、被計測物体29そのものの動きに由来する画像のゆがみを補正するために、被計測物体29の2次元データを取得し、被計測物体29そのものの動きに由来する画像のゆがみを補正するために、ドップラー信号を検出し、それを積算することで、BスキャンにおけるA−方向のバルクモーションに起因する1次元断層画像の位置ずれの補正を行って2次元断層画像を再構成し、同様にCスキャンについても複数取得したそれぞれの2次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、該検出結果に基づいて2次元断層画像の位置ずれの補正を行い、最終的に3次元画像を再構成するものである。その詳細は、実施例1と全く同じであるから、その説明は省略する。   As in the first embodiment, the third embodiment acquires two-dimensional data of the measured object 29 and corrects the distortion of the image derived from the movement of the measured object 29 itself. In order to correct the distortion of the image resulting from the motion, the Doppler signal is detected and integrated to correct the positional deviation of the one-dimensional tomographic image caused by the bulk motion in the A-direction in the B scan. A two-dimensional tomographic image is reconstructed. Similarly, a plurality of C-scan acquired two-dimensional tomographic image positions are detected using Doppler signal information, and the position of the two-dimensional tomographic image is determined based on the detection result. Deviation correction is performed, and a three-dimensional image is finally reconstructed. Since the details are exactly the same as those in the first embodiment, the description thereof is omitted.

この実施例4は、実施例1〜3のようにして歪みの補正された光断層画像について、被計測物体の奥行き方向に異なる構造が存在する場合は、分離する方法、即ち、Aスキャン方向(光軸方向)の層構造の検出法である。   In the fourth embodiment, when there is a different structure in the depth direction of the object to be measured in the optical tomographic image whose distortion has been corrected as in the first to third embodiments, a separation method, that is, the A scan direction ( This is a method for detecting the layer structure in the direction of the optical axis).

例えば、多くのデータを扱う集団健康診断等の、スクリーニングにおいては自動的に得たい情報を抽出する必要がある。このような要請から、本発明は、完全に自動的に深さ方向の3次元構造を分離する方法を実現するものである。この実施例4では、眼底の層構造の解析を例に挙げて説明するが、一般の画像についても同じである。   For example, it is necessary to extract information that is desired to be automatically obtained in screening such as a group health examination that handles a lot of data. In view of such a demand, the present invention realizes a method of completely automatically separating a three-dimensional structure in the depth direction. In the fourth embodiment, analysis of the fundus layer structure will be described as an example, but the same applies to general images.

実施例4の方法を説明する。まず、興味のある領域を抽出する。これは、被計測物体に対する予備的な知識に基づく。たとえば、被計測物体が眼底の場合、硝子体と網膜の境界からプローブ光が到達しうる眼底のもっとも深いところまでである。このもっとも深い点は、信号とノイズレベルの比で決まる。   The method of Example 4 will be described. First, an area of interest is extracted. This is based on preliminary knowledge about the measured object. For example, when the object to be measured is the fundus, it is from the boundary between the vitreous body and the retina to the deepest part of the fundus where the probe light can reach. This deepest point is determined by the ratio of signal to noise level.

次に、網膜と脈絡膜(網膜に隣接する奥側の膜)の領域を分離するために、網膜色素上皮(RPE)(網膜のうち最も内側の層)と脈絡膜毛細管枝(CC)の境界の高光反射層が抽出される。   Next, in order to separate the region of the retina and choroid (the inner membrane adjacent to the retina), the high light at the boundary between the retinal pigment epithelium (RPE) (the innermost layer of the retina) and the choroidal capillary branch (CC) A reflective layer is extracted.

ノイズを除去するために、所定のピクセル(例えば、3×3など)の大きさのガウシアンフィルター(ガウス分布に基づいて平滑化を行うフィルター)をかけ、平均化する。これを用いて画像強度の微分像を得る。微分像の正の符号の部分は画像強度が増加している部分を示し、微分像の負の部分は画像強度が減少していく部分を示す。網膜は光の反射率が高く、光強度が極大となるため、微分像の符号が正の部分は網膜の前側にあたり、負の部分は網膜の後側となる。これにより網膜の前側と後側が検知できる。強度の微分像を閾値処理し、符号の変化する位置をつなぐことにより2値化された境界像(網膜色素上皮)が得られる。   In order to remove noise, a Gaussian filter (a filter that performs smoothing based on a Gaussian distribution) having a size of a predetermined pixel (for example, 3 × 3) is applied and averaged. Using this, a differential image of image intensity is obtained. The positive sign portion of the differential image indicates a portion where the image intensity increases, and the negative portion of the differential image indicates a portion where the image intensity decreases. Since the retina has a high light reflectivity and the light intensity is maximized, the portion where the sign of the differential image is positive is the front side of the retina, and the negative portion is the back side of the retina. Thereby, the front side and the rear side of the retina can be detected. A threshold image is applied to the differential image of the intensity, and a binarized boundary image (retinal pigment epithelium) is obtained by connecting positions where the sign changes.

なお、ここで、上記記載を補足するが、Aスキャン方向に手前から奥へ画像の強度を見ていくと、最初の境界面(硝子体と網膜の境界(網膜色素上皮))が最初の反射面となり、明るく観測される。もっとも明るい場所は強度の微分が正から負へ変化する点として認識することができる。また、微分が正(強度が増加する部分)は手前側で微分が負(強度が減少していく部分)は奥(後側)となる。これにより自動的に1番目の面(境界)とその前後関係が得られる。   Although the above description is supplemented here, when the intensity of the image is viewed from the front to the back in the A scan direction, the first boundary surface (the boundary between the vitreous and the retina (retinal pigment epithelium)) is the first reflection. It becomes a surface and is brightly observed. The brightest place can be recognized as a point where the derivative of intensity changes from positive to negative. In addition, the differential is positive (the portion where the intensity increases), and the differential is negative (the portion where the intensity decreases) is the back (rear side). As a result, the first surface (boundary) and its context are automatically obtained.

2値化像において、ノイズ成分(境界を表していない小さな体積の部分)を除去したあと、3次元像の上方から下方に向かって順番に画素の強度を調べ、あらかじめ決めてあった閾値より高い画素が初めて検出される点を探す。この点は画像強度の増加が始まった点であり、境界層の始まりの位置といえる。その点から下方に進み、例えば10画素以内で画像の強度変化が最大になった点(最大の画像強度勾配を持つ点)を求める。この点が網膜の前側の境界面(網膜色素上皮)となる。   In the binarized image, after removing noise components (small volume portions that do not represent the boundary), the pixel intensity is examined in order from the top to the bottom of the three-dimensional image, and is higher than a predetermined threshold value. Find the point where a pixel is first detected. This point is where the increase in image intensity has started, and it can be said that the boundary layer starts. Progressing downward from that point, for example, a point where the intensity change of the image becomes maximum within 10 pixels (a point having the maximum image intensity gradient) is obtained. This point is the front boundary surface of the retina (retinal pigment epithelium).

前側の境界面をなめらかにするために、再帰的平滑化手法を用いる。これは軸方向に2次微分を持つ点を除去したあとで、線型補完によって境界面を決める手法である。その後、例えばランク15のメジアンフィルター(ある画素の濃度に替えて、その画素を中心とした一定領域の画素の中央値を与えることで、平滑化におけるエッジのぼけを防止しつつ雑音を除去する手段)をかける。   A recursive smoothing technique is used to smooth the front boundary. This is a method of determining a boundary surface by linear interpolation after removing a point having a second derivative in the axial direction. Thereafter, for example, a median filter of rank 15 (means for removing noise while preventing blurring of edges in smoothing by giving the median value of pixels in a certain area centered on the pixel instead of the density of a certain pixel) )multiply.

次に、網膜と脈絡膜の境界面となる高反射境界面を検出する。前側の境界から下方に、例えば25画素より離れた点から始めて最大の勾配を持つ点を検出する。Aスキャン方向に境界が見つからないときは、そのAラインは無視する。求めた点の画素強度を光軸方向に、例えば15画素平均化する。網膜と脈絡膜の境界面は、必要であればフィルターをかけ平滑化する。ここで、前記「25画素」は、網膜の平均的な厚さより小さくとったものであり、網膜と脈絡膜の境界は網膜と硝子体の境界から25画素より離れた領域に設定されるべきであるという予備知識に基づいたものである。   Next, a highly reflective boundary surface that is a boundary surface between the retina and the choroid is detected. A point having the maximum gradient is detected starting from a point separated from, for example, 25 pixels downward from the front boundary. When no boundary is found in the A scan direction, the A line is ignored. The pixel intensity of the obtained points is averaged, for example, 15 pixels in the optical axis direction. The interface between the retina and choroid is smoothed by filtering if necessary. Here, the “25 pixels” is smaller than the average thickness of the retina, and the boundary between the retina and the choroid should be set to an area farther than 25 pixels from the boundary between the retina and the vitreous body. This is based on prior knowledge.

画素強度(OCT信号)が極端に小さい点は網膜内にある血管領域と考えられる。血液による光吸収の為である。また血管の下側は血液による吸収のため光強度が弱くなるため、OCT信号が小さくなり、網膜後側境界(網膜と脈絡膜の境界)の検出ができないことがある。境界面を決めるために、境界の検出ができなかった点を、例えばその周囲10画素分平均化して、すでに検出されている境界の情報を用いて、検出できなかった点の境界の位置を補完する。   A point where the pixel intensity (OCT signal) is extremely small is considered to be a blood vessel region in the retina. This is because of light absorption by blood. In addition, since the light intensity is weakened due to absorption by blood under the blood vessel, the OCT signal becomes small, and the retinal boundary (the boundary between the retina and the choroid) may not be detected. In order to determine the boundary surface, the points where the boundary could not be detected are averaged for, for example, 10 pixels around the point, and the boundary position of the point that could not be detected is complemented using information on the boundary that has already been detected. To do.

網膜と脈絡膜の境界面を決めるためには、信号とノイズの大きさの境界を決める必要がある。そのためには、ガウスフィルターでぼかした強度像を2値化する。強度のヒストグラムをとるとノイズは鋭いピークを持つので、そのピークの例えば5レベル下を閾値とする。これにより小さなノイズは除去される。網膜の領域は、図6(b)の領域Dで示される。   In order to determine the interface between the retina and the choroid, it is necessary to determine the boundary between the signal and the noise magnitude. For that purpose, the intensity image blurred by the Gaussian filter is binarized. If the intensity histogram is taken, the noise has a sharp peak, and for example, 5 levels below the peak is set as a threshold value. This eliminates small noise. The region of the retina is indicated by region D in FIG.

脈絡膜と強膜との境界(脈絡膜の下(奥側)の面)も同様の手法で決められる。脈絡膜の領域は、図6(b)の領域Eで示される。   The boundary between the choroid and the sclera (the lower (back side) surface of the choroid) is also determined in the same manner. The choroid region is indicated by region E in FIG.

3次元的な血管のネットワーク像は、上記の方法で切り出された網膜体積内に表示される。網膜の領域に存在する血管は、血流が早いため、干渉縞が不鮮明になり(この現象を「fringe washout」という。)、OCT信号が弱くなる。したがって網膜内でOCT信号が弱い部分をつないでいくことにより、血管の3次元的な分布パターン(ネットワーク)を分離表示することができる(図6(b)参照)。   A three-dimensional blood vessel network image is displayed in the retinal volume cut out by the above method. Since blood vessels existing in the retina region have a fast blood flow, the interference fringes become unclear (this phenomenon is called “fringe washout”), and the OCT signal becomes weak. Therefore, by connecting portions where the OCT signal is weak in the retina, a three-dimensional distribution pattern (network) of blood vessels can be displayed separately (see FIG. 6B).

3次元的な血管の像は、上記の方法で切り出された脈絡膜の体積内に表示されるが、ドップラー光コヒーレンストモグラフィーでは運動している物体の速度(早さとその方向)の情報を得ることができる。したがってfringe washoutがおこらない速度範囲(遅い場合)血管中を流れる血流(血球の速度)を測定することができる。   Although a three-dimensional blood vessel image is displayed in the choroid volume cut out by the above method, Doppler optical coherence tomography can obtain information on the speed (speed and direction) of a moving object. it can. Therefore, the blood flow (blood cell speed) flowing through the blood vessel can be measured in a speed range (when slow) where fringe washout does not occur.

脈絡膜血管のように血流が遅い血管は、ドップラー情報を用いると、血管の分布パターン(ネットワーク)とともに血流の方向を含めた血管のネットワーク像を表示することができる。より鮮明な画像を得るためには、速度の二乗をとって流れの情報をなくしてから表示してもよい。また、画像はゴーストノイズの除去や不連続性の除去のため、3次元ガウシアンフィルターをかけて表示してもよい(図6(e)参照)。   For blood vessels with slow blood flow, such as choroidal blood vessels, using Doppler information, a blood vessel distribution pattern (network) and a blood vessel network image including the direction of blood flow can be displayed. In order to obtain a clearer image, it may be displayed after taking the square of the speed and eliminating the flow information. The image may be displayed with a three-dimensional Gaussian filter for removing ghost noise and discontinuity (see FIG. 6E).

抽出された体積内の画像を光軸の方向に積分することにより、2次元的な血管造影像を作成することができる。造影像を作る場合は、速度の二乗をとって(流れの情報をなくして)から表示した画像を用いた方がよりコントラストのよい造影像を得ることができる(図6(a)、(d)参照)。   By integrating the extracted image in the volume in the direction of the optical axis, a two-dimensional angiographic image can be created. In the case of creating a contrast image, it is possible to obtain a contrast image with better contrast by using the image displayed after taking the square of the speed (without the flow information) (FIGS. 6A and 6D). )reference).

ここで、図6(a)は、測定領域のデータすべてを平面に投影したもので、一般の眼底カメラによって撮影された画像にあたる。また図6(a)は、網膜と脈絡膜のみを投影したもので、血管像をより鮮明に観測することができる。   Here, FIG. 6A is a projection of all measurement region data onto a plane, and corresponds to an image taken by a general fundus camera. FIG. 6A is a projection of only the retina and the choroid, and the blood vessel image can be observed more clearly.

硝子体と網膜の境界、網膜と脈絡膜との境界、脈絡膜と強膜の境界といった反射率の高い層で領域をあらかじめ分離してあるため、網膜内の血管と脈絡膜内の血管を分離した別々の造影像を作成することができる(図6(d)、(e)参照)。   Since the regions are separated in advance by a highly reflective layer such as the boundary between the vitreous and the retina, the boundary between the retina and the choroid, and the boundary between the choroid and the sclera, separate blood vessels in the retina and blood vessels in the choroid are separated. A contrast image can be created (see FIGS. 6D and 6E).

図6(f)は、分離して得られた血管像を再び合成したものであり、網膜内血管を緑色で、脈絡膜血管を黄色で表示するなど、よりわかりやすい表示をすることも可能である。このことは本実施例4の大きな利点であり、こうした像は通常の眼底血管造影では得ることはできない。   FIG. 6 (f) is a composite of the blood vessel images obtained by separation, and it is possible to display more easily, such as displaying the intraretinal blood vessel in green and the choroidal blood vessel in yellow. This is a great advantage of the fourth embodiment, and such an image cannot be obtained by normal fundus angiography.

以上、本発明を実施するための最良の形態を実施例に基づいて説明したが、本発明はこのような実施例に限定されるものではなく、特許請求の範囲に記載された技術的事項の範囲内でいろいろな実施例があることは言うまでもない。   The best mode for carrying out the present invention has been described above based on the embodiments. However, the present invention is not limited to such embodiments, and the technical matters described in the claims are not limited. It goes without saying that there are various embodiments within the scope.

本発明に係る光断層画像の処理方法における光コヒーレンストモグラフィーの補正方法は、補償光学やモーショントラックなどの複雑な追加システムを用いず構成が簡単となり、3次元計測データのみを用いて被計測物体の動きを補正して画像の歪みを少なくすることができるから、特に、眼底検査等、生体試料の動きやぶれで画像が歪むと正確な検査のできないような眼科等の医療分野における光断層画像化装置の補正方法として適用すると有効である。   The optical coherence tomography correction method in the optical tomographic image processing method according to the present invention is simple in configuration without using a complicated additional system such as adaptive optics or a motion track, and only the three-dimensional measurement data is used to measure the object to be measured. Since optical distortion can be reduced by correcting the movement, an optical tomographic imaging apparatus in the medical field such as ophthalmology where accurate inspection cannot be performed especially when the image is distorted due to movement or shaking of a biological sample such as fundus examination It is effective when applied as a correction method.

また、本発明に係る光断層画像の処理方法を用いると、歪みを補正された画像について、被計測物体の奥行き方向に異なる構造が存在する場合は、その構造および構造内に含まれる有益な情報を自動的に分離することが可能となる。   Further, when the optical tomographic image processing method according to the present invention is used, if there is a different structure in the depth direction of the object to be measured in the distortion-corrected image, the structure and useful information included in the structure are included. Can be automatically separated.

さらに、光断層画像から層構造内に含まれる有用な構造情報を抽出することは容易となる。これにより多くのデータを扱う集団健康診断等の、スクリーニングにおいては自動的に得たい情報を抽出することができ、眼科等の医療分野における光断層画像化装置の実用化に有効である。   Furthermore, it becomes easy to extract useful structure information included in the layer structure from the optical tomographic image. This makes it possible to automatically extract information desired for screening such as group health examinations that handle a large amount of data, which is effective for practical application of an optical tomographic imaging apparatus in the medical field such as ophthalmology.

本発明の実施例1に係るFD−OCTの全体構成を示す図である。It is a figure which shows the whole structure of FD-OCT which concerns on Example 1 of this invention. 実施例1の原理、作用を説明するための2次元光断層画像による説明図である。FIG. 2 is an explanatory diagram based on a two-dimensional optical tomographic image for explaining the principle and operation of the first embodiment. 位相差のヒストグラムを模式的に表した図である。It is the figure which represented the histogram of phase difference typically. 本発明の実施例2に係るPS−FD−OCTの全体構成を示す図である。It is a figure which shows the whole structure of PS-FD-OCT which concerns on Example 2 of this invention. 本発明の実施例3に係るSS−OCTの全体構成を示す図である。It is a figure which shows the whole structure of SS-OCT which concerns on Example 3 of this invention. 本発明の実施例4を被計測物体である網膜及び脈絡膜の画像を示す図である。It is a figure which shows the image of the retina which is Example 4 of this invention, and a choroid. 従来のOCTを説明する図である。It is a figure explaining the conventional OCT.

符号の説明Explanation of symbols

1 FD−OCT
2 広帯域光源
3 低コヒーレンス干渉計
4 分光器
5 ビームスプリッター
6、9、23、32、34、35、36 レンズ
7 ガルバノミラー
8 被計測物体
10 参照鏡
11 回折格子
12 CCD
13 PS−FD−OCT
14 光ウェッジ
15 偏光子
16、22 1/2波長板
17、18、19、21 1/4波長板
20 ミラー
24 波長走査型OCT
25 波長走査型光源
26、28、37 ファイバ
27 ファイバカップラー
29、48 被計測物体
30 ファイバ
31 固定参照鏡
33 走査鏡
38 光検知器
39 コンピュータ
40 ディスプレー
43 OCT
44 光源
45 コリメートレンズ
46 ビームスプリッター
47 物体アーム内の対物レンズ
49 参照アーム内の対物レンズ
50 参照鏡
51 集光レンズ
52 (フォトダイオード等)光検出器
1 FD-OCT
2 Broadband light source
3 Low coherence interferometer
4 Spectrometer
5 Beam splitter
6, 9, 23, 32, 34, 35, 36 Lens
7 Galvano mirror
8 Object to be measured
10 Reference mirror
11 Diffraction grating
12 CCD
13 PS-FD-OCT
14 Light wedge
15 Polarizer
16, 22 1/2 wavelength plate
17, 18, 19, 21 1/4 wave plate
20 mirror
24 wavelength scanning OCT
25 wavelength scanning light source
26, 28, 37 fiber
27 Fiber coupler
29, 48 Object to be measured
30 fiber
31 Fixed reference mirror
33 Scanning mirror
38 Light detector
39 computers
40 display
43 OCT
44 Light source
45 Collimating lens
46 Beam splitter
47 Objective lens in the object arm
49 Objective lens in the reference arm
50 reference mirror
51 condenser lens
52 (Photodiode etc.) Photodetector

Claims (6)

光コヒーレンストモグラフィーを用いて、被計測物体の奥行き方向の軸(Aスキャン軸)に垂直方向(Bスキャン方向)に位置をずらしながら複数の1次元断層画像を取得して被計測物体の奥行き方向の軸に平行な2次元断層画像(Bスキャン画像)を取得し、さらに、該2次元断層画像に垂直方向(Cスキャン方向)に位置をずらしながら複数2次元断層画像を取得し3次元画像を構成する光コヒーレンストモグラフィーによる光断層画像化法において、
前記被計測物体の移動ぶれに起因する前記複数の1次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、該検出結果に基づいて1次元断層画像の位置ずれの補正を行い、前記2次元断層画像を再構成して、光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することを特徴とする光断層画像の処理方法。
Using optical coherence tomography, a plurality of one-dimensional tomographic images are acquired while shifting the position in the direction perpendicular to the axis (A scan axis) in the depth direction (A scan axis) of the object to be measured. A two-dimensional tomographic image (B-scan image) parallel to the axis is acquired, and a plurality of two-dimensional tomographic images are acquired while shifting the position in the vertical direction (C-scan direction) with respect to the two-dimensional tomographic image to form a three-dimensional image In optical tomography by optical coherence tomography,
Detecting misalignment of the plurality of one-dimensional tomographic images due to movement blur of the measured object using Doppler signal information, correcting misalignment of the one-dimensional tomographic image based on the detection result, An optical tomographic image processing method comprising reconstructing a two-dimensional tomographic image and correcting distortion of an image due to movement of an object to be measured in an optical tomographic imaging method of optical coherence tomography.
光コヒーレンストモグラフィーを用いて、被計測物体の奥行き方向の軸(Aスキャン軸)に平行な2次元断層画像(Bスキャン画像)を、該2次元断層画像に垂直方向(Cスキャン方向)に位置をずらしながら複数取得し3次元画像を構成する光コヒーレンストモグラフィーによる光断層画像化法において、
前記被計測物体の移動ぶれに起因する前記複数取得したそれぞれの2次元断層画像の位置ずれを、ドップラー信号情報を用いて検出し、該検出結果に基づいて2次元断層画像の位置ずれの補正を行い、前記3次元画像を再構成して、光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することを特徴とする請求項1に記載の光断層画像の処理方法。
Using optical coherence tomography, a two-dimensional tomographic image (B-scan image) parallel to the axis in the depth direction (A-scan axis) of the object to be measured is positioned in the direction perpendicular to the two-dimensional tomographic image (C-scan direction). In optical tomographic imaging by optical coherence tomography that acquires a plurality of images while shifting and constructs a three-dimensional image,
A positional deviation of each of the plurality of acquired two-dimensional tomographic images caused by the movement blur of the measured object is detected using Doppler signal information, and the positional deviation of the two-dimensional tomographic image is corrected based on the detection result. The optical tomographic image processing according to claim 1, wherein the three-dimensional image is reconstructed and image distortion due to movement of an object to be measured in the optical tomographic imaging method of optical coherence tomography is corrected. Method.
前記光コヒーレンストモグラフィーは、ドップラー光コヒーレンストモグラフィーであり、該ドップラー光コヒーレンストモグラフィーにおいて、断層像内での計測対象の流速や移動量を求める場合に生じる移動ぶれによる速度計測誤差を補正するために使用される、光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することを特徴とする請求項1又は2に記載の光断層画像の処理方法。   The optical coherence tomography is Doppler optical coherence tomography, and is used to correct a speed measurement error due to movement blur that occurs when obtaining a flow velocity and a movement amount of a measurement target in a tomographic image in the Doppler optical coherence tomography. 3. The optical tomographic image processing method according to claim 1, wherein image distortion caused by movement of an object to be measured in an optical tomographic imaging method of optical coherence tomography is corrected. 前記ドップラー信号は被検物体の移動速度を表し、且つ前記光コヒーレンストモグラフィー画像の位相成分の変化量で表されものであり、Bスキャン方向に異なる位置のAスキャンデータ間のドップラー信号のヒストグラムを求め、該ヒストグラム中、最も頻度が高い成分を移動ぶれとみなして、該成分の値を用いて光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することを特徴とする請求項1又は2に記載の光断層画像の処理方法。   The Doppler signal represents the moving speed of the object to be examined and is represented by the amount of change in the phase component of the optical coherence tomography image, and a Doppler signal histogram between A scan data at different positions in the B scan direction is obtained. In the histogram, the most frequent component is regarded as a movement blur, and the distortion of the image due to the movement of the measured object in the optical tomography method of optical coherence tomography is corrected using the value of the component. An optical tomographic image processing method according to claim 1 or 2. 前記ドップラー信号のメジアン値を移動ぶれとし、該メジアン値を用いて光コヒーレンストモグラフィーの光断層画像化法における被計測物体の移動による画像の歪みを補正することを特徴とする請求項1又は2に記載の光断層画像の処理方法。   3. The image distortion due to the movement of an object to be measured in an optical tomographic imaging method of optical coherence tomography is corrected using the median value of the Doppler signal as a movement blur. The processing method of the optical tomographic image of description. 歪みを補正された画像について、被計測物体の奥行き方向に異なる構造が存在する場合は、その構造および構造内に含まれる有益な情報を自動的に分離することを特徴とする請求項1〜5のいずれかに記載の光断層画像の処理方法。   6. If there is a different structure in the depth direction of the object to be measured in the image whose distortion has been corrected, the structure and useful information contained in the structure are automatically separated. A method for processing an optical tomographic image according to any one of the above.
JP2006216335A 2006-08-09 2006-08-09 Optical tomographic image processing method Active JP4461259B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006216335A JP4461259B2 (en) 2006-08-09 2006-08-09 Optical tomographic image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006216335A JP4461259B2 (en) 2006-08-09 2006-08-09 Optical tomographic image processing method

Publications (2)

Publication Number Publication Date
JP2008039651A true JP2008039651A (en) 2008-02-21
JP4461259B2 JP4461259B2 (en) 2010-05-12

Family

ID=39174821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006216335A Active JP4461259B2 (en) 2006-08-09 2006-08-09 Optical tomographic image processing method

Country Status (1)

Country Link
JP (1) JP4461259B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151684A (en) * 2008-12-25 2010-07-08 Univ Of Tsukuba Polarization sensitive optical image measuring instrument for extracting local double refraction information
JP2010154935A (en) * 2008-12-26 2010-07-15 Canon Inc Optical coherence tomographic imaging apparatus
JP2010169660A (en) * 2008-12-26 2010-08-05 Canon Inc Imaging system and method using optical interference tomographic method
JP2010172425A (en) * 2009-01-28 2010-08-12 Fujifilm Corp Optical structure analyzer, and structure information processing method thereof
WO2010119632A1 (en) * 2009-04-15 2010-10-21 株式会社トプコン Eyeground observation device
JP2010246654A (en) * 2009-04-13 2010-11-04 Canon Inc Optical tomographic imaging apparatus and control method therefor
WO2010140313A1 (en) * 2009-06-03 2010-12-09 株式会社トプコン Optical image measuring device
JP4603100B2 (en) * 2009-02-23 2010-12-22 オリンパスメディカルシステムズ株式会社 Living body observation apparatus and living body tomographic image generation method
KR101011556B1 (en) * 2009-03-02 2011-01-27 경북대학교 산학협력단 Optical doppler tomography system and method for detecting Doppler frequency thereof
JP2011087814A (en) * 2009-10-23 2011-05-06 Canon Inc Optical tomographic imaging method and optical tomographic imaging apparatus
JP2011087813A (en) * 2009-10-23 2011-05-06 Canon Inc Optical tomographic imaging apparatus and optical tomographic imaging method
JP2011526159A (en) * 2008-06-13 2011-10-06 カール ツァイス メディテック アクチェン ゲゼルシャフト SS-OCT interferometry for sample measurement
WO2011158848A1 (en) * 2010-06-15 2011-12-22 富士フイルム株式会社 Optical tomography device and optical tomography method
JP2012061359A (en) * 2011-12-28 2012-03-29 Canon Inc Optical tomographic image generation apparatus and optical tomographic image generation method
JP2014012227A (en) * 2013-10-18 2014-01-23 Canon Inc Image generation device, image generation system and image generation method
WO2014199976A1 (en) * 2013-06-13 2014-12-18 国立大学法人筑波大学 Optical coherence tomography apparatus for selectively visualizing and analyzing choroid vascular plexus, and image-processing program and image-processing method therefor
JP2015169650A (en) * 2014-03-11 2015-09-28 国立大学法人 筑波大学 Apparatus and method for measuring displacement by optical coherence tomography
JP2015180863A (en) * 2014-01-31 2015-10-15 ザ ジェネラル ホスピタル コーポレイション Method and apparatus for performing multidimensional velocity measurements using amplitude and phase in optical interferometry
US11231272B2 (en) 2017-11-16 2022-01-25 Nec Corporation Optical measuring apparatus and optical measuring method
WO2022269663A1 (en) * 2021-06-21 2022-12-29 日本電信電話株式会社 Peak frequency acquisition method and distance measuring device

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011526159A (en) * 2008-06-13 2011-10-06 カール ツァイス メディテック アクチェン ゲゼルシャフト SS-OCT interferometry for sample measurement
JP2010151684A (en) * 2008-12-25 2010-07-08 Univ Of Tsukuba Polarization sensitive optical image measuring instrument for extracting local double refraction information
JP2010154935A (en) * 2008-12-26 2010-07-15 Canon Inc Optical coherence tomographic imaging apparatus
JP2010169660A (en) * 2008-12-26 2010-08-05 Canon Inc Imaging system and method using optical interference tomographic method
JP2010172425A (en) * 2009-01-28 2010-08-12 Fujifilm Corp Optical structure analyzer, and structure information processing method thereof
JP4603100B2 (en) * 2009-02-23 2010-12-22 オリンパスメディカルシステムズ株式会社 Living body observation apparatus and living body tomographic image generation method
JPWO2010095487A1 (en) * 2009-02-23 2012-08-23 オリンパスメディカルシステムズ株式会社 Living body observation apparatus and living body tomographic image generation method
KR101011556B1 (en) * 2009-03-02 2011-01-27 경북대학교 산학협력단 Optical doppler tomography system and method for detecting Doppler frequency thereof
JP2010246654A (en) * 2009-04-13 2010-11-04 Canon Inc Optical tomographic imaging apparatus and control method therefor
WO2010119632A1 (en) * 2009-04-15 2010-10-21 株式会社トプコン Eyeground observation device
JP2010264225A (en) * 2009-04-15 2010-11-25 Topcon Corp Eyeground observation device
US8573776B2 (en) 2009-04-15 2013-11-05 Kabushiki Kaisha Topcon Fundus observation apparatus
US8970848B2 (en) 2009-06-03 2015-03-03 Kabushiki Kaisha Topcon Optical image measurement apparatus
JP2010279508A (en) * 2009-06-03 2010-12-16 Topcon Corp Optical image measuring device
WO2010140313A1 (en) * 2009-06-03 2010-12-09 株式会社トプコン Optical image measuring device
US9103650B2 (en) 2009-10-23 2015-08-11 Canon Kabushiki Kaisha Optical tomographic image generation method and optical tomographic image generation apparatus
JP2011087814A (en) * 2009-10-23 2011-05-06 Canon Inc Optical tomographic imaging method and optical tomographic imaging apparatus
JP2011087813A (en) * 2009-10-23 2011-05-06 Canon Inc Optical tomographic imaging apparatus and optical tomographic imaging method
WO2011158848A1 (en) * 2010-06-15 2011-12-22 富士フイルム株式会社 Optical tomography device and optical tomography method
JP2012061359A (en) * 2011-12-28 2012-03-29 Canon Inc Optical tomographic image generation apparatus and optical tomographic image generation method
WO2014199976A1 (en) * 2013-06-13 2014-12-18 国立大学法人筑波大学 Optical coherence tomography apparatus for selectively visualizing and analyzing choroid vascular plexus, and image-processing program and image-processing method therefor
JP2015000131A (en) * 2013-06-13 2015-01-05 国立大学法人 筑波大学 Optical coherence tomography apparatus for selectively visualizing and analyzing choroid vascular plexus, and image processing program therefor
US10136812B2 (en) 2013-06-13 2018-11-27 University Of Tsukuba Optical coherence tomography apparatus for selectively visualizing and analyzing vascular network of choroidal layer, and image-processing program and image-processing method for the same
JP2014012227A (en) * 2013-10-18 2014-01-23 Canon Inc Image generation device, image generation system and image generation method
JP2015180863A (en) * 2014-01-31 2015-10-15 ザ ジェネラル ホスピタル コーポレイション Method and apparatus for performing multidimensional velocity measurements using amplitude and phase in optical interferometry
JP2015169650A (en) * 2014-03-11 2015-09-28 国立大学法人 筑波大学 Apparatus and method for measuring displacement by optical coherence tomography
US11231272B2 (en) 2017-11-16 2022-01-25 Nec Corporation Optical measuring apparatus and optical measuring method
WO2022269663A1 (en) * 2021-06-21 2022-12-29 日本電信電話株式会社 Peak frequency acquisition method and distance measuring device

Also Published As

Publication number Publication date
JP4461259B2 (en) 2010-05-12

Similar Documents

Publication Publication Date Title
JP4461259B2 (en) Optical tomographic image processing method
US11471039B2 (en) High resolution 3-D spectral domain optical imaging apparatus and method
JP5626687B2 (en) 2-beam optical coherence tomography system
JP4389032B2 (en) Optical coherence tomography image processing device
JP6346410B2 (en) Jones Matrix OCT System and Program for Image Processing of Measurement Data Obtained by OCT
JP5166889B2 (en) Quantitative measurement device for fundus blood flow
JP4461258B2 (en) Correction method in optical tomography
US9354038B2 (en) Swept source optical coherence tomography and method for stabilizing phase thereof
JP5787255B2 (en) Program for correcting measurement data of PS-OCT and PS-OCT system equipped with the program
JP4344829B2 (en) Polarized light receiving image measuring device
KR101704113B1 (en) Method and apparatus for processing polarization data of polarization sensitive optical coherence tomography
JP6195334B2 (en) Imaging apparatus, imaging method, and program
US9615736B2 (en) Optical interference tomographic apparatus, and method for controlling optical interference tomographic apparatus
US9243887B2 (en) Lateral distortion corrected optical coherence tomography system
US20130258285A1 (en) Image processing apparatus and image processing method
JP2010151684A (en) Polarization sensitive optical image measuring instrument for extracting local double refraction information
JP5784100B2 (en) Image forming apparatus and image forming method
JP6579718B2 (en) Jones Matrix OCT Device and Program
JP2009031230A (en) Method for displaying measurement data
JP6556199B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150