JP6471593B2 - OCT signal processing apparatus and OCT signal processing program - Google Patents

OCT signal processing apparatus and OCT signal processing program Download PDF

Info

Publication number
JP6471593B2
JP6471593B2 JP2015080467A JP2015080467A JP6471593B2 JP 6471593 B2 JP6471593 B2 JP 6471593B2 JP 2015080467 A JP2015080467 A JP 2015080467A JP 2015080467 A JP2015080467 A JP 2015080467A JP 6471593 B2 JP6471593 B2 JP 6471593B2
Authority
JP
Japan
Prior art keywords
oct
image
data
front image
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015080467A
Other languages
Japanese (ja)
Other versions
JP2016198279A5 (en
JP2016198279A (en
Inventor
直樹 竹野
直樹 竹野
康寛 古内
康寛 古内
倫全 佐竹
倫全 佐竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2015080467A priority Critical patent/JP6471593B2/en
Publication of JP2016198279A publication Critical patent/JP2016198279A/en
Publication of JP2016198279A5 publication Critical patent/JP2016198279A5/ja
Application granted granted Critical
Publication of JP6471593B2 publication Critical patent/JP6471593B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本開示は、光コヒーレンストモグラフィデバイスによって取得されたOCT信号を処理するためのOCT信号処理装置、およびOCT信号処理プログラムに関する。   The present disclosure relates to an OCT signal processing apparatus and an OCT signal processing program for processing an OCT signal acquired by an optical coherence tomography device.

光源からの光を測定光と参照光に分割し、被検物に照射された測定光と参照光の干渉信号を取得し、取得された干渉信号を処理して被検物の断層画像を取得するOCT信号処理装置が知られている。また、上記のようなOCT信号処理装置において、取得した断層画像の断面方向に交差する方向(正面方向)から見た被検物の正面画像を取得する装置が知られている。   Divides the light from the light source into measurement light and reference light, acquires the interference light of the measurement light and reference light irradiated to the test object, and processes the acquired interference signal to acquire the tomographic image of the test object An OCT signal processing apparatus is known. In addition, in the OCT signal processing apparatus as described above, there is known an apparatus that acquires a front image of a test object viewed from a direction (front direction) intersecting a cross-sectional direction of the acquired tomographic image.

H. C. Hendargo, R. Estrada, S. J. Chiu, C. Tomasi, S. Farsiu, and J. a. Izatt, “Automated non-rigid registration and mosaicing for robust imaging of distinct retinal capillary beds using speckle variance optical coherence tomography,” Biomed. Opt. Express, vol. 4, no. 6, p. 803, May 2013.HC Hendargo, R. Estrada, SJ Chiu, C. Tomasi, S. Farsiu, and J. a. Izatt, “Automated non-rigid registration and mosaicing for robust imaging of distinct retinal capillary beds using speckle variance optical coherence tomography,” Biomed Opt. Express, vol. 4, no. 6, p. 803, May 2013.

従来のOCT信号処理装置において、正面画像を繋ぎ合わせることによって合成正面画像を得ようとした場合、画像の位置合わせが上手くいかない場合があった。   In a conventional OCT signal processing apparatus, when trying to obtain a synthesized front image by joining front images, the image alignment may not be successful.

本開示は、上記の問題点に鑑み、より信頼性の高い画像合成を行えるOCT信号処理装置、およびOCT信号処理プログラムを提供することを技術課題とする。   In view of the above problems, it is an object of the present disclosure to provide an OCT signal processing apparatus and an OCT signal processing program that can perform more reliable image composition.

上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present disclosure is characterized by having the following configuration.

(1) 第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータとを取得するOCTデータ取得手段と、前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成手段と、前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御手段と、を備えることを特徴とする。
(2) OCT信号処理装置において実行されるOCT信号処理プログラムであって、前記OCT信号処理装置のプロセッサに実行されることによって、第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを取得するOCTデータ取得ステップと、前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成ステップと、前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御ステップと、を前記OCT信号処理装置に実行させることを特徴とする。
(1) OCT data acquisition means for acquiring first OCT data and second OCT data in which at least a part of an acquisition area differs from the first OCT data, and first processing relating to the first OCT data and the second OCT data To generate a first OCT front image based on the first OCT data and a second OCT front image based on the second OCT data, and the first OCT data and the second OCT data are different from the first process. by performing the second processing, the a first 3OCT front image based on the first 1OCT data, image producing means for producing a first 4OCT front image based on the first 2OCT data, the first 1OCT front image and the second 2OCT front a first image position information is relative position information of the image, and the second 3OCT front image Wherein a first 4OCT second image position information is relative position information of the front image, were acquired by the image analysis, on the basis of the acquired first image position information and the second image position information, the Computational control means for computing data position information, which is relative position information between the first OCT data and the second OCT data, is provided.
(2) An OCT signal processing program that is executed in the OCT signal processing device, and is executed by a processor of the OCT signal processing device so that the first OCT data and the first OCT data have a part of an acquisition region. OCT data acquisition step for acquiring at least different second OCT data, and by performing a first process on the first OCT data and the second OCT data, a first OCT front image based on the first OCT data, and the second OCT data And a second OCT front image based on the first OCT data by performing a second process different from the first process on the first OCT data and the second OCT data, Generating a fourth OCT front image based on the second OCT data; An image generating step, the second and the first image position information 1OCT a relative position information of the front image and the second 2OCT front image, relative position information between the first 3OCT front image and the second 4OCT front image The second image position information is obtained by image analysis, and the first OCT data and the second OCT data are relative to each other based on the obtained first image position information and the second image position information. And a calculation control step for calculating data position information, which is accurate position information, is executed by the OCT signal processing apparatus.

OCT信号処理装置1の構成を示す概略図である。1 is a schematic diagram showing a configuration of an OCT signal processing apparatus 1. FIG. OCTデバイス10の光学系を示す概略図である。1 is a schematic diagram showing an optical system of an OCT device 10. FIG. OCT信号処理装置1の制御動作を示すフローチャートである。3 is a flowchart showing a control operation of the OCT signal processing apparatus 1. OCT信号の取得について説明する図である。It is a figure explaining acquisition of an OCT signal. データ位置情報の求め方について説明する図である。It is a figure explaining how to obtain data position information. データ位置情報に基づく合成画像の生成方法を説明する図である。It is a figure explaining the production | generation method of the synthesized image based on data position information. 解析結果の利用について説明する図である。It is a figure explaining utilization of an analysis result. 取得領域に重なりが無い場合の画像の合成について説明する図である。It is a figure explaining composition of an image when there is no overlap in an acquisition field. 正面画像に撮影された像の歪みを修正したときの例を示す図である。It is a figure which shows an example when the distortion of the image image | photographed by the front image is corrected. 機能OCT信号の取得について説明する図である。It is a figure explaining acquisition of a function OCT signal. モーションコントラストの取得について説明するための図である。It is a figure for demonstrating acquisition of motion contrast.

以下、本開示に係る実施形態を図1〜11を用いて簡単に説明する。本実施形態のOCT信号処理装置(例えば、図1のOCT信号処理装置1)は、例えば、OCT信号は、光コヒーレンストモグラフィデバイス(以下、OCTデバイスと略す。例えば、図1のOCTデバイス10)によって取得されたOCT信号を処理する。   Hereinafter, embodiments according to the present disclosure will be briefly described with reference to FIGS. The OCT signal processing apparatus of the present embodiment (for example, the OCT signal processing apparatus 1 of FIG. 1), for example, the OCT signal is an optical coherence tomography device (hereinafter abbreviated as an OCT device. For example, the OCT device 10 of FIG. 1). The OCT signal acquired by is processed.

OCT信号処理装置は、例えば、OCTデータ取得部(例えば、図1の制御部70)と、画像生成部(例えば、制御部70)と、演算制御部(例えば、制御部70)と、を備えてもよい。   The OCT signal processing apparatus includes, for example, an OCT data acquisition unit (for example, the control unit 70 in FIG. 1), an image generation unit (for example, the control unit 70), and an arithmetic control unit (for example, the control unit 70). May be.

OCTデータ取得部は、例えば、第1OCTデータと第2OCTデータを少なくとも取得する。第2OCTデータは、例えば、第1OCTデータとは取得領域の少なくとも一部が異なってもよい。なお、第1OCTデータおよび第2OCTデータは、例えば、3次元のOCTデータであってもよい。   For example, the OCT data acquisition unit acquires at least first OCT data and second OCT data. For example, the second OCT data may be different from the first OCT data in at least a part of the acquisition region. The first OCT data and the second OCT data may be, for example, three-dimensional OCT data.

なお、OCTデータ取得部は、例えば、OCTデバイスと電気的に接続され、OCTデバイスから直接OCTデータを取得してもよいし、他の媒体(例えば、コンピュータ、記憶媒体など)から間接的にOCTデータを取得してもよい。   The OCT data acquisition unit is electrically connected to the OCT device, for example, and may acquire the OCT data directly from the OCT device or indirectly from other media (for example, a computer, a storage medium, etc.). Data may be acquired.

画像生成部は、例えば、第1OCTデータと第2OCTデータに関して、第1の処理を行うことによって、第1OCTデータに基づく第1OCT画像と、第2OCTデータに基づく第2OCT正面画像とを生成してもよい。さらに、画像生成部は、例えば、第1OCTデータと第2OCTデータに関して、第2の処理を行うことによって、第1OCTデータに基づく第3OCT正面画像と、第2OCTデータに基づく第4OCT正面画像を取得してもよい。なお、第2の処理は、第1の処理とは異なる処理であって、第1の処理によって得られる正面画像とは種類の異なる正面画像が生成される。   For example, the image generation unit generates a first OCT image based on the first OCT data and a second OCT front image based on the second OCT data by performing a first process on the first OCT data and the second OCT data. Good. Further, the image generation unit obtains a third OCT front image based on the first OCT data and a fourth OCT front image based on the second OCT data by performing a second process on the first OCT data and the second OCT data, for example. May be. The second process is a process different from the first process, and a front image having a different type from the front image obtained by the first process is generated.

演算制御部は、例えば、第1画像位置情報と、第2画像位置情報に基づいてデータ位置情報を演算してもよい。なお、第1画像位置情報は、例えば、第1OCT正面画像と第2OCT正面画像との相対的な位置情報であってもよい。また、第2画像位置情報は、例えば、第3OCT正面画像と第4OCT正面画像との相対的な位置情報であってもよい。また、データ位置情報は、例えば、第1OCTデータと第2OCTデータとの相対的な位置情報であってもよい。   For example, the calculation control unit may calculate the data position information based on the first image position information and the second image position information. Note that the first image position information may be, for example, relative position information between the first OCT front image and the second OCT front image. The second image position information may be, for example, relative position information between the third OCT front image and the fourth OCT front image. Further, the data position information may be, for example, relative position information between the first OCT data and the second OCT data.

なお、画像生成部は、データ位置情報に基づいて、複数のOCTデータ間の位置合わせを行い、合成正面画像を生成してもよい。例えば、画像生成部は、演算制御部によって演算されたデータ位置情報に基づいて、第1OCTデータを処理して生成されたOCT正面画像と、第2OCTデータを処理して生成されたOCT正面画像とを位置合わせすることによって、合成正面画像を生成してもよい。   Note that the image generation unit may perform alignment between a plurality of OCT data based on the data position information and generate a combined front image. For example, the image generation unit includes an OCT front image generated by processing the first OCT data and an OCT front image generated by processing the second OCT data based on the data position information calculated by the calculation control unit. A combined front image may be generated by aligning.

なお、第1の処理とは、例えば、第1の深さ領域における第1OCTデータおよび第2OCTデータに基づいて、第1OCT正面画像および第2OCT正面画像を生成する処理であってもよい。この場合、第2の処理は、第1の深さ領域とは深さの異なる第2の深さ領域における第1OCTデータおよび第2OCTデータに基づいて、第3OCT正面画像および第4OCT正面画像を生成する処理であってもよい。   The first process may be a process for generating the first OCT front image and the second OCT front image based on the first OCT data and the second OCT data in the first depth region, for example. In this case, the second process generates the third OCT front image and the fourth OCT front image based on the first OCT data and the second OCT data in the second depth region having a depth different from the first depth region. It may be a process to do.

なお、画像生成部は、第1OCTデータおよび第2OCTデータに関してそれぞれセグメンテーション処理を行ってもよい。そして、画像生成部は、セグメンテーション処理によって抽出された層毎にOCT正面画像を生成してもよい。これによって、画像生成部は、第1の層に関する第1OCT正面画像と第2OCT正面画像を生成すると共に、第1の層とは深さ方向に関して異なる第2の層に関する第3OCT正面画像と第4OCT正面画像を生成してもよい。もちろん、画像生成部は、OCTデータ全体に関してOCT正面画像を生成してもよい。   Note that the image generation unit may perform a segmentation process on each of the first OCT data and the second OCT data. Then, the image generation unit may generate an OCT front image for each layer extracted by the segmentation process. Accordingly, the image generation unit generates the first OCT front image and the second OCT front image related to the first layer, and the third OCT front image and the fourth OCT related to the second layer that differ from the first layer in the depth direction. A front image may be generated. Of course, the image generation unit may generate an OCT front image for the entire OCT data.

第1OCTデータおよび第2OCTデータの少なくともいずれかは、モーションコントラストデータであってもよい。モーションコントラストデータは、例えば、同一位置において取得された時間的に異なる複数のOCT信号を処理して取得される。モーションコントラストデータを取得する方法としては、例えば、Doppler, Speckle Variance, Correlation Mapping等の方法が用いられてもよい。モーションコントラストデータによって、例えば、被検体の血流情報等を取得できる。   At least one of the first OCT data and the second OCT data may be motion contrast data. The motion contrast data is obtained, for example, by processing a plurality of temporally different OCT signals obtained at the same position. As a method for acquiring motion contrast data, for example, a method such as Doppler, Speckle Variance, Correlation Mapping, or the like may be used. For example, blood flow information of the subject can be acquired by the motion contrast data.

画像生成部は、第1OCTデータおよび第2OCTデータの少なくともいずれかに基づいて、信号強度を画像化した強度正面画像を生成してもよい。この場合、画像生成部は、第1OCT正面画像および第2OCT正面画像として強度正面画像を生成してもよいし、第3OCT正面画像および第2OCT正面画像として強度正面画像を生成してもよい。   The image generation unit may generate an intensity front image obtained by imaging the signal intensity based on at least one of the first OCT data and the second OCT data. In this case, the image generation unit may generate an intensity front image as the first OCT front image and the second OCT front image, or may generate an intensity front image as the third OCT front image and the second OCT front image.

なお、OCTデバイスは、偏光感受型OCTデバイスであってもよい。この場合、第1OCTデータおよび第2OCTデータの少なくともいずれかは、偏光感受型OCTデバイスによって取得された偏光OCTデータであってもよい。例えば、偏光感受型OCTデバイスは、被検物によって反射された測定光の偏光特性を検出してもよい。   The OCT device may be a polarization-sensitive OCT device. In this case, at least one of the first OCT data and the second OCT data may be polarization OCT data acquired by a polarization sensitive OCT device. For example, the polarization-sensitive OCT device may detect the polarization characteristic of the measurement light reflected by the test object.

なお、演算制御部は、取得位置情報と、第1画像位置情報と、第2画像位置情報と、に基づいてデータ位置情報を演算してもよい。ここで、取得位置情報は、例えば、第1OCTデータおよび第2OCTデータが取得された位置を示す取得位置情報であってもよい。例えば、演算制御部は、第1OCTデータと第2OCTデータの取得位置情報をそれぞれ取得してもよい。   The calculation control unit may calculate the data position information based on the acquired position information, the first image position information, and the second image position information. Here, the acquisition position information may be, for example, acquisition position information indicating a position where the first OCT data and the second OCT data are acquired. For example, the arithmetic control unit may acquire the acquisition position information of the first OCT data and the second OCT data.

なお、演算制御部は、第1OCT正面画像を画像解析することによって第1解析情報を取得してもよい。さらに演算制御部は、第2OCT正面画像を画像解析することによって第2解析情報を取得してもよい。この場合、演算制御部は、第1解析情報と第2解析情報に基づいて第1画像位置情報を取得してもよい。なお、解析情報としては、例えば、病変部の検出情報等が挙げられる。例えば、演算制御部は、第1OCT正面画像と第2OCT正面画像のそれぞれにおいて検出された病変部の位置情報に基づいて、第1画像位置情報を取得してもよい。   Note that the arithmetic control unit may acquire the first analysis information by performing image analysis on the first OCT front image. Further, the arithmetic control unit may acquire the second analysis information by performing image analysis on the second OCT front image. In this case, the arithmetic control unit may acquire the first image position information based on the first analysis information and the second analysis information. The analysis information includes, for example, lesion detection information. For example, the arithmetic control unit may acquire the first image position information based on the position information of the lesion part detected in each of the first OCT front image and the second OCT front image.

なお、演算制御部は、1OCT正面画像および第3OCT正面画像の少なくともいずれかを画像解析することによって第1解析情報を取得してもよい。さらに、演算制御部は、第2OCT正面画像および第4OCT正面画像の少なくともいずれかを画像解析することによって第2解析情報を取得してもよい。この場合、演算制御部は、画像生成部によって生成された合成正面画像に、第1解析情報および第2解析情報の少なくともいずれかを重畳させてもよい。例えば、演算制御部は、第1解析情報と第2解析情報の少なくともいずれかが重畳された合成正面画像を表示部等に表示してもよい。なお、第1解析情報と第2解析情報の少なくともいずれかを重畳させる合成正面画像は、どのように合成された画像であってもよく、特定の手法によって合成された画像に限定されない。   The arithmetic control unit may acquire the first analysis information by performing image analysis on at least one of the 1OCT front image and the third OCT front image. Further, the arithmetic control unit may acquire the second analysis information by performing image analysis on at least one of the second OCT front image and the fourth OCT front image. In this case, the arithmetic control unit may superimpose at least one of the first analysis information and the second analysis information on the combined front image generated by the image generation unit. For example, the arithmetic control unit may display a composite front image on which at least one of the first analysis information and the second analysis information is superimposed on a display unit or the like. Note that the synthesized front image on which at least one of the first analysis information and the second analysis information is superimposed may be any synthesized image, and is not limited to an image synthesized by a specific method.

なお、OCTデータ取得部は、第1OCTデータとは取得領域の一部が重複した第2OCTデータを取得してもよい。この場合、演算制御部は、第1OCT正面画像と第2OCT正面画像との画像が重複した第1重複領域における画像の位置ずれ検出によって第1画像位置情報を取得してもよい。さらに、演算制御部は、第3OCT正面画像と第4OCT正面画像との画像が重複した第2重複領域における画像の位置ずれ検出によって第2画像位置情報を取得してもよい。   Note that the OCT data acquisition unit may acquire second OCT data in which a part of the acquisition region overlaps with the first OCT data. In this case, the arithmetic control unit may acquire the first image position information by detecting the image misalignment in the first overlapping region where the images of the first OCT front image and the second OCT front image overlap. Furthermore, the arithmetic control unit may acquire the second image position information by detecting the image displacement in the second overlapping region where the images of the third OCT front image and the fourth OCT front image overlap.

この場合、演算制御部は、例えば、第1重複領域における第1OCT正面画像と第2OCT正面画像の位置ずれを検出することによって、第1画像位置情報を取得してもよい。さらに、演算制御部は、例えば、第2重複領域における第3OCT正面画像と第4OCT正面画像の位置ずれを検出することによって、第2画像位置情報を取得してもよい。   In this case, for example, the arithmetic control unit may acquire the first image position information by detecting a positional shift between the first OCT front image and the second OCT front image in the first overlapping region. Further, the arithmetic control unit may acquire the second image position information by detecting a positional shift between the third OCT front image and the fourth OCT front image in the second overlapping region, for example.

なお、OCTデータ取得部は、第1OCTデータとは取得領域の全部が異なる第2OCTデータを少なくとも取得してもよい。この場合、演算制御部は、第1OCT正面画像の端部と第2OCT正面画像の端部の連続性に基づいて第1画像位置情報を取得してもよい。さらに、演算制御部は、第3OCT正面画像の端部と第4OCT正面画像の端部の連続性に基づいて前記第2画像位置情報を取得してもよい。   Note that the OCT data acquisition unit may acquire at least second OCT data in which the entire acquisition region is different from the first OCT data. In this case, the arithmetic control unit may acquire the first image position information based on the continuity between the end of the first OCT front image and the end of the second OCT front image. Furthermore, the arithmetic control unit may acquire the second image position information based on continuity between the end of the third OCT front image and the end of the fourth OCT front image.

なお、演算制御部は、第1画像歪み情報と第2画像歪み情報の少なくともいずれかを取得してもよい。ここで、第1画像歪み情報は、例えば、第1OCT正面画像と第2OCT正面画像の間の画像の歪みを示す情報であってもよい。また、第2画像歪み情報は、例えば、第3OCT正面画像と第4OCT正面画像の間の画像の歪みを示す情報であってもよい。   Note that the arithmetic control unit may acquire at least one of the first image distortion information and the second image distortion information. Here, the first image distortion information may be information indicating image distortion between the first OCT front image and the second OCT front image, for example. Further, the second image distortion information may be information indicating image distortion between the third OCT front image and the fourth OCT front image, for example.

なお、演算制御部は、第1画像位置情報と第2画像位置情報とを用いた統計処理によってデータ位置情報を演算してもよい。例えば、第1画像位置情報と第2画像位置情報を用いた統計処理によって演算された代表値をデータ位置情報として取得してもよい。代表値は、例えば、平均値、中央値、最頻値等であってもよい。もちろん、画像生成部によって3種類以上のOCT正面画像が生成され、3つ以上の画像位置情報が取得された場合も同様である。例えば、演算制御部は、3つ以上の画像位置情報を用いた統計処理によって演算された代表値をデータ位置情報として取得してもよい。   Note that the calculation control unit may calculate the data position information by statistical processing using the first image position information and the second image position information. For example, a representative value calculated by statistical processing using the first image position information and the second image position information may be acquired as the data position information. The representative value may be, for example, an average value, a median value, a mode value, or the like. Of course, the same applies when three or more types of OCT front images are generated by the image generation unit and three or more pieces of image position information are acquired. For example, the calculation control unit may acquire a representative value calculated by statistical processing using three or more pieces of image position information as data position information.

なお、演算制御部は、例えば、プロセッサ(例えば、CPU71)と、記憶部(例えば、ROM72)等を備えてもよい。この場合、演算制御部は記憶部に記憶されたOCT信号処理プログラムをプロセッサによって実行してもよい。例えば、OCT信号処理プログラムは、OCTデータ取得ステップと、画像生成ステップと、演算制御ステップとを含んでもよい。   Note that the arithmetic control unit may include, for example, a processor (for example, CPU 71), a storage unit (for example, ROM 72), and the like. In this case, the arithmetic control unit may execute the OCT signal processing program stored in the storage unit by the processor. For example, the OCT signal processing program may include an OCT data acquisition step, an image generation step, and an arithmetic control step.

例えば、OCTデータ取得ステップは、第1OCTデータと、第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを少なくとも取得するステップであってもよい。   For example, the OCT data acquisition step may be a step of acquiring at least second OCT data in which the first OCT data and the first OCT data are at least partially different from each other in an acquisition region.

例えば、画像生成ステップは、第1OCTデータと第2OCTデータに関して、第1の処理を行うことによって、第1OCT正面画像と第2OCT正面画像とを生成し、第2OCTデータと第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、第3OCT正面画像と第4OCT正面画像とを生成するステップであってもよい。   For example, the image generation step generates the first OCT front image and the second OCT front image by performing a first process on the first OCT data and the second OCT data, and the first OCT data and the second OCT data. It may be a step of generating a third OCT front image and a fourth OCT front image by performing a second process different from the above process.

例えば、演算制御ステップは、第1画像位置情報と第2画像位置情報とを画像解析によって取得し、第1画像位置情報と第2画像位置情報とに基づいて、データ位置情報を演算するステップであってもよい。   For example, the calculation control step is a step of acquiring the first image position information and the second image position information by image analysis, and calculating the data position information based on the first image position information and the second image position information. There may be.

<実施例>
以下、本実施例のOCT信号処理装置1について図面を用いて説明する。図1に示すOCT信号処理装置1は、例えば、OCTデバイス10によって取得されたOCT信号を処理する。
<Example>
Hereinafter, the OCT signal processing apparatus 1 of a present Example is demonstrated using drawing. The OCT signal processing apparatus 1 illustrated in FIG. 1 processes, for example, an OCT signal acquired by the OCT device 10.

例えば、OCT信号処理装置1は、制御部70を備える。例えば、制御部70は、一般的なCPU(Central Processing Unit)71、ROM72、RAM73、等で実現される。制御部70のROM72には、OCT信号を処理するためのOCT信号処理プログラム、OCT信号処理装置1と接続されたデバイス(例えば、OCTデバイス10など)の動作を制御するための各種プログラム、初期値等が記憶されている。RAM73は、各種情報を一時的に記憶する。なお、制御部70は、複数の制御部(つまり、複数のプロセッサ)によって構成されてもよい。   For example, the OCT signal processing apparatus 1 includes a control unit 70. For example, the control unit 70 is realized by a general CPU (Central Processing Unit) 71, a ROM 72, a RAM 73, and the like. The ROM 72 of the control unit 70 includes an OCT signal processing program for processing the OCT signal, various programs for controlling the operation of the device (for example, the OCT device 10) connected to the OCT signal processing apparatus 1, and initial values. Etc. are stored. The RAM 73 temporarily stores various information. The control unit 70 may be configured by a plurality of control units (that is, a plurality of processors).

制御部70には、図1に示すように、例えば、記憶部(例えば、不揮発性メモリ)74、操作部76、および表示部75等が電気的に接続されている。記憶部74は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、着脱可能なUSBメモリ等を記憶部74として使用することができる。   As shown in FIG. 1, for example, a storage unit (for example, a non-volatile memory) 74, an operation unit 76, a display unit 75, and the like are electrically connected to the control unit 70. The storage unit 74 is a non-transitory storage medium that can retain stored contents even when power supply is interrupted. For example, a hard disk drive, a flash ROM, a removable USB memory, or the like can be used as the storage unit 74.

操作部76には、検者による各種操作指示が入力される。操作部76は、入力された操作指示に応じた信号をCPU71に出力する。操作部76には、例えば、マウス、ジョイスティック、キーボード、タッチパネル等の少なくともいずれかのユーザーインターフェイスを用いればよい。   Various operation instructions by the examiner are input to the operation unit 76. The operation unit 76 outputs a signal corresponding to the input operation instruction to the CPU 71. For the operation unit 76, for example, at least one of user interfaces such as a mouse, a joystick, a keyboard, and a touch panel may be used.

表示部75は、装置本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。パーソナルコンピュータ(以下、「PC」という。)のディスプレイを用いてもよい。複数のディスプレイが併用されてもよい。また、表示部75は、タッチパネルであってもよい。表示部75がタッチパネルである場合、表示部75が操作部76として機能する。表示部75は、例えば、OCTデバイス10によって取得されたOCT信号を処理した画像データ等を表示する。   The display unit 75 may be a display mounted on the apparatus main body or a display connected to the main body. A display of a personal computer (hereinafter referred to as “PC”) may be used. A plurality of displays may be used in combination. The display unit 75 may be a touch panel. When the display unit 75 is a touch panel, the display unit 75 functions as the operation unit 76. The display unit 75 displays, for example, image data obtained by processing the OCT signal acquired by the OCT device 10.

<OCTデバイス>
以下、OCTデバイス10の概略を説明する。本実施例では、例えば、被検眼Eに測定光を照射し、その反射光と測定光とによって取得されたOCT信号を取得するOCTデバイス10を一例として説明する。例えば、OCTデバイス10は、OCT信号を取得することによって、被検眼Eの断層像を撮影する。OCTデバイス10は、例えば、OCT光学系100と、正面観察光学系200と、固視標投影ユニット300と、を主に備える。なお、本実施例においては、OCTデバイスは制御部70に接続されており、CPU71によって制御される。もちろん、OCTデバイスはCPU71とは別のCPU(不図示)を備え、OCT信号を取得するための各種制御を行ってもよい。
<OCT device>
Hereinafter, an outline of the OCT device 10 will be described. In the present embodiment, for example, an OCT device 10 that irradiates the eye E with measurement light and acquires an OCT signal acquired by the reflected light and the measurement light will be described as an example. For example, the OCT device 10 captures a tomographic image of the eye E by acquiring an OCT signal. The OCT device 10 mainly includes, for example, an OCT optical system 100, a front observation optical system 200, and a fixation target projection unit 300. In this embodiment, the OCT device is connected to the control unit 70 and is controlled by the CPU 71. Of course, the OCT device may include a CPU (not shown) different from the CPU 71 and perform various controls for obtaining the OCT signal.

OCT光学系100は、被検眼Eに測定光を照射する。OCT光学系100は、被検眼Eから反射された測定光と,参照光との干渉状態を検出器120によって検出する。OCT光学系100は、例えば、走査部(例えば、光スキャナ)108を備える。走査部108は、例えば、被検眼上の撮像位置を変更するため、被検眼上における測定光の走査位置を変更する。CPU71は、設定された走査位置情報に基づいて走査部108の動作を制御し、検出器120からの受光信号に基づいてOCT信号を取得する。   The OCT optical system 100 irradiates the eye E with measurement light. The OCT optical system 100 detects the interference state between the measurement light reflected from the eye E and the reference light by the detector 120. The OCT optical system 100 includes, for example, a scanning unit (for example, an optical scanner) 108. For example, the scanning unit 108 changes the scanning position of the measurement light on the eye to be examined in order to change the imaging position on the eye to be examined. The CPU 71 controls the operation of the scanning unit 108 based on the set scanning position information, and acquires an OCT signal based on the light reception signal from the detector 120.

<OCT光学系>
OCT光学系100は、いわゆる光断層干渉計(OCT:Optical coherence tomography)の光学系である。OCT光学系100は、測定光源102から出射された光をカップラー(光分割器)104によって測定光(試料光)と参照光に分割する。そして、OCT光学系100は、測定光学系106によって測定光を眼Eの眼底Efに導き,また、参照光を参照光学系110に導く。その後、被検眼Eによって反射された測定光と,参照光との合成による干渉光を検出器120に受光させる。
<OCT optical system>
The OCT optical system 100 is a so-called optical coherence tomography (OCT) optical system. The OCT optical system 100 splits the light emitted from the measurement light source 102 into measurement light (sample light) and reference light by a coupler (light splitter) 104. The OCT optical system 100 guides the measurement light to the fundus oculi Ef of the eye E by the measurement optical system 106 and guides the reference light to the reference optical system 110. Thereafter, the detector 120 receives interference light obtained by combining the measurement light reflected by the eye E and the reference light.

検出器120は、測定光と参照光との干渉状態を検出する。フーリエドメインOCTの場合では、干渉光のスペクトル強度が検出器120によって検出され、スペクトル強度データに対するフーリエ変換によって所定範囲における深さプロファイル(Aスキャン信号)が取得される。例えば、Spectral-domain OCT(SD−OCT)、Swept-source OCT(SS−OCT)が挙げられる。また、Time-domain OCT(TD−OCT)であってもよい。   The detector 120 detects an interference state between the measurement light and the reference light. In the case of Fourier domain OCT, the spectral intensity of the interference light is detected by the detector 120, and a depth profile (A scan signal) in a predetermined range is obtained by Fourier transform on the spectral intensity data. Examples include Spectral-domain OCT (SD-OCT) and Swept-source OCT (SS-OCT). Moreover, Time-domain OCT (TD-OCT) may be used.

SD−OCTの場合、光源102として低コヒーレント光源(広帯域光源)が用いられ、検出器120には、干渉光を各周波数成分(各波長成分)に分光する分光光学系(スペクトルメータ)が設けられる。スペクトルメータは、例えば、回折格子とラインセンサからなる。   In the case of SD-OCT, a low-coherent light source (broadband light source) is used as the light source 102, and the detector 120 is provided with a spectroscopic optical system (spectrum meter) that separates interference light into each frequency component (each wavelength component). . The spectrum meter includes, for example, a diffraction grating and a line sensor.

SS−OCTの場合、光源102として出射波長を時間的に高速で変化させる波長走査型光源(波長可変光源)が用いられ、検出器120として、例えば、単一の受光素子が設けられる。光源102は、例えば、光源、ファイバーリング共振器、及び波長選択フィルタによって構成される。そして、波長選択フィルタとして、例えば、回折格子とポリゴンミラーの組み合わせ、ファブリー・ペローエタロンを用いたものが挙げられる。   In the case of SS-OCT, a wavelength scanning light source (wavelength variable light source) that changes the emission wavelength at a high speed in time is used as the light source 102, and a single light receiving element is provided as the detector 120, for example. The light source 102 includes, for example, a light source, a fiber ring resonator, and a wavelength selection filter. Examples of the wavelength selection filter include a combination of a diffraction grating and a polygon mirror, and a filter using a Fabry-Perot etalon.

光源102から出射された光は、カップラー104によって測定光束と参照光束に分割される。そして、測定光束は、光ファイバーを通過した後、空気中へ出射される。その光束は、走査部108、及び測定光学系106の他の光学部材を介して眼底Efに集光される。そして、眼底Efで反射された光は、同様の光路を経て光ファイバーに戻される。   The light emitted from the light source 102 is split into a measurement light beam and a reference light beam by the coupler 104. Then, the measurement light flux passes through the optical fiber and is then emitted into the air. The light beam is condensed on the fundus oculi Ef via the scanning unit 108 and other optical members of the measurement optical system 106. Then, the light reflected by the fundus oculi Ef is returned to the optical fiber through a similar optical path.

走査部108は、眼底上でXY方向(横断方向)に測定光を走査させる。走査部108は、瞳孔と略共役な位置に配置される。例えば、走査部108は、2つのガルバノミラー51,52を有し、その反射角度が駆動機構50によって任意に調整される。   The scanning unit 108 scans the measurement light in the XY direction (transverse direction) on the fundus. The scanning unit 108 is disposed at a position substantially conjugate with the pupil. For example, the scanning unit 108 includes two galvanometer mirrors 51 and 52, and the reflection angle thereof is arbitrarily adjusted by the drive mechanism 50.

これによって、光源102から出射された光束はその反射(進行)方向が変化され、眼底上で任意の方向に走査される。つまり、眼底Ef上における「Bスキャン」が行われる。なお、走査部108としては、光を偏向させる構成であればよい。例えば、反射ミラー(ガルバノミラー、ポリゴンミラー、レゾナントスキャナ)の他、光の進行(偏向)方向を変化させる音響光学素子(AOM)等が用いられる。   Thereby, the reflection (advance) direction of the light beam emitted from the light source 102 is changed and scanned in an arbitrary direction on the fundus. That is, a “B scan” is performed on the fundus oculi Ef. Note that the scanning unit 108 may be configured to deflect light. For example, in addition to a reflective mirror (galvano mirror, polygon mirror, resonant scanner), an acousto-optic device (AOM) that changes the traveling (deflection) direction of light is used.

参照光学系110は、眼底Efでの測定光の反射によって取得される反射光と合成される参照光を生成する。参照光学系110は、マイケルソンタイプであってもよいし、マッハツェンダタイプであっても良い。参照光学系110は、例えば、反射光学系(例えば、参照ミラー)によって形成され、カップラー104からの光を反射光学系により反射することにより再度カップラー104に戻し、検出器120に導く。他の例としては、参照光学系110は、透過光学系(例えば、光ファイバー)によって形成され、カップラー104からの光を戻さず透過させることにより検出器120へと導く。   The reference optical system 110 generates reference light that is combined with reflected light acquired by reflection of measurement light at the fundus oculi Ef. The reference optical system 110 may be a Michelson type or a Mach-Zehnder type. The reference optical system 110 is formed by, for example, a reflection optical system (for example, a reference mirror), and reflects light from the coupler 104 back to the coupler 104 by being reflected by the reflection optical system and guides it to the detector 120. As another example, the reference optical system 110 is formed by a transmission optical system (for example, an optical fiber), and guides the light from the coupler 104 to the detector 120 by transmitting the light without returning.

参照光学系110は、参照光路中の光学部材を移動させることにより、測定光と参照光との光路長差を変更する構成を有する。例えば、参照ミラーが光軸方向に移動される。光路長差を変更するための構成は、測定光学系106の測定光路中に配置されてもよい。   The reference optical system 110 has a configuration in which the optical path length difference between the measurement light and the reference light is changed by moving an optical member in the reference optical path. For example, the reference mirror is moved in the optical axis direction. The configuration for changing the optical path length difference may be arranged in the measurement optical path of the measurement optical system 106.

<正面観察光学系>
正面観察光学系200は、眼底Efの正面画像を得るために設けられている。観察光学系200は、例えば、光源から発せられた測定光(例えば、赤外光)を眼底上で二次元的に走査させる光スキャナと、眼底と略共役位置に配置された共焦点開口を介して眼底反射光を受光する第2の受光素子と、を備え、いわゆる眼科用走査型レーザ検眼鏡(SLO)の装置構成を持つ。
<Front observation optical system>
The front observation optical system 200 is provided to obtain a front image of the fundus oculi Ef. The observation optical system 200 includes, for example, an optical scanner that two-dimensionally scans the fundus of measurement light (for example, infrared light) emitted from a light source, and a confocal aperture that is disposed at a position substantially conjugate with the fundus. And a second light receiving element for receiving the fundus reflection light, and has a so-called ophthalmic scanning laser ophthalmoscope (SLO) device configuration.

なお、観察光学系200の構成としては、いわゆる眼底カメラタイプの構成であってもよい。また、OCT光学系100は、観察光学系200を兼用してもよい。すなわち、正面画像は、二次元的に得られた断層画像を形成するデータを用いて取得されるようにしてもよい(例えば、三次元断層画像の深さ方向への積算画像、XY各位置でのスペクトルデータの積算値等)。   Note that the configuration of the observation optical system 200 may be a so-called fundus camera type configuration. The OCT optical system 100 may also serve as the observation optical system 200. That is, the front image may be acquired using data forming a tomographic image obtained two-dimensionally (for example, an integrated image in the depth direction of the three-dimensional tomographic image, at each XY position). The integrated value of the spectrum data.

<固視標投影ユニット>
固視標投影ユニット300は、眼Eの視線方向を誘導するための光学系を有する。投影ユニット300は、眼Eに呈示する固視標を有し、複数の方向に眼Eを誘導できる。
<Fixation target projection unit>
The fixation target projecting unit 300 includes an optical system for guiding the line-of-sight direction of the eye E. The projection unit 300 has a fixation target presented to the eye E, and can guide the eye E in a plurality of directions.

例えば、固視標投影ユニット300は、可視光を発する可視光源を有し、視標の呈示位置を二次元的に変更させる。これにより、視線方向が変更され、結果的に撮像部位が変更される。例えば、撮影光軸と同方向から固視標が呈示されると、眼底の中心部が撮像部位として設定される。また、撮影光軸に対して固視標が上方に呈示されると、眼底の上部が撮像部位として設定される。すなわち、撮影光軸に対する視標の位置に応じて撮影部位が変更される。   For example, the fixation target projection unit 300 has a visible light source that emits visible light, and changes the presentation position of the target two-dimensionally. Thereby, the line-of-sight direction is changed, and as a result, the imaging region is changed. For example, when the fixation target is presented from the same direction as the imaging optical axis, the center of the fundus is set as the imaging site. When the fixation target is presented upward with respect to the imaging optical axis, the upper part of the fundus is set as the imaging region. That is, the imaging region is changed according to the position of the target with respect to the imaging optical axis.

固視標投影ユニット300としては、例えば、マトリクス状に配列されたLEDの点灯位置により固視位置を調整する構成、光源からの光を光スキャナを用いて走査させ、光源の点灯制御により固視位置を調整する構成等、種々の構成が考えられる。また、投影ユニット300は、内部固視灯タイプであってもよいし、外部固視灯タイプであってもよい。   As the fixation target projection unit 300, for example, a configuration in which the fixation position is adjusted by the lighting positions of LEDs arranged in a matrix, light from a light source is scanned using an optical scanner, and fixation is performed by lighting control of the light source. Various configurations such as a configuration for adjusting the position are conceivable. The projection unit 300 may be an internal fixation lamp type or an external fixation lamp type.

<制御動作>
以上のようなOCT信号処理装置において、OCTデバイス10によって取得されたOCT信号を処理するときの制御動作を図3のフローチャートに基づいて説明する。本実施例のOCT信号処理装置1は、少なくとも2つの連続した異なる領域において取得されたOCT信号を処理する。以下の説明では、OCTデバイス10によって被検眼Eを測定し、取得されたOCT信号を処理する場合について説明する。なお、OCTデバイス10によって被検眼Eに限らず、生体の他の部位であってもよいし、物質であってもよい。
<Control action>
A control operation when processing the OCT signal acquired by the OCT device 10 in the OCT signal processing apparatus as described above will be described based on the flowchart of FIG. The OCT signal processing apparatus 1 of this embodiment processes OCT signals acquired in at least two consecutive different regions. In the following description, a case where the eye E is measured by the OCT device 10 and the acquired OCT signal is processed will be described. The OCT device 10 is not limited to the eye E, and may be another part of the living body or a substance.

<OCT信号の取得>
まず、OCTデバイス10によってOCT信号が検出される。例えば、CPU71は、固視標投影ユニット300を制御して被検者に固視標を投影する。そして、CPU71は、図示無き前眼部観察用カメラで撮影される前眼部観察像に基づいて、被検眼Eの瞳孔中心に測定光軸がくるように図示無き駆動部を制御して自動でアライメントを行う。
<OCT signal acquisition>
First, an OCT signal is detected by the OCT device 10. For example, the CPU 71 controls the fixation target projection unit 300 to project the fixation target onto the subject. Then, the CPU 71 automatically controls the drive unit (not shown) so that the measurement optical axis comes to the center of the pupil of the eye E based on the anterior eye observation image captured by the anterior eye observation camera (not shown). Align.

アライメント完了すると、CPU71はOCTデバイス10を制御し、被検眼Eの測定を行う。CPU71は、走査部108によって被検眼上に測定光を走査させ、眼底EfのOCT信号を取得する。例えば、CPU71は、眼底Ef上の少なくとも2つの連続した領域において測定光を走査させ、領域ごとにOCT信号を取得する。例えば、図4(a)に示すように、OCTデバイス10は、眼底Efの一つの部位である領域A1と、領域A1とは異なる部位である領域A2においてOCT信号を取得してもよい。なお、領域A1と領域A2は、一部が重なった領域であってもよいし、重ならずに連続した領域であってもよい。また、OCTデバイス10は、2つの領域に限らず、さらに複数の領域においてOCT信号を取得してもよい。   When the alignment is completed, the CPU 71 controls the OCT device 10 and measures the eye E to be examined. The CPU 71 scans the eye under measurement with the scanning unit 108 and acquires an OCT signal of the fundus oculi Ef. For example, the CPU 71 scans the measurement light in at least two continuous regions on the fundus oculi Ef, and acquires an OCT signal for each region. For example, as illustrated in FIG. 4A, the OCT device 10 may acquire an OCT signal in a region A1 that is one part of the fundus oculi Ef and a region A2 that is a part different from the region A1. Note that the area A1 and the area A2 may be partially overlapped or may be continuous without overlapping. In addition, the OCT device 10 may acquire OCT signals in a plurality of regions, not limited to two regions.

(ステップS1)
まず、CPU71はOCTデバイス10を制御し、領域A1において測定光を走査し、領域A1のOCT信号を取得する。例えば、CPU71は、走査部108の駆動を制御し、領域A1で測定光を走査させる。このとき、例えば、図4(b)に示す走査ラインSL1,SL2,・・・,SLnに沿ってx方向に測定光を走査させる。なお、測定光の光軸方向に交差する方向(例えば、x方向)に測定光を走査させることを「Bスキャン」と呼ぶ。そして、1回のBスキャンによって得られたOCT信号を1フレームのOCT信号として説明する。CPU71は、測定光を走査する間、検出器120によって検出されたOCT信号を取得する。CPU71は、領域A1において取得されたOCT信号の情報をOCTデータD1として取得し、記憶部74に記憶させる。
(Step S1)
First, the CPU 71 controls the OCT device 10, scans the measurement light in the area A1, and acquires the OCT signal of the area A1. For example, the CPU 71 controls driving of the scanning unit 108 and scans the measurement light in the area A1. At this time, for example, the measurement light is scanned in the x direction along the scanning lines SL1, SL2,..., SLn shown in FIG. Note that scanning the measurement light in a direction intersecting the optical axis direction of the measurement light (for example, the x direction) is referred to as “B scan”. The OCT signal obtained by one B scan will be described as one frame OCT signal. The CPU 71 acquires the OCT signal detected by the detector 120 while scanning the measurement light. The CPU 71 acquires information on the OCT signal acquired in the area A1 as OCT data D1, and stores it in the storage unit 74.

(ステップS2)
領域A1におけるOCT信号の取得が完了すると、CPU71は、領域A2におけるOCT信号の取得を開始する。例えば、CPU71は、領域A1と同様に、領域A2において測定光を走査し、領域A2のOCT信号を取得する(図4(b)参照)。そして、CPU71は、領域A2において取得されたOCT信号の情報をOCTデータD2として取得し、記憶部74に記憶させる。
(Step S2)
When the acquisition of the OCT signal in the area A1 is completed, the CPU 71 starts acquiring the OCT signal in the area A2. For example, the CPU 71 scans the measurement light in the area A2 and acquires the OCT signal of the area A2 as in the area A1 (see FIG. 4B). Then, the CPU 71 acquires information on the OCT signal acquired in the area A2 as OCT data D2, and stores it in the storage unit 74.

なお、CPU71は、OCTデータとして取得するOCT信号には、機能OCT信号が含まれてもよい。機能OCT信号は、例えば、血流、物体の動き、または変化などを捉えたモーションコントラストを取得するためのOCT信号である。例えば、機能OCT信号は、被検眼上の同一位置に関して時間的に異なる少なくとも2つのOCT信号であってもよい。以下の説明では、眼底Efの領域A1および領域A2において機能OCT信号を取得した場合について説明する。なお、機能OCT信号およびモーションコントラストの取得についての詳細は後述する。   Note that the CPU 71 may include a functional OCT signal in the OCT signal acquired as OCT data. The functional OCT signal is an OCT signal for acquiring a motion contrast that captures, for example, blood flow, movement of an object, or change. For example, the functional OCT signal may be at least two OCT signals that are temporally different with respect to the same position on the eye to be examined. In the following description, a case where functional OCT signals are acquired in the regions A1 and A2 of the fundus oculi Ef will be described. The details of acquiring the function OCT signal and motion contrast will be described later.

(ステップ3)
次いで、CPU71は、領域A1,A2によって取得されたOCTデータD1,D2について、複数種類の正面画像をそれぞれ生成する。ここで、正面画像とは、生体組織の少なくとも一部を測定光の光軸方向(例えば、z方向)から見たときの画像(いわゆる、En face画像)であってもよく、被検眼Eの断面方向とは垂直な方向の画像であってもよい。
(Step 3)
Next, the CPU 71 generates a plurality of types of front images for the OCT data D1 and D2 acquired by the areas A1 and A2. Here, the front image may be an image when the at least part of the living tissue is viewed from the optical axis direction (for example, the z direction) of the measurement light (so-called “En face image”). An image in a direction perpendicular to the cross-sectional direction may be used.

図5の例では、z方向において異なる領域で生成された2種類の正面画像がそれぞれ生成される。つまり、OCTデータD1に基づいて、第1の深さ領域における正面画像Pn1と、第2の深さ領域における正面画像Pn2が2種類の正面画像として生成される。そして、OCTデータD2に基づいて、第1の深さ領域における正面画像Pn3と、第2の深さ領域における正面画像Pn4が2種類の正面画像として生成される。もちろん、CPU71は、3種類以上の正面画像を生成してもよい。
なお、OCTデータから正面画像を生成する方法としては、例えば、深さ方向の少なくとも一部の領域に関してOCTデータを取り出す方法などが挙げられる。この場合、例えば、少なくとも一部の深さ領域に関して取り出されたOCTデータの輝度値を用いて正面画像が生成されてもよい。
In the example of FIG. 5, two types of front images generated in different areas in the z direction are generated. That is, based on the OCT data D1, the front image Pn1 in the first depth region and the front image Pn2 in the second depth region are generated as two types of front images. Then, based on the OCT data D2, a front image Pn3 in the first depth region and a front image Pn4 in the second depth region are generated as two types of front images. Of course, the CPU 71 may generate three or more types of front images.
As a method for generating a front image from OCT data, for example, a method of extracting OCT data for at least a partial region in the depth direction can be cited. In this case, for example, the front image may be generated using the luminance value of the OCT data extracted for at least a part of the depth region.

ここで、前述の第1の深さ領域、第2の深さ領域のように、眼底Efの領域を深さ方向に分離する方法としては、例えば、OCT信号に基づく断層画像から被検眼Eの網膜層の境界を検出する方法が挙げられる。例えば、CPU71は、OCT信号の強度に応じて輝度値が決定された強度画像のエッジ検出によって被検眼Eの網膜層の境界を検出してもよい。例えば、CPU71は、被検眼Eの強度画像に基づいて神経線維層(nerve fiber layer: NFL)、神経節細胞層(ganglion cell layer: GCL)、網膜色素上皮(retinal pigment epithelium: RPE)等に被検眼Eの網膜層を分離してもよい。   Here, as a method of separating the region of the fundus oculi Ef in the depth direction, such as the first depth region and the second depth region described above, for example, a tomographic image based on an OCT signal can be used. A method for detecting the boundary of the retinal layer can be mentioned. For example, the CPU 71 may detect the boundary of the retinal layer of the eye E by detecting the edge of the intensity image whose luminance value is determined according to the intensity of the OCT signal. For example, the CPU 71 applies a nerve fiber layer (NFL), a ganglion cell layer (GCL), a retinal pigment epithelium (RPE), or the like based on the intensity image of the eye E to be examined. The retinal layer of the optometry E may be separated.

また、CPU71は、網膜の血管が網膜層の境界に多く存在することから、網膜層の境界の検出結果に基づいて血管が多く分布する領域を分離してもよい。もちろん、CPU71は、モーションコントラスト画像から検出された血管の分布に基づいて血管の分布領域を分離してもよい。例えば、CPU71は、血管の分布に基づいて、表層、中間層、深層等に網膜の領域を分離してもよい。   Further, since there are many retinal blood vessels at the boundary of the retinal layer, the CPU 71 may separate a region where many blood vessels are distributed based on the detection result of the retinal layer boundary. Of course, the CPU 71 may separate the blood vessel distribution region based on the blood vessel distribution detected from the motion contrast image. For example, the CPU 71 may separate the retina region into a surface layer, an intermediate layer, a deep layer, and the like based on the distribution of blood vessels.

CPU71は、分離された少なくともいずれかの深さ領域において正面画像を生成してもよい。もちろん、複数の深さ領域についてまとめて演算を行うことで正面画像を生成してもよい。この場合、複数の深さ領域は隣り合う領域でなくともよく、離れた位置にある領域であってもよい。   The CPU 71 may generate a front image in at least one of the separated depth regions. Of course, the front image may be generated by performing a calculation for a plurality of depth regions. In this case, the plurality of depth regions do not have to be adjacent regions, but may be regions that are located apart from each other.

(ステップS4)
次に、CPU71は、同種の正面画像ごとに相対的な画像の位置を示す画像位置情報を検出する。上記の例において、CPU71は、第1の深さ領域において生成された正面画像Pn1と正面画像Pn3の画像位置情報J1と、第2の深さ領域において生成された正面画像Pn2と正面画像Pn4の画像位置情報J2を検出する。
なお、画像位置情報は、各画像の位置合わせを行うことによって検出してもよい。例えば、正面画像Pn1を基準画像、正面画像Pn3を参照画像として画像の位置合わせを行い、基準画像に対する参照画像のx方向およびy方向へのピクセルのずれ量を画像位置情報として検出してもよい。
(Step S4)
Next, the CPU 71 detects image position information indicating a relative image position for each front image of the same type. In the above example, the CPU 71 includes the image position information J1 of the front image Pn1 and the front image Pn3 generated in the first depth region, and the front image Pn2 and the front image Pn4 generated in the second depth region. Image position information J2 is detected.
The image position information may be detected by aligning each image. For example, image alignment may be performed using the front image Pn1 as a standard image and the front image Pn3 as a reference image, and pixel shift amounts in the x and y directions of the reference image with respect to the standard image may be detected as image position information. .

<画像の位置合わせ方法>
なお、画像の位置合わせ方法は、例えば、位相限定相関法、各種相関関数を用いる方法、フーリエ変換を利用する方法、特徴点のマッチングに基づく方法、アフィン変換、歪み補正を含む位置合わせ方法(例えば、非剛性レジストレーションなど)など種々の画像処理手法が用いられてもよい。
<Image alignment method>
Note that image alignment methods include, for example, a phase-only correlation method, a method using various correlation functions, a method using Fourier transform, a method based on feature point matching, an alignment method including affine transformation, and distortion correction (for example, Various image processing techniques such as non-rigid registration, etc.) may be used.

例えば、CPU71は、基準画像と参照画像を1画素ずつ位置ずれさせ、両画像が最も一致する(相関が最も高くなる)ように画像の位置合わせを行ってもよい。そして、CPU71は、両画像間の位置ずれ方向及び位置ずれ量を検出してもよい。また、所定の基準画像及び参照画像から共通する特徴点を抽出し、抽出された特徴点の位置ずれ方向及び位置ずれ量を検出してもよい。   For example, the CPU 71 may shift the positions of the base image and the reference image one pixel at a time, and perform image alignment so that the two images are the best matched (the correlation is the highest). Then, the CPU 71 may detect a position shift direction and a position shift amount between both images. Further, a common feature point may be extracted from a predetermined standard image and reference image, and a position shift direction and a position shift amount of the extracted feature point may be detected.

なお、アフィン変換、非剛性レジストレーション等の画像変換を行った場合、CPU71は画像変換に関する数値、または行列式などを画像位置情報として取得してもよい。   When image conversion such as affine conversion or non-rigid registration is performed, the CPU 71 may acquire a numerical value related to image conversion, a determinant, or the like as image position information.

なお、正面画像の位置合わせにおいて、各OCTデータD1,D2の取得領域A1,A2の位置情報が用いられてもよい。例えば、取得領域A1,A2の位置情報に基づいて、各正面画像の位置をある程度特定した状態で画像処理することによって位置合わせを行ってもよい。この場合、CPU71は、各OCTデータD1,D2を取得した際の測定光の走査位置、および被検眼Eに呈示する固視標の固視位置等の情報に基づいて取得領域A1,A2の位置情報を求めてもよい。このように、各OCTデータD1,D2の取得領域A1,A2の位置情報を用いることによって、画像の位置合わせの処理速度を速くしてもよい。   Note that, in the alignment of the front image, the position information of the acquisition areas A1 and A2 of the respective OCT data D1 and D2 may be used. For example, alignment may be performed by performing image processing in a state where the positions of the front images are specified to some extent based on the position information of the acquisition areas A1 and A2. In this case, the CPU 71 determines the positions of the acquisition regions A1 and A2 based on information such as the scanning position of the measurement light when the OCT data D1 and D2 are acquired and the fixation position of the fixation target presented to the eye E. You may ask for information. In this way, the processing speed of image alignment may be increased by using the position information of the acquisition areas A1 and A2 of the OCT data D1 and D2.

(ステップS5)
画像の種類ごとに画像位置情報が取得されると、CPU71は、取得された画像位置情報J1,J2に基づいて、OCTデータD1,D2の相対的な位置情報を示すデータ位置情報J0を取得する。例えば、画像位置情報J1,J2を用いた演算によってデータ位置情報J0を取得してもよい。
(Step S5)
When image position information is acquired for each type of image, the CPU 71 acquires data position information J0 indicating relative position information of the OCT data D1 and D2 based on the acquired image position information J1 and J2. . For example, the data position information J0 may be acquired by calculation using the image position information J1 and J2.

例えば、CPU71は、画像位置情報J1,J2を用いた統計処理によって、データ位置情報J0を取得してもよい。統計処理としては、例えば、平均値の算出、中央値の算出などが挙げられる。例えば、画像のx方向のずれ量とy方向のずれ量を(x,y)で示すとする。例えば、画像位置情報J1が(6,3)、画像位置情報J2が(2,1)であった場合、各画像位置情報J1,J2の平均値を算出すると、データ位置情報J0は(4,2)となる。   For example, the CPU 71 may acquire the data position information J0 by statistical processing using the image position information J1 and J2. Examples of the statistical processing include calculation of an average value and calculation of a median value. For example, it is assumed that the amount of deviation in the x direction and the amount of deviation in the y direction of an image are indicated by (x, y). For example, when the image position information J1 is (6, 3) and the image position information J2 is (2, 1), the average value of the image position information J1, J2 is calculated. 2).

なお、CPU71は、各OCTデータD1,D2から取得した3種類以上の正面画像から3つ以上の画像値情報を取得した場合は、それらの中央値をデータ位置情報J0として求めてもよい。例えば、画像位置情報を数値の大きさの順番に並べたときに中央に位置する値をデータ位置情報J0として取得してもよい。このように、中央値を用いることによって、複数の画像位置情報の中に外れ値(他の値から大きく外れた値)が存在する場合であっても、適正なデータ位置情報J0を取得できる。   Note that, when the CPU 71 acquires three or more pieces of image value information from three or more types of front images acquired from the respective OCT data D1 and D2, the CPU 71 may obtain the median value as the data position information J0. For example, a value located at the center when the image position information is arranged in the order of numerical values may be acquired as the data position information J0. As described above, by using the median value, it is possible to obtain appropriate data position information J0 even when there is an outlier (a value greatly deviating from other values) in the plurality of pieces of image position information.

このように、CPU71は、各画像位置情報J1,J2を用いた統計処理を行うことによって、外れ値を除去してもよい。これによって、CPU71は、より確からしいデータ位置情報J0を取得してもよい。   As described above, the CPU 71 may remove outliers by performing statistical processing using the image position information J1 and J2. As a result, the CPU 71 may acquire more likely data position information J0.

なお、3種類以上の正面画像を生成した場合も同様に、各種の画像から取得された3つ以上の画像位置情報を用いて演算を行い、データ位置情報J0を取得してもよい。   Similarly, when three or more types of front images are generated, data position information J0 may be acquired by performing calculation using three or more pieces of image position information acquired from various images.

(ステップS6)
CPU71は、ステップS5において取得したデータ位置情報J0を用いて、OCTデータD1,D2の位置合わせを行う。この場合、OCTデータの全体の位置合わせを行ってもよい。ただしこれに限定されず、例えば、第1の深さ領域において、OCTデータD1,D2のそれぞれに基づいて生成された正面画像を、データ位置情報J0にしたがって位置合わせしてもよい。さらに、第2の深さ領域において、OCTデータD1,D2のそれぞれに基づいて生成された正面画像を、データ位置情報J0に従って位置合わせしてもよい。もちろん、CPU71は、第1および第2の深さ領域以外の深さ領域において生成された正面画像の位置合わせにデータ位置情報J0を用いてもよい(図6参照)。
(Step S6)
The CPU 71 aligns the OCT data D1 and D2 using the data position information J0 acquired in step S5. In this case, the entire OCT data may be aligned. However, the present invention is not limited to this. For example, in the first depth region, the front image generated based on each of the OCT data D1 and D2 may be aligned according to the data position information J0. Furthermore, in the second depth region, the front image generated based on each of the OCT data D1 and D2 may be aligned according to the data position information J0. Of course, the CPU 71 may use the data position information J0 for alignment of the front image generated in the depth region other than the first and second depth regions (see FIG. 6).

以上のように、2種類以上の正面画像から得られた複数の画像位置情報に基づいて、OCTデータ間の相対的な位置を示すデータ位置情報を取得することによって、正面画像の位置合わせをより正確に行うことができる。   As described above, by acquiring data position information indicating a relative position between OCT data based on a plurality of pieces of image position information obtained from two or more types of front images, the front image is more aligned. Can be done accurately.

例えば、第1の深さ領域において生成された正面画像Pn1と正面画像Pn3において、一方の画像の第1の深さ領域が上手く分離されなかった場合、正面画像Pn1と正面画像Pn3の画像処理による位置合わせに影響が出る可能性があった。しかしながら、複数種類の正面画像を位置合わせして得られた画像位置情報から、OCTデータ間のデータ位置情報を取得することによって、ある深さ領域の分離が上手くいかなかった場合でも、良好な合成画像を取得できる。   For example, in the front image Pn1 and the front image Pn3 generated in the first depth region, when the first depth region of one image is not well separated, the image processing of the front image Pn1 and the front image Pn3 is performed. The alignment could be affected. However, even if the separation of a certain depth region is not successful by obtaining data position information between OCT data from image position information obtained by aligning a plurality of types of front images, good composition Images can be acquired.

さらに、データ位置情報J0の取得には用いなかった種類の正面画像を位置合わせする場合(例えば、図6の合成画像Pw3)、データ位置情報J0を用いれば、わざわざ画像の位置合わせ処理をすることがないため、画像を合成するときの処理速度を速くすることができる。   Furthermore, when aligning a front image of a type that was not used for obtaining the data position information J0 (for example, the composite image Pw3 in FIG. 6), if the data position information J0 is used, the image alignment process is performed. Therefore, the processing speed when compositing images can be increased.

なお、CPU71は、OCTデバイス10によって取得されたOCTデータD1,D2のそれぞれに基づいて生成された画像について、画像解析を行ってもよい。例えば、CPU71は、OCTデータD1に基づく画像Pn2を解析処理することによって、被検眼Eの病変部B1,B2を検出してもよい(図7参照)。同様に、CPU71は、OCTデータD2に基づく画像Pn4を解析処理することによって、被検眼Eの病変部B3を検出してもよい。病変部の検出方法としては、例えば、画像の輝度が低い領域を検出することによって、血流の滞った箇所または存在しない箇所等を検出してもよい。   Note that the CPU 71 may perform image analysis on an image generated based on each of the OCT data D1 and D2 acquired by the OCT device 10. For example, the CPU 71 may detect the lesioned parts B1 and B2 of the eye E by analyzing the image Pn2 based on the OCT data D1 (see FIG. 7). Similarly, the CPU 71 may detect the lesioned part B3 of the eye E by analyzing the image Pn4 based on the OCT data D2. As a method for detecting a lesioned part, for example, a part where blood flow is stagnant or a part where it does not exist may be detected by detecting a region where the luminance of the image is low.

そして、CPU71は、検出した病変部を合成後の合成画像に反映させてもよい。例えば、正面画像Pn2において検出された病変部B1を、合成後の合成画像Pw2に反映させてもよい。これによって、検者は、合成画像Pw2における病変部B1の位置を把握しやすい。   Then, the CPU 71 may reflect the detected lesioned part in the synthesized image after synthesis. For example, the lesioned part B1 detected in the front image Pn2 may be reflected in the synthesized image Pw2 after synthesis. Thus, the examiner can easily grasp the position of the lesioned part B1 in the composite image Pw2.

さらに、CPU71は、OCTデータD1,D2においてそれぞれ検出された同一の病変部を、正面画像の合成時の位置合わせに用いてもよい。例えば、図7において、CPU71は、OCTデータD1に基づく正面画像Pn2から検出した病変部B2と、OCTデータD2に基づく正面画像Pn4から検出した病変部B3とが重なるように、正面画像Pn2と正面画像Pn4の画像位置情報J2を取得してもよい。このように、各種類の正面画像の画像位置情報を取得するときに、画像の解析情報を用いてもよい。これによって、CPU71は、各種類の正面画像の位置合わせをより正確に行える。   Further, the CPU 71 may use the same lesion portion detected in each of the OCT data D1 and D2 for alignment when synthesizing the front image. For example, in FIG. 7, the CPU 71 causes the front image Pn2 and the front surface Pn2 to overlap with the lesioned part B2 detected from the front image Pn2 based on the OCT data D1 and the lesioned part B3 detected from the front image Pn4 based on the OCT data D2. The image position information J2 of the image Pn4 may be acquired. As described above, the image analysis information may be used when acquiring the image position information of each type of front image. Thus, the CPU 71 can more accurately align each type of front image.

なお、図8(a)に示すように、OCT信号を取得する領域A3,A4に重なりがない場合は、各領域において取得されたOCTデータの正面画像Pn5,Pn6の連続性が尤もらしくなるように、正面画像の画像位置情報を取得してもよい。例えば、図8(b)に示すように、正面画像Pn5および正面画像Pn6に写った特徴領域(例えば、血管部など)を検出し、正面画像間で特徴領域の連続性が保たれるように、画像位置情報を取得してもよい。   As shown in FIG. 8A, when there is no overlap between the areas A3 and A4 from which the OCT signals are acquired, the continuity of the front images Pn5 and Pn6 of the OCT data acquired in each area is likely to occur. Alternatively, the image position information of the front image may be acquired. For example, as shown in FIG. 8B, feature regions (for example, blood vessel portions) shown in the front image Pn5 and the front image Pn6 are detected so that the continuity of the feature regions is maintained between the front images. Image position information may be acquired.

なお、CPU71は、例えば、正面画像の歪みを補正してもよい。例えば、図9に示すように、OCTデータD1に基づく正面画像Pn7と、OCTデータD2に基づく正面画像Pn8の少なくとも一方の画像が歪んでいる場合を示す。この場合、正面画像Pn7と正面画像Pn8に写った特徴領域(例えば、血管部など)が合わず、位置合わせが困難である。このような場合、CPU71は、正面画像Pn7および正面画像Pn8を非剛性レジストレーションによって合成してもよい。そして、CPU71は、非剛性レジストレーションの結果を画像位置情報として取得してもよい。これによって、複数のOCTデータの少なくとも一部に歪みが生じている場合でも、OCTデータ間の位置合わせを好適に行える。   Note that the CPU 71 may correct, for example, distortion of the front image. For example, as shown in FIG. 9, a case where at least one of the front image Pn7 based on the OCT data D1 and the front image Pn8 based on the OCT data D2 is distorted is shown. In this case, feature regions (for example, blood vessel portions) appearing in the front image Pn7 and the front image Pn8 do not match, and alignment is difficult. In such a case, the CPU 71 may combine the front image Pn7 and the front image Pn8 by non-rigid registration. Then, the CPU 71 may acquire the result of non-rigid registration as image position information. Thereby, even when distortion occurs in at least a part of the plurality of OCT data, the alignment between the OCT data can be suitably performed.

<モーションコントラストについて>
以下、モーションコントラストの取得について説明する。例えば、本実施例のOCT信号処理装置1は、機能OCT信号に基づいてモーションコントラストを取得する。例えば、CPU71は、各走査ラインにおいて時間間隔を空けて複数回のBスキャンを行い、時間の異なる複数のOCT信号を機能OCT信号として取得してもよい。例えば図10に示すように、CPU71は、ある時間において1回目のBスキャンを行った後、所定時間経過してから1回目と同じ走査ラインで2回目のBスキャンを行う。CPU71は、このときに検出器120によって検出されたOCT信号を取得することによって、時間の異なる複数のOCT信号を取得してもよい。
<About motion contrast>
Hereinafter, acquisition of motion contrast will be described. For example, the OCT signal processing apparatus 1 according to the present embodiment acquires motion contrast based on the function OCT signal. For example, the CPU 71 may perform a plurality of B scans with a time interval in each scanning line, and obtain a plurality of OCT signals having different times as function OCT signals. For example, as shown in FIG. 10, the CPU 71 performs the second B scan on the same scanning line as the first after a predetermined time has elapsed after performing the first B scan at a certain time. The CPU 71 may acquire a plurality of OCT signals having different times by acquiring the OCT signals detected by the detector 120 at this time.

例えば、図10は、走査ラインSL1,SL2,・・・,SLnにおいて時間の異なる複数回のBスキャンを行った場合を示している。例えば、図10は、走査ラインSL1を時間T11,T12,・・・,T1Nで走査し、走査ラインSL2を時間T21,T22,・・・,T2Nで走査し、走査ラインSLnを時間Tn1,Tn2,・・・,TnNで走査した場合を示している。なお、図10において、z軸の方向は、測定光の光軸の方向とする。x軸の方向は、z軸に垂直であって被検者の左右方向とする。y軸の方向は、z軸に垂直であって被検者の上下方向とする。   For example, FIG. 10 shows a case where a plurality of B scans with different times are performed on the scan lines SL1, SL2,..., SLn. For example, FIG. 10 scans the scan line SL1 at times T11, T12,..., T1N, scans the scan line SL2 at times T21, T22,..., T2N, and scans the scan line SLn at times Tn1, Tn2. ..., TnN. In FIG. 10, the direction of the z axis is the direction of the optical axis of the measurement light. The x-axis direction is perpendicular to the z-axis and is the left-right direction of the subject. The y-axis direction is perpendicular to the z-axis and is the vertical direction of the subject.

例えば、CPU71は、走査ラインSL1と同様に各走査ラインにおいて時間の異なる複数回のBスキャンを行うことによって、時間の異なる複数のOCT信号を取得してもよい。なお、CPU71は、同じ位置での走査をN(2以上の自然数)回繰り返し、時間の異なるNフレームのOCT信号を取得してもよい。このようにして、CPU71は、時間の異なる2フレーム以上のOCT信号を取得してもよい。   For example, the CPU 71 may acquire a plurality of OCT signals having different times by performing a plurality of B scans having different times in each scanning line in the same manner as the scanning line SL1. Note that the CPU 71 may acquire N frames of OCT signals at different times by repeating scanning at the same position N (natural number of 2 or more) times. In this way, the CPU 71 may acquire OCT signals of two or more frames having different times.

<モーションコントラストの演算>
次に、機能OCT信号に基づいてモーションコントラストを取得するための処理について説明する。CPU71は、上記のようにしてOCTデバイス10から取得された複数のOCT信号を、記憶部74に記憶する。そしてCPU71は、記憶部74に記憶された複数のOCT信号を処理し、複素OCT信号を取得する。例えば、CPU71はOCT信号をフーリエ変換する。例えば、Nフレーム中n枚目の(x,z)の位置の信号をAn(x,z)で表すと、CPU71は、フーリエ変換によって複素OCT信号An(x,z)を得る。複素OCT信号An(x,z)は、実数成分と虚数成分とを含む。
<Calculation of motion contrast>
Next, processing for acquiring motion contrast based on the function OCT signal will be described. The CPU 71 stores a plurality of OCT signals acquired from the OCT device 10 as described above in the storage unit 74. Then, the CPU 71 processes a plurality of OCT signals stored in the storage unit 74 and acquires a complex OCT signal. For example, the CPU 71 performs a Fourier transform on the OCT signal. For example, if the signal at the nth (x, z) position in the N frame is represented by An (x, z), the CPU 71 obtains a complex OCT signal An (x, z) by Fourier transform. The complex OCT signal An (x, z) includes a real component and an imaginary component.

そして、CPU71は、取得された複素OCT信号を処理し、モーションコントラストを取得してもよい。複素OCT信号を処理する方法としては、例えば、複素OCT信号の強度差を算出する方法、複素OCT信号の位相差を算出する方法、複素OCT信号のベクトル差分を算出する方法、複素OCT信号の位相差及びベクトル差分を掛け合わせる方法、信号の相関を用いる方法(コリレーションマッピング)を用いる方法などが考えられる。本実施例では、位相差を算出する方法を例に説明する。   And CPU71 may process the acquired complex OCT signal and may acquire motion contrast. As a method of processing the complex OCT signal, for example, a method of calculating an intensity difference of the complex OCT signal, a method of calculating a phase difference of the complex OCT signal, a method of calculating a vector difference of the complex OCT signal, a level of the complex OCT signal, and the like. A method of multiplying the phase difference and the vector difference, a method of using signal correlation (correlation mapping), and the like are conceivable. In this embodiment, a method for calculating a phase difference will be described as an example.

まず、CPU71は、同じ位置の少なくとも2つの異なる時間に取得された複素OCT信号A(x,z)に対して位相差を算出する。CPU71は、例えば、下記の式(1)を用いて、位相の変化を算出する。本実施例では、例えば、N回にわたって異なる時間の測定を行った場合、T1とT2,T2とT3,・・・,T(N−1)とTNの計(N−1)回の計算が行われ、(N−1)個のデータが算出される(例えば、図3参照)。もちろん、時間の組み合わせは上記に限らず、異なる時間であれば組み合わせを変更してもよい。なお、数式中のAnは時間TNに取得された信号を示し、*は複素共役を示している。   First, the CPU 71 calculates a phase difference with respect to the complex OCT signal A (x, z) acquired at least at two different times at the same position. The CPU 71 calculates the change in phase using, for example, the following equation (1). In this embodiment, for example, when different times are measured N times, T1 and T2, T2 and T3,..., T (N-1) and TN are calculated (N-1) times. (N-1) pieces of data are calculated (see, for example, FIG. 3). Of course, the combination of time is not limited to the above, and the combination may be changed as long as the time is different. Note that An in the equation indicates a signal acquired at time TN, and * indicates a complex conjugate.

Figure 0006471593
Figure 0006471593

以上のように、CPU71は複素OCT信号の位相差に関する深さ方向(Aスキャン方向)の位相差プロファイルを取得する。CPU71は、例えば、この位相差プロファイルの大きさに応じて輝度の大きさが決定された輝度プロファイルを取得し、これをBスキャン方向に並べたモーションコントラスト画像を取得してもよい。この場合、CPU71は、時間の異なる同一位置の複数の複素OCT信号の位相差に基づいて取得されたモーションコントラスト画像データを記憶部74に記憶させる。   As described above, the CPU 71 acquires the phase difference profile in the depth direction (A scan direction) related to the phase difference of the complex OCT signal. For example, the CPU 71 may acquire a luminance profile whose luminance is determined according to the size of the phase difference profile, and may acquire a motion contrast image in which the luminance profiles are arranged in the B-scan direction. In this case, the CPU 71 causes the storage unit 74 to store motion contrast image data acquired based on the phase differences of a plurality of complex OCT signals at the same position at different times.

なお、以上の実施例において、OCT信号処理装置1は、機能OCT信号をOCTデータとして取得し、被検眼のモーションコントラストに基づく正面画像を生成する場合について説明したが、これに限らない。例えば、OCT信号処理装置1は、各走査ラインにおいて1回のBスキャンによって取得された単独のOCT信号の強度に基づく正面画像を生成してもよい。この場合、画像位置情報を取得するための正面画像の種類として、強度に基づく正面画像を含んでもよい。すなわち、CPU71は、OCTデータD1に基づく強度の正面画像と、OCTデータD2に基づく強度の正面画像との画像位置情報を取得してよい。   In the above embodiment, the OCT signal processing apparatus 1 has acquired the functional OCT signal as OCT data and generates a front image based on the motion contrast of the eye to be examined. However, the present invention is not limited to this. For example, the OCT signal processing apparatus 1 may generate a front image based on the intensity of a single OCT signal acquired by one B scan in each scan line. In this case, the type of the front image for acquiring the image position information may include a front image based on intensity. That is, the CPU 71 may acquire image position information of the intensity front image based on the OCT data D1 and the intensity front image based on the OCT data D2.

10 OCTデバイス
70 制御部
71 CPU
72 ROM
73 RAM
74 メモリ
75 モニタ
76 操作部
100 OCT光学系
108 走査部
200 正面観察光学系
300 固視標投影ユニット
10 OCT device 70 Control unit 71 CPU
72 ROM
73 RAM
74 Memory 75 Monitor 76 Operation Unit 100 OCT Optical System 108 Scanning Unit 200 Front Observation Optical System 300 Fixation Target Projection Unit

Claims (5)

第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータとを取得するOCTデータ取得手段と、
前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、
前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成手段と、
前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御手段と、を備えることを特徴とするOCT信号処理装置。
OCT data acquisition means for acquiring first OCT data and second OCT data in which at least a part of an acquisition area differs from the first OCT data;
By performing a first process on the first OCT data and the second OCT data, a first OCT front image based on the first OCT data and a second OCT front image based on the second OCT data are generated,
By performing a second process different from the first process on the first OCT data and the second OCT data, a third OCT front image based on the first OCT data, a fourth OCT front image based on the second OCT data, and Image generating means for generating
Wherein the first image position information first 1OCT a relative position information of the front image and the second 2OCT front image, the second image is the relative position information between the first 4OCT front image and the second 3OCT front image Position information is acquired by image analysis, and based on the acquired first image position information and second image position information, relative position information between the first OCT data and the second OCT data. An OCT signal processing apparatus comprising: an arithmetic control unit that calculates data position information.
前記画像生成手段は、前記演算制御手段によって演算された前記データ位置情報に基づいて、前記第1OCTデータを処理して生成されたOCT正面画像と、前記第2OCTデータを処理して生成されたOCT正面画像とを位置合わせすることによって、複数のOCT正面画像を合成した合成正面画像を生成することを特徴とする請求項1のOCT信号処理装置。   The image generation means is an OCT front image generated by processing the first OCT data and an OCT generated by processing the second OCT data based on the data position information calculated by the calculation control means. The OCT signal processing apparatus according to claim 1, wherein a combined front image is generated by combining a plurality of OCT front images by aligning the front images. 前記第1の処理は、第1の深さ領域における前記第1OCTデータおよび前記第2OCTデータに基づいて、前記第1OCT正面画像および前記第2OCT正面画像を生成する処理であり、
前記第2の処理は、前記第1の深さ領域とは異なる第2の深さ領域における前記第1OCTデータおよび前記第2OCTデータに基づいて、前記第3OCT正面画像および前記第4OCT正面画像を生成する処理であることを特徴とする請求項1または2のOCT信号処理装置。
The first process is a process of generating the first OCT front image and the second OCT front image based on the first OCT data and the second OCT data in a first depth region,
The second process generates the third OCT front image and the fourth OCT front image based on the first OCT data and the second OCT data in a second depth region different from the first depth region. The OCT signal processing apparatus according to claim 1 or 2, wherein
前記画像生成手段は、前記第1OCTデータおよび前記第2OCTデータに関してそれぞれセグメンテーション処理を行い、前記セグメンテーション処理によって抽出された層毎にOCT正面画像を生成することによって、第1の層に関する前記第1OCT正面画像と前記第2OCT正面画像を生成すると共に、前記第1の層とは深さ方向に関して異なる第2の層に関する前記第3OCT正面画像と前記第4OCT正面画像を生成することを特徴とする請求項1〜3のいずれかのOCT信号処理装置。 It said image generation means, the first 1OCT respectively performs segmentation processing on the data and the second 2OCT data, by generating an OCT front image for each layer extracted by the segmentation process, the related first layer first 1OCT front image and to generate a said first 2OCT front image, claims, characterized in that to generate a different second of the first 4OCT front image and the second 3OCT front image for layer with respect to said first depth and layers The OCT signal processing apparatus according to any one of 1 to 3. OCT信号処理装置において実行されるOCT信号処理プログラムであって、前記OCT信号処理装置のプロセッサに実行されることによって、An OCT signal processing program executed in the OCT signal processing device, and executed by the processor of the OCT signal processing device,
第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを取得するOCTデータ取得ステップと、OCT data acquisition step of acquiring first OCT data and second OCT data in which at least a part of an acquisition area differs from the first OCT data;
前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、By performing a first process on the first OCT data and the second OCT data, a first OCT front image based on the first OCT data and a second OCT front image based on the second OCT data are generated,
前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成ステップと、By performing a second process different from the first process on the first OCT data and the second OCT data, a third OCT front image based on the first OCT data, a fourth OCT front image based on the second OCT data, and An image generation step for generating
前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御ステップと、を前記OCT信号処理装置に実行させることを特徴とするOCT信号処理プログラム。First image position information, which is relative position information between the first OCT front image and the second OCT front image, and a second image, which is relative position information between the third OCT front image and the fourth OCT front image. Position information is acquired by image analysis, and based on the acquired first image position information and second image position information, relative position information between the first OCT data and the second OCT data. An OCT signal processing program that causes the OCT signal processing device to execute a calculation control step for calculating data position information.
JP2015080467A 2015-04-09 2015-04-09 OCT signal processing apparatus and OCT signal processing program Active JP6471593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015080467A JP6471593B2 (en) 2015-04-09 2015-04-09 OCT signal processing apparatus and OCT signal processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015080467A JP6471593B2 (en) 2015-04-09 2015-04-09 OCT signal processing apparatus and OCT signal processing program

Publications (3)

Publication Number Publication Date
JP2016198279A JP2016198279A (en) 2016-12-01
JP2016198279A5 JP2016198279A5 (en) 2018-05-24
JP6471593B2 true JP6471593B2 (en) 2019-02-20

Family

ID=57422037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015080467A Active JP6471593B2 (en) 2015-04-09 2015-04-09 OCT signal processing apparatus and OCT signal processing program

Country Status (1)

Country Link
JP (1) JP6471593B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6736490B2 (en) * 2017-01-17 2020-08-05 キヤノン株式会社 Image processing apparatus, optical coherence tomographic imaging apparatus, system, image processing method, and program
CN110312464B (en) * 2017-01-28 2022-12-13 赛莱特私人有限公司 Method and apparatus for performing optical coherence metrology across an extended zone of an eye
WO2018175654A1 (en) * 2017-03-23 2018-09-27 Doheny Eye Institute Systems, methods, and devices for optical coherence tomgraphy multiple enface angiography averaging
JP6932581B2 (en) * 2017-08-09 2021-09-08 キヤノン株式会社 Ophthalmic equipment, information processing equipment, information processing methods and programs
JP7123606B2 (en) * 2018-04-06 2022-08-23 キヤノン株式会社 Image processing device, image processing method and program
JP7254682B2 (en) * 2019-11-22 2023-04-10 キヤノン株式会社 Image processing device, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5192250B2 (en) * 2008-02-04 2013-05-08 株式会社トプコン Fundus observation device
JP5735790B2 (en) * 2010-12-02 2015-06-17 株式会社ニデック Ophthalmic imaging equipment
JP6174908B2 (en) * 2013-05-27 2017-08-02 キヤノン株式会社 Information processing apparatus, information processing method, and computer program

Also Published As

Publication number Publication date
JP2016198279A (en) 2016-12-01

Similar Documents

Publication Publication Date Title
JP6507615B2 (en) Optical coherence tomography apparatus and program
JP6402902B2 (en) Optical coherence tomography apparatus and optical coherence tomography calculation program
JP6217185B2 (en) Ophthalmic photographing apparatus and ophthalmic image processing program
US11071452B2 (en) Optical coherence tomography device, optical coherence tomography calculation method, and optical coherence tomography calculation program
US8857988B2 (en) Data acquisition methods for reduced motion artifacts and applications in OCT angiography
JP6402901B2 (en) Optical coherence tomography apparatus, optical coherence tomography calculation method, and optical coherence tomography calculation program
JP5735790B2 (en) Ophthalmic imaging equipment
JP6535985B2 (en) Optical coherence tomography apparatus, optical coherence tomography computing method and optical coherence tomography computing program
JP5685013B2 (en) Optical tomographic imaging apparatus, control method therefor, and program
JP6471593B2 (en) OCT signal processing apparatus and OCT signal processing program
JP5790002B2 (en) Ophthalmic imaging equipment
JP6572615B2 (en) Fundus image processing apparatus and fundus image processing program
JP6703730B2 (en) Optical coherence tomography device and optical coherence tomography control program
US9687147B2 (en) Optical coherence tomography device and control program
JP2016106652A (en) Optical coherence tomography apparatus and control program for use in the same
JP2018068578A (en) OCT apparatus and OCT control program
JP2017046976A (en) Ophthalmic imaging apparatus and ophthalmic imaging program
JP2018019771A (en) Optical coherence tomography device and optical coherence tomography control program
JP6606846B2 (en) OCT signal processing apparatus and OCT signal processing program
JP6375760B2 (en) Optical coherence tomography apparatus and fundus image processing program
JP6503665B2 (en) Optical coherence tomography apparatus and program
JP6402879B2 (en) Ophthalmic imaging equipment
EP3106083B1 (en) Optical coherence tomography device and method of controlling an optical coherence tomography device
JP6402921B2 (en) Optical coherence tomography apparatus and speed measurement program
JP2013179972A (en) Opto-tomographic image capturing apparatus for eye

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190107

R150 Certificate of patent or registration of utility model

Ref document number: 6471593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250