JP6471593B2 - OCT signal processing apparatus and OCT signal processing program - Google Patents
OCT signal processing apparatus and OCT signal processing program Download PDFInfo
- Publication number
- JP6471593B2 JP6471593B2 JP2015080467A JP2015080467A JP6471593B2 JP 6471593 B2 JP6471593 B2 JP 6471593B2 JP 2015080467 A JP2015080467 A JP 2015080467A JP 2015080467 A JP2015080467 A JP 2015080467A JP 6471593 B2 JP6471593 B2 JP 6471593B2
- Authority
- JP
- Japan
- Prior art keywords
- oct
- image
- data
- front image
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 56
- 238000000034 method Methods 0.000 claims description 59
- 230000008569 process Effects 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000010191 image analysis Methods 0.000 claims description 11
- 101100188551 Arabidopsis thaliana OCT2 gene Proteins 0.000 claims description 6
- 101100188552 Arabidopsis thaliana OCT3 gene Proteins 0.000 claims description 5
- 101100188553 Arabidopsis thaliana OCT4 gene Proteins 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000012014 optical coherence tomography Methods 0.000 description 319
- 230000003287 optical effect Effects 0.000 description 51
- 238000005259 measurement Methods 0.000 description 36
- 230000033001 locomotion Effects 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 14
- 239000010410 layer Substances 0.000 description 13
- 238000003860 storage Methods 0.000 description 12
- 210000004220 fundus oculi Anatomy 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 210000004204 blood vessel Anatomy 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000002207 retinal effect Effects 0.000 description 6
- 230000010287 polarization Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 210000003583 retinal pigment epithelium Anatomy 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 208000003098 Ganglion Cysts Diseases 0.000 description 1
- 208000005400 Synovial Cyst Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- BJQHLKABXJIVAM-UHFFFAOYSA-N bis(2-ethylhexyl) phthalate Chemical compound CCCCC(CC)COC(=O)C1=CC=CC=C1C(=O)OCC(CC)CCCC BJQHLKABXJIVAM-UHFFFAOYSA-N 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000004126 nerve fiber Anatomy 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000001210 retinal vessel Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Description
本開示は、光コヒーレンストモグラフィデバイスによって取得されたOCT信号を処理するためのOCT信号処理装置、およびOCT信号処理プログラムに関する。 The present disclosure relates to an OCT signal processing apparatus and an OCT signal processing program for processing an OCT signal acquired by an optical coherence tomography device.
光源からの光を測定光と参照光に分割し、被検物に照射された測定光と参照光の干渉信号を取得し、取得された干渉信号を処理して被検物の断層画像を取得するOCT信号処理装置が知られている。また、上記のようなOCT信号処理装置において、取得した断層画像の断面方向に交差する方向(正面方向)から見た被検物の正面画像を取得する装置が知られている。 Divides the light from the light source into measurement light and reference light, acquires the interference light of the measurement light and reference light irradiated to the test object, and processes the acquired interference signal to acquire the tomographic image of the test object An OCT signal processing apparatus is known. In addition, in the OCT signal processing apparatus as described above, there is known an apparatus that acquires a front image of a test object viewed from a direction (front direction) intersecting a cross-sectional direction of the acquired tomographic image.
従来のOCT信号処理装置において、正面画像を繋ぎ合わせることによって合成正面画像を得ようとした場合、画像の位置合わせが上手くいかない場合があった。 In a conventional OCT signal processing apparatus, when trying to obtain a synthesized front image by joining front images, the image alignment may not be successful.
本開示は、上記の問題点に鑑み、より信頼性の高い画像合成を行えるOCT信号処理装置、およびOCT信号処理プログラムを提供することを技術課題とする。 In view of the above problems, it is an object of the present disclosure to provide an OCT signal processing apparatus and an OCT signal processing program that can perform more reliable image composition.
上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。 In order to solve the above problems, the present disclosure is characterized by having the following configuration.
(1) 第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータとを取得するOCTデータ取得手段と、前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成手段と、前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御手段と、を備えることを特徴とする。
(2) OCT信号処理装置において実行されるOCT信号処理プログラムであって、前記OCT信号処理装置のプロセッサに実行されることによって、第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを取得するOCTデータ取得ステップと、前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成ステップと、前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御ステップと、を前記OCT信号処理装置に実行させることを特徴とする。
(1) OCT data acquisition means for acquiring first OCT data and second OCT data in which at least a part of an acquisition area differs from the first OCT data, and first processing relating to the first OCT data and the second OCT data To generate a first OCT front image based on the first OCT data and a second OCT front image based on the second OCT data, and the first OCT data and the second OCT data are different from the first process. by performing the second processing, the a first 3OCT front image based on the first 1OCT data, image producing means for producing a first 4OCT front image based on the first 2OCT data, the first 1OCT front image and the second 2OCT front a first image position information is relative position information of the image, and the second 3OCT front image Wherein a first 4OCT second image position information is relative position information of the front image, were acquired by the image analysis, on the basis of the acquired first image position information and the second image position information, the Computational control means for computing data position information, which is relative position information between the first OCT data and the second OCT data, is provided.
(2) An OCT signal processing program that is executed in the OCT signal processing device, and is executed by a processor of the OCT signal processing device so that the first OCT data and the first OCT data have a part of an acquisition region. OCT data acquisition step for acquiring at least different second OCT data, and by performing a first process on the first OCT data and the second OCT data, a first OCT front image based on the first OCT data, and the second OCT data And a second OCT front image based on the first OCT data by performing a second process different from the first process on the first OCT data and the second OCT data, Generating a fourth OCT front image based on the second OCT data; An image generating step, the second and the first image position information 1OCT a relative position information of the front image and the second 2OCT front image, relative position information between the first 3OCT front image and the second 4OCT front image The second image position information is obtained by image analysis, and the first OCT data and the second OCT data are relative to each other based on the obtained first image position information and the second image position information. And a calculation control step for calculating data position information, which is accurate position information, is executed by the OCT signal processing apparatus.
以下、本開示に係る実施形態を図1〜11を用いて簡単に説明する。本実施形態のOCT信号処理装置(例えば、図1のOCT信号処理装置1)は、例えば、OCT信号は、光コヒーレンストモグラフィデバイス(以下、OCTデバイスと略す。例えば、図1のOCTデバイス10)によって取得されたOCT信号を処理する。
Hereinafter, embodiments according to the present disclosure will be briefly described with reference to FIGS. The OCT signal processing apparatus of the present embodiment (for example, the OCT
OCT信号処理装置は、例えば、OCTデータ取得部(例えば、図1の制御部70)と、画像生成部(例えば、制御部70)と、演算制御部(例えば、制御部70)と、を備えてもよい。
The OCT signal processing apparatus includes, for example, an OCT data acquisition unit (for example, the
OCTデータ取得部は、例えば、第1OCTデータと第2OCTデータを少なくとも取得する。第2OCTデータは、例えば、第1OCTデータとは取得領域の少なくとも一部が異なってもよい。なお、第1OCTデータおよび第2OCTデータは、例えば、3次元のOCTデータであってもよい。 For example, the OCT data acquisition unit acquires at least first OCT data and second OCT data. For example, the second OCT data may be different from the first OCT data in at least a part of the acquisition region. The first OCT data and the second OCT data may be, for example, three-dimensional OCT data.
なお、OCTデータ取得部は、例えば、OCTデバイスと電気的に接続され、OCTデバイスから直接OCTデータを取得してもよいし、他の媒体(例えば、コンピュータ、記憶媒体など)から間接的にOCTデータを取得してもよい。 The OCT data acquisition unit is electrically connected to the OCT device, for example, and may acquire the OCT data directly from the OCT device or indirectly from other media (for example, a computer, a storage medium, etc.). Data may be acquired.
画像生成部は、例えば、第1OCTデータと第2OCTデータに関して、第1の処理を行うことによって、第1OCTデータに基づく第1OCT画像と、第2OCTデータに基づく第2OCT正面画像とを生成してもよい。さらに、画像生成部は、例えば、第1OCTデータと第2OCTデータに関して、第2の処理を行うことによって、第1OCTデータに基づく第3OCT正面画像と、第2OCTデータに基づく第4OCT正面画像を取得してもよい。なお、第2の処理は、第1の処理とは異なる処理であって、第1の処理によって得られる正面画像とは種類の異なる正面画像が生成される。 For example, the image generation unit generates a first OCT image based on the first OCT data and a second OCT front image based on the second OCT data by performing a first process on the first OCT data and the second OCT data. Good. Further, the image generation unit obtains a third OCT front image based on the first OCT data and a fourth OCT front image based on the second OCT data by performing a second process on the first OCT data and the second OCT data, for example. May be. The second process is a process different from the first process, and a front image having a different type from the front image obtained by the first process is generated.
演算制御部は、例えば、第1画像位置情報と、第2画像位置情報に基づいてデータ位置情報を演算してもよい。なお、第1画像位置情報は、例えば、第1OCT正面画像と第2OCT正面画像との相対的な位置情報であってもよい。また、第2画像位置情報は、例えば、第3OCT正面画像と第4OCT正面画像との相対的な位置情報であってもよい。また、データ位置情報は、例えば、第1OCTデータと第2OCTデータとの相対的な位置情報であってもよい。 For example, the calculation control unit may calculate the data position information based on the first image position information and the second image position information. Note that the first image position information may be, for example, relative position information between the first OCT front image and the second OCT front image. The second image position information may be, for example, relative position information between the third OCT front image and the fourth OCT front image. Further, the data position information may be, for example, relative position information between the first OCT data and the second OCT data.
なお、画像生成部は、データ位置情報に基づいて、複数のOCTデータ間の位置合わせを行い、合成正面画像を生成してもよい。例えば、画像生成部は、演算制御部によって演算されたデータ位置情報に基づいて、第1OCTデータを処理して生成されたOCT正面画像と、第2OCTデータを処理して生成されたOCT正面画像とを位置合わせすることによって、合成正面画像を生成してもよい。 Note that the image generation unit may perform alignment between a plurality of OCT data based on the data position information and generate a combined front image. For example, the image generation unit includes an OCT front image generated by processing the first OCT data and an OCT front image generated by processing the second OCT data based on the data position information calculated by the calculation control unit. A combined front image may be generated by aligning.
なお、第1の処理とは、例えば、第1の深さ領域における第1OCTデータおよび第2OCTデータに基づいて、第1OCT正面画像および第2OCT正面画像を生成する処理であってもよい。この場合、第2の処理は、第1の深さ領域とは深さの異なる第2の深さ領域における第1OCTデータおよび第2OCTデータに基づいて、第3OCT正面画像および第4OCT正面画像を生成する処理であってもよい。 The first process may be a process for generating the first OCT front image and the second OCT front image based on the first OCT data and the second OCT data in the first depth region, for example. In this case, the second process generates the third OCT front image and the fourth OCT front image based on the first OCT data and the second OCT data in the second depth region having a depth different from the first depth region. It may be a process to do.
なお、画像生成部は、第1OCTデータおよび第2OCTデータに関してそれぞれセグメンテーション処理を行ってもよい。そして、画像生成部は、セグメンテーション処理によって抽出された層毎にOCT正面画像を生成してもよい。これによって、画像生成部は、第1の層に関する第1OCT正面画像と第2OCT正面画像を生成すると共に、第1の層とは深さ方向に関して異なる第2の層に関する第3OCT正面画像と第4OCT正面画像を生成してもよい。もちろん、画像生成部は、OCTデータ全体に関してOCT正面画像を生成してもよい。 Note that the image generation unit may perform a segmentation process on each of the first OCT data and the second OCT data. Then, the image generation unit may generate an OCT front image for each layer extracted by the segmentation process. Accordingly, the image generation unit generates the first OCT front image and the second OCT front image related to the first layer, and the third OCT front image and the fourth OCT related to the second layer that differ from the first layer in the depth direction. A front image may be generated. Of course, the image generation unit may generate an OCT front image for the entire OCT data.
第1OCTデータおよび第2OCTデータの少なくともいずれかは、モーションコントラストデータであってもよい。モーションコントラストデータは、例えば、同一位置において取得された時間的に異なる複数のOCT信号を処理して取得される。モーションコントラストデータを取得する方法としては、例えば、Doppler, Speckle Variance, Correlation Mapping等の方法が用いられてもよい。モーションコントラストデータによって、例えば、被検体の血流情報等を取得できる。 At least one of the first OCT data and the second OCT data may be motion contrast data. The motion contrast data is obtained, for example, by processing a plurality of temporally different OCT signals obtained at the same position. As a method for acquiring motion contrast data, for example, a method such as Doppler, Speckle Variance, Correlation Mapping, or the like may be used. For example, blood flow information of the subject can be acquired by the motion contrast data.
画像生成部は、第1OCTデータおよび第2OCTデータの少なくともいずれかに基づいて、信号強度を画像化した強度正面画像を生成してもよい。この場合、画像生成部は、第1OCT正面画像および第2OCT正面画像として強度正面画像を生成してもよいし、第3OCT正面画像および第2OCT正面画像として強度正面画像を生成してもよい。 The image generation unit may generate an intensity front image obtained by imaging the signal intensity based on at least one of the first OCT data and the second OCT data. In this case, the image generation unit may generate an intensity front image as the first OCT front image and the second OCT front image, or may generate an intensity front image as the third OCT front image and the second OCT front image.
なお、OCTデバイスは、偏光感受型OCTデバイスであってもよい。この場合、第1OCTデータおよび第2OCTデータの少なくともいずれかは、偏光感受型OCTデバイスによって取得された偏光OCTデータであってもよい。例えば、偏光感受型OCTデバイスは、被検物によって反射された測定光の偏光特性を検出してもよい。 The OCT device may be a polarization-sensitive OCT device. In this case, at least one of the first OCT data and the second OCT data may be polarization OCT data acquired by a polarization sensitive OCT device. For example, the polarization-sensitive OCT device may detect the polarization characteristic of the measurement light reflected by the test object.
なお、演算制御部は、取得位置情報と、第1画像位置情報と、第2画像位置情報と、に基づいてデータ位置情報を演算してもよい。ここで、取得位置情報は、例えば、第1OCTデータおよび第2OCTデータが取得された位置を示す取得位置情報であってもよい。例えば、演算制御部は、第1OCTデータと第2OCTデータの取得位置情報をそれぞれ取得してもよい。 The calculation control unit may calculate the data position information based on the acquired position information, the first image position information, and the second image position information. Here, the acquisition position information may be, for example, acquisition position information indicating a position where the first OCT data and the second OCT data are acquired. For example, the arithmetic control unit may acquire the acquisition position information of the first OCT data and the second OCT data.
なお、演算制御部は、第1OCT正面画像を画像解析することによって第1解析情報を取得してもよい。さらに演算制御部は、第2OCT正面画像を画像解析することによって第2解析情報を取得してもよい。この場合、演算制御部は、第1解析情報と第2解析情報に基づいて第1画像位置情報を取得してもよい。なお、解析情報としては、例えば、病変部の検出情報等が挙げられる。例えば、演算制御部は、第1OCT正面画像と第2OCT正面画像のそれぞれにおいて検出された病変部の位置情報に基づいて、第1画像位置情報を取得してもよい。 Note that the arithmetic control unit may acquire the first analysis information by performing image analysis on the first OCT front image. Further, the arithmetic control unit may acquire the second analysis information by performing image analysis on the second OCT front image. In this case, the arithmetic control unit may acquire the first image position information based on the first analysis information and the second analysis information. The analysis information includes, for example, lesion detection information. For example, the arithmetic control unit may acquire the first image position information based on the position information of the lesion part detected in each of the first OCT front image and the second OCT front image.
なお、演算制御部は、1OCT正面画像および第3OCT正面画像の少なくともいずれかを画像解析することによって第1解析情報を取得してもよい。さらに、演算制御部は、第2OCT正面画像および第4OCT正面画像の少なくともいずれかを画像解析することによって第2解析情報を取得してもよい。この場合、演算制御部は、画像生成部によって生成された合成正面画像に、第1解析情報および第2解析情報の少なくともいずれかを重畳させてもよい。例えば、演算制御部は、第1解析情報と第2解析情報の少なくともいずれかが重畳された合成正面画像を表示部等に表示してもよい。なお、第1解析情報と第2解析情報の少なくともいずれかを重畳させる合成正面画像は、どのように合成された画像であってもよく、特定の手法によって合成された画像に限定されない。 The arithmetic control unit may acquire the first analysis information by performing image analysis on at least one of the 1OCT front image and the third OCT front image. Further, the arithmetic control unit may acquire the second analysis information by performing image analysis on at least one of the second OCT front image and the fourth OCT front image. In this case, the arithmetic control unit may superimpose at least one of the first analysis information and the second analysis information on the combined front image generated by the image generation unit. For example, the arithmetic control unit may display a composite front image on which at least one of the first analysis information and the second analysis information is superimposed on a display unit or the like. Note that the synthesized front image on which at least one of the first analysis information and the second analysis information is superimposed may be any synthesized image, and is not limited to an image synthesized by a specific method.
なお、OCTデータ取得部は、第1OCTデータとは取得領域の一部が重複した第2OCTデータを取得してもよい。この場合、演算制御部は、第1OCT正面画像と第2OCT正面画像との画像が重複した第1重複領域における画像の位置ずれ検出によって第1画像位置情報を取得してもよい。さらに、演算制御部は、第3OCT正面画像と第4OCT正面画像との画像が重複した第2重複領域における画像の位置ずれ検出によって第2画像位置情報を取得してもよい。 Note that the OCT data acquisition unit may acquire second OCT data in which a part of the acquisition region overlaps with the first OCT data. In this case, the arithmetic control unit may acquire the first image position information by detecting the image misalignment in the first overlapping region where the images of the first OCT front image and the second OCT front image overlap. Furthermore, the arithmetic control unit may acquire the second image position information by detecting the image displacement in the second overlapping region where the images of the third OCT front image and the fourth OCT front image overlap.
この場合、演算制御部は、例えば、第1重複領域における第1OCT正面画像と第2OCT正面画像の位置ずれを検出することによって、第1画像位置情報を取得してもよい。さらに、演算制御部は、例えば、第2重複領域における第3OCT正面画像と第4OCT正面画像の位置ずれを検出することによって、第2画像位置情報を取得してもよい。 In this case, for example, the arithmetic control unit may acquire the first image position information by detecting a positional shift between the first OCT front image and the second OCT front image in the first overlapping region. Further, the arithmetic control unit may acquire the second image position information by detecting a positional shift between the third OCT front image and the fourth OCT front image in the second overlapping region, for example.
なお、OCTデータ取得部は、第1OCTデータとは取得領域の全部が異なる第2OCTデータを少なくとも取得してもよい。この場合、演算制御部は、第1OCT正面画像の端部と第2OCT正面画像の端部の連続性に基づいて第1画像位置情報を取得してもよい。さらに、演算制御部は、第3OCT正面画像の端部と第4OCT正面画像の端部の連続性に基づいて前記第2画像位置情報を取得してもよい。 Note that the OCT data acquisition unit may acquire at least second OCT data in which the entire acquisition region is different from the first OCT data. In this case, the arithmetic control unit may acquire the first image position information based on the continuity between the end of the first OCT front image and the end of the second OCT front image. Furthermore, the arithmetic control unit may acquire the second image position information based on continuity between the end of the third OCT front image and the end of the fourth OCT front image.
なお、演算制御部は、第1画像歪み情報と第2画像歪み情報の少なくともいずれかを取得してもよい。ここで、第1画像歪み情報は、例えば、第1OCT正面画像と第2OCT正面画像の間の画像の歪みを示す情報であってもよい。また、第2画像歪み情報は、例えば、第3OCT正面画像と第4OCT正面画像の間の画像の歪みを示す情報であってもよい。 Note that the arithmetic control unit may acquire at least one of the first image distortion information and the second image distortion information. Here, the first image distortion information may be information indicating image distortion between the first OCT front image and the second OCT front image, for example. Further, the second image distortion information may be information indicating image distortion between the third OCT front image and the fourth OCT front image, for example.
なお、演算制御部は、第1画像位置情報と第2画像位置情報とを用いた統計処理によってデータ位置情報を演算してもよい。例えば、第1画像位置情報と第2画像位置情報を用いた統計処理によって演算された代表値をデータ位置情報として取得してもよい。代表値は、例えば、平均値、中央値、最頻値等であってもよい。もちろん、画像生成部によって3種類以上のOCT正面画像が生成され、3つ以上の画像位置情報が取得された場合も同様である。例えば、演算制御部は、3つ以上の画像位置情報を用いた統計処理によって演算された代表値をデータ位置情報として取得してもよい。 Note that the calculation control unit may calculate the data position information by statistical processing using the first image position information and the second image position information. For example, a representative value calculated by statistical processing using the first image position information and the second image position information may be acquired as the data position information. The representative value may be, for example, an average value, a median value, a mode value, or the like. Of course, the same applies when three or more types of OCT front images are generated by the image generation unit and three or more pieces of image position information are acquired. For example, the calculation control unit may acquire a representative value calculated by statistical processing using three or more pieces of image position information as data position information.
なお、演算制御部は、例えば、プロセッサ(例えば、CPU71)と、記憶部(例えば、ROM72)等を備えてもよい。この場合、演算制御部は記憶部に記憶されたOCT信号処理プログラムをプロセッサによって実行してもよい。例えば、OCT信号処理プログラムは、OCTデータ取得ステップと、画像生成ステップと、演算制御ステップとを含んでもよい。 Note that the arithmetic control unit may include, for example, a processor (for example, CPU 71), a storage unit (for example, ROM 72), and the like. In this case, the arithmetic control unit may execute the OCT signal processing program stored in the storage unit by the processor. For example, the OCT signal processing program may include an OCT data acquisition step, an image generation step, and an arithmetic control step.
例えば、OCTデータ取得ステップは、第1OCTデータと、第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを少なくとも取得するステップであってもよい。 For example, the OCT data acquisition step may be a step of acquiring at least second OCT data in which the first OCT data and the first OCT data are at least partially different from each other in an acquisition region.
例えば、画像生成ステップは、第1OCTデータと第2OCTデータに関して、第1の処理を行うことによって、第1OCT正面画像と第2OCT正面画像とを生成し、第2OCTデータと第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、第3OCT正面画像と第4OCT正面画像とを生成するステップであってもよい。 For example, the image generation step generates the first OCT front image and the second OCT front image by performing a first process on the first OCT data and the second OCT data, and the first OCT data and the second OCT data. It may be a step of generating a third OCT front image and a fourth OCT front image by performing a second process different from the above process.
例えば、演算制御ステップは、第1画像位置情報と第2画像位置情報とを画像解析によって取得し、第1画像位置情報と第2画像位置情報とに基づいて、データ位置情報を演算するステップであってもよい。 For example, the calculation control step is a step of acquiring the first image position information and the second image position information by image analysis, and calculating the data position information based on the first image position information and the second image position information. There may be.
<実施例>
以下、本実施例のOCT信号処理装置1について図面を用いて説明する。図1に示すOCT信号処理装置1は、例えば、OCTデバイス10によって取得されたOCT信号を処理する。
<Example>
Hereinafter, the OCT
例えば、OCT信号処理装置1は、制御部70を備える。例えば、制御部70は、一般的なCPU(Central Processing Unit)71、ROM72、RAM73、等で実現される。制御部70のROM72には、OCT信号を処理するためのOCT信号処理プログラム、OCT信号処理装置1と接続されたデバイス(例えば、OCTデバイス10など)の動作を制御するための各種プログラム、初期値等が記憶されている。RAM73は、各種情報を一時的に記憶する。なお、制御部70は、複数の制御部(つまり、複数のプロセッサ)によって構成されてもよい。
For example, the OCT
制御部70には、図1に示すように、例えば、記憶部(例えば、不揮発性メモリ)74、操作部76、および表示部75等が電気的に接続されている。記憶部74は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、着脱可能なUSBメモリ等を記憶部74として使用することができる。
As shown in FIG. 1, for example, a storage unit (for example, a non-volatile memory) 74, an
操作部76には、検者による各種操作指示が入力される。操作部76は、入力された操作指示に応じた信号をCPU71に出力する。操作部76には、例えば、マウス、ジョイスティック、キーボード、タッチパネル等の少なくともいずれかのユーザーインターフェイスを用いればよい。
Various operation instructions by the examiner are input to the
表示部75は、装置本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。パーソナルコンピュータ(以下、「PC」という。)のディスプレイを用いてもよい。複数のディスプレイが併用されてもよい。また、表示部75は、タッチパネルであってもよい。表示部75がタッチパネルである場合、表示部75が操作部76として機能する。表示部75は、例えば、OCTデバイス10によって取得されたOCT信号を処理した画像データ等を表示する。
The
<OCTデバイス>
以下、OCTデバイス10の概略を説明する。本実施例では、例えば、被検眼Eに測定光を照射し、その反射光と測定光とによって取得されたOCT信号を取得するOCTデバイス10を一例として説明する。例えば、OCTデバイス10は、OCT信号を取得することによって、被検眼Eの断層像を撮影する。OCTデバイス10は、例えば、OCT光学系100と、正面観察光学系200と、固視標投影ユニット300と、を主に備える。なお、本実施例においては、OCTデバイスは制御部70に接続されており、CPU71によって制御される。もちろん、OCTデバイスはCPU71とは別のCPU(不図示)を備え、OCT信号を取得するための各種制御を行ってもよい。
<OCT device>
Hereinafter, an outline of the
OCT光学系100は、被検眼Eに測定光を照射する。OCT光学系100は、被検眼Eから反射された測定光と,参照光との干渉状態を検出器120によって検出する。OCT光学系100は、例えば、走査部(例えば、光スキャナ)108を備える。走査部108は、例えば、被検眼上の撮像位置を変更するため、被検眼上における測定光の走査位置を変更する。CPU71は、設定された走査位置情報に基づいて走査部108の動作を制御し、検出器120からの受光信号に基づいてOCT信号を取得する。
The OCT
<OCT光学系>
OCT光学系100は、いわゆる光断層干渉計(OCT:Optical coherence tomography)の光学系である。OCT光学系100は、測定光源102から出射された光をカップラー(光分割器)104によって測定光(試料光)と参照光に分割する。そして、OCT光学系100は、測定光学系106によって測定光を眼Eの眼底Efに導き,また、参照光を参照光学系110に導く。その後、被検眼Eによって反射された測定光と,参照光との合成による干渉光を検出器120に受光させる。
<OCT optical system>
The OCT
検出器120は、測定光と参照光との干渉状態を検出する。フーリエドメインOCTの場合では、干渉光のスペクトル強度が検出器120によって検出され、スペクトル強度データに対するフーリエ変換によって所定範囲における深さプロファイル(Aスキャン信号)が取得される。例えば、Spectral-domain OCT(SD−OCT)、Swept-source OCT(SS−OCT)が挙げられる。また、Time-domain OCT(TD−OCT)であってもよい。
The
SD−OCTの場合、光源102として低コヒーレント光源(広帯域光源)が用いられ、検出器120には、干渉光を各周波数成分(各波長成分)に分光する分光光学系(スペクトルメータ)が設けられる。スペクトルメータは、例えば、回折格子とラインセンサからなる。
In the case of SD-OCT, a low-coherent light source (broadband light source) is used as the
SS−OCTの場合、光源102として出射波長を時間的に高速で変化させる波長走査型光源(波長可変光源)が用いられ、検出器120として、例えば、単一の受光素子が設けられる。光源102は、例えば、光源、ファイバーリング共振器、及び波長選択フィルタによって構成される。そして、波長選択フィルタとして、例えば、回折格子とポリゴンミラーの組み合わせ、ファブリー・ペローエタロンを用いたものが挙げられる。
In the case of SS-OCT, a wavelength scanning light source (wavelength variable light source) that changes the emission wavelength at a high speed in time is used as the
光源102から出射された光は、カップラー104によって測定光束と参照光束に分割される。そして、測定光束は、光ファイバーを通過した後、空気中へ出射される。その光束は、走査部108、及び測定光学系106の他の光学部材を介して眼底Efに集光される。そして、眼底Efで反射された光は、同様の光路を経て光ファイバーに戻される。
The light emitted from the
走査部108は、眼底上でXY方向(横断方向)に測定光を走査させる。走査部108は、瞳孔と略共役な位置に配置される。例えば、走査部108は、2つのガルバノミラー51,52を有し、その反射角度が駆動機構50によって任意に調整される。
The
これによって、光源102から出射された光束はその反射(進行)方向が変化され、眼底上で任意の方向に走査される。つまり、眼底Ef上における「Bスキャン」が行われる。なお、走査部108としては、光を偏向させる構成であればよい。例えば、反射ミラー(ガルバノミラー、ポリゴンミラー、レゾナントスキャナ)の他、光の進行(偏向)方向を変化させる音響光学素子(AOM)等が用いられる。
Thereby, the reflection (advance) direction of the light beam emitted from the
参照光学系110は、眼底Efでの測定光の反射によって取得される反射光と合成される参照光を生成する。参照光学系110は、マイケルソンタイプであってもよいし、マッハツェンダタイプであっても良い。参照光学系110は、例えば、反射光学系(例えば、参照ミラー)によって形成され、カップラー104からの光を反射光学系により反射することにより再度カップラー104に戻し、検出器120に導く。他の例としては、参照光学系110は、透過光学系(例えば、光ファイバー)によって形成され、カップラー104からの光を戻さず透過させることにより検出器120へと導く。
The reference
参照光学系110は、参照光路中の光学部材を移動させることにより、測定光と参照光との光路長差を変更する構成を有する。例えば、参照ミラーが光軸方向に移動される。光路長差を変更するための構成は、測定光学系106の測定光路中に配置されてもよい。
The reference
<正面観察光学系>
正面観察光学系200は、眼底Efの正面画像を得るために設けられている。観察光学系200は、例えば、光源から発せられた測定光(例えば、赤外光)を眼底上で二次元的に走査させる光スキャナと、眼底と略共役位置に配置された共焦点開口を介して眼底反射光を受光する第2の受光素子と、を備え、いわゆる眼科用走査型レーザ検眼鏡(SLO)の装置構成を持つ。
<Front observation optical system>
The front observation
なお、観察光学系200の構成としては、いわゆる眼底カメラタイプの構成であってもよい。また、OCT光学系100は、観察光学系200を兼用してもよい。すなわち、正面画像は、二次元的に得られた断層画像を形成するデータを用いて取得されるようにしてもよい(例えば、三次元断層画像の深さ方向への積算画像、XY各位置でのスペクトルデータの積算値等)。
Note that the configuration of the observation
<固視標投影ユニット>
固視標投影ユニット300は、眼Eの視線方向を誘導するための光学系を有する。投影ユニット300は、眼Eに呈示する固視標を有し、複数の方向に眼Eを誘導できる。
<Fixation target projection unit>
The fixation
例えば、固視標投影ユニット300は、可視光を発する可視光源を有し、視標の呈示位置を二次元的に変更させる。これにより、視線方向が変更され、結果的に撮像部位が変更される。例えば、撮影光軸と同方向から固視標が呈示されると、眼底の中心部が撮像部位として設定される。また、撮影光軸に対して固視標が上方に呈示されると、眼底の上部が撮像部位として設定される。すなわち、撮影光軸に対する視標の位置に応じて撮影部位が変更される。
For example, the fixation
固視標投影ユニット300としては、例えば、マトリクス状に配列されたLEDの点灯位置により固視位置を調整する構成、光源からの光を光スキャナを用いて走査させ、光源の点灯制御により固視位置を調整する構成等、種々の構成が考えられる。また、投影ユニット300は、内部固視灯タイプであってもよいし、外部固視灯タイプであってもよい。
As the fixation
<制御動作>
以上のようなOCT信号処理装置において、OCTデバイス10によって取得されたOCT信号を処理するときの制御動作を図3のフローチャートに基づいて説明する。本実施例のOCT信号処理装置1は、少なくとも2つの連続した異なる領域において取得されたOCT信号を処理する。以下の説明では、OCTデバイス10によって被検眼Eを測定し、取得されたOCT信号を処理する場合について説明する。なお、OCTデバイス10によって被検眼Eに限らず、生体の他の部位であってもよいし、物質であってもよい。
<Control action>
A control operation when processing the OCT signal acquired by the
<OCT信号の取得>
まず、OCTデバイス10によってOCT信号が検出される。例えば、CPU71は、固視標投影ユニット300を制御して被検者に固視標を投影する。そして、CPU71は、図示無き前眼部観察用カメラで撮影される前眼部観察像に基づいて、被検眼Eの瞳孔中心に測定光軸がくるように図示無き駆動部を制御して自動でアライメントを行う。
<OCT signal acquisition>
First, an OCT signal is detected by the
アライメント完了すると、CPU71はOCTデバイス10を制御し、被検眼Eの測定を行う。CPU71は、走査部108によって被検眼上に測定光を走査させ、眼底EfのOCT信号を取得する。例えば、CPU71は、眼底Ef上の少なくとも2つの連続した領域において測定光を走査させ、領域ごとにOCT信号を取得する。例えば、図4(a)に示すように、OCTデバイス10は、眼底Efの一つの部位である領域A1と、領域A1とは異なる部位である領域A2においてOCT信号を取得してもよい。なお、領域A1と領域A2は、一部が重なった領域であってもよいし、重ならずに連続した領域であってもよい。また、OCTデバイス10は、2つの領域に限らず、さらに複数の領域においてOCT信号を取得してもよい。
When the alignment is completed, the
(ステップS1)
まず、CPU71はOCTデバイス10を制御し、領域A1において測定光を走査し、領域A1のOCT信号を取得する。例えば、CPU71は、走査部108の駆動を制御し、領域A1で測定光を走査させる。このとき、例えば、図4(b)に示す走査ラインSL1,SL2,・・・,SLnに沿ってx方向に測定光を走査させる。なお、測定光の光軸方向に交差する方向(例えば、x方向)に測定光を走査させることを「Bスキャン」と呼ぶ。そして、1回のBスキャンによって得られたOCT信号を1フレームのOCT信号として説明する。CPU71は、測定光を走査する間、検出器120によって検出されたOCT信号を取得する。CPU71は、領域A1において取得されたOCT信号の情報をOCTデータD1として取得し、記憶部74に記憶させる。
(Step S1)
First, the
(ステップS2)
領域A1におけるOCT信号の取得が完了すると、CPU71は、領域A2におけるOCT信号の取得を開始する。例えば、CPU71は、領域A1と同様に、領域A2において測定光を走査し、領域A2のOCT信号を取得する(図4(b)参照)。そして、CPU71は、領域A2において取得されたOCT信号の情報をOCTデータD2として取得し、記憶部74に記憶させる。
(Step S2)
When the acquisition of the OCT signal in the area A1 is completed, the
なお、CPU71は、OCTデータとして取得するOCT信号には、機能OCT信号が含まれてもよい。機能OCT信号は、例えば、血流、物体の動き、または変化などを捉えたモーションコントラストを取得するためのOCT信号である。例えば、機能OCT信号は、被検眼上の同一位置に関して時間的に異なる少なくとも2つのOCT信号であってもよい。以下の説明では、眼底Efの領域A1および領域A2において機能OCT信号を取得した場合について説明する。なお、機能OCT信号およびモーションコントラストの取得についての詳細は後述する。
Note that the
(ステップ3)
次いで、CPU71は、領域A1,A2によって取得されたOCTデータD1,D2について、複数種類の正面画像をそれぞれ生成する。ここで、正面画像とは、生体組織の少なくとも一部を測定光の光軸方向(例えば、z方向)から見たときの画像(いわゆる、En face画像)であってもよく、被検眼Eの断面方向とは垂直な方向の画像であってもよい。
(Step 3)
Next, the
図5の例では、z方向において異なる領域で生成された2種類の正面画像がそれぞれ生成される。つまり、OCTデータD1に基づいて、第1の深さ領域における正面画像Pn1と、第2の深さ領域における正面画像Pn2が2種類の正面画像として生成される。そして、OCTデータD2に基づいて、第1の深さ領域における正面画像Pn3と、第2の深さ領域における正面画像Pn4が2種類の正面画像として生成される。もちろん、CPU71は、3種類以上の正面画像を生成してもよい。
なお、OCTデータから正面画像を生成する方法としては、例えば、深さ方向の少なくとも一部の領域に関してOCTデータを取り出す方法などが挙げられる。この場合、例えば、少なくとも一部の深さ領域に関して取り出されたOCTデータの輝度値を用いて正面画像が生成されてもよい。
In the example of FIG. 5, two types of front images generated in different areas in the z direction are generated. That is, based on the OCT data D1, the front image Pn1 in the first depth region and the front image Pn2 in the second depth region are generated as two types of front images. Then, based on the OCT data D2, a front image Pn3 in the first depth region and a front image Pn4 in the second depth region are generated as two types of front images. Of course, the
As a method for generating a front image from OCT data, for example, a method of extracting OCT data for at least a partial region in the depth direction can be cited. In this case, for example, the front image may be generated using the luminance value of the OCT data extracted for at least a part of the depth region.
ここで、前述の第1の深さ領域、第2の深さ領域のように、眼底Efの領域を深さ方向に分離する方法としては、例えば、OCT信号に基づく断層画像から被検眼Eの網膜層の境界を検出する方法が挙げられる。例えば、CPU71は、OCT信号の強度に応じて輝度値が決定された強度画像のエッジ検出によって被検眼Eの網膜層の境界を検出してもよい。例えば、CPU71は、被検眼Eの強度画像に基づいて神経線維層(nerve fiber layer: NFL)、神経節細胞層(ganglion cell layer: GCL)、網膜色素上皮(retinal pigment epithelium: RPE)等に被検眼Eの網膜層を分離してもよい。
Here, as a method of separating the region of the fundus oculi Ef in the depth direction, such as the first depth region and the second depth region described above, for example, a tomographic image based on an OCT signal can be used. A method for detecting the boundary of the retinal layer can be mentioned. For example, the
また、CPU71は、網膜の血管が網膜層の境界に多く存在することから、網膜層の境界の検出結果に基づいて血管が多く分布する領域を分離してもよい。もちろん、CPU71は、モーションコントラスト画像から検出された血管の分布に基づいて血管の分布領域を分離してもよい。例えば、CPU71は、血管の分布に基づいて、表層、中間層、深層等に網膜の領域を分離してもよい。
Further, since there are many retinal blood vessels at the boundary of the retinal layer, the
CPU71は、分離された少なくともいずれかの深さ領域において正面画像を生成してもよい。もちろん、複数の深さ領域についてまとめて演算を行うことで正面画像を生成してもよい。この場合、複数の深さ領域は隣り合う領域でなくともよく、離れた位置にある領域であってもよい。
The
(ステップS4)
次に、CPU71は、同種の正面画像ごとに相対的な画像の位置を示す画像位置情報を検出する。上記の例において、CPU71は、第1の深さ領域において生成された正面画像Pn1と正面画像Pn3の画像位置情報J1と、第2の深さ領域において生成された正面画像Pn2と正面画像Pn4の画像位置情報J2を検出する。
なお、画像位置情報は、各画像の位置合わせを行うことによって検出してもよい。例えば、正面画像Pn1を基準画像、正面画像Pn3を参照画像として画像の位置合わせを行い、基準画像に対する参照画像のx方向およびy方向へのピクセルのずれ量を画像位置情報として検出してもよい。
(Step S4)
Next, the
The image position information may be detected by aligning each image. For example, image alignment may be performed using the front image Pn1 as a standard image and the front image Pn3 as a reference image, and pixel shift amounts in the x and y directions of the reference image with respect to the standard image may be detected as image position information. .
<画像の位置合わせ方法>
なお、画像の位置合わせ方法は、例えば、位相限定相関法、各種相関関数を用いる方法、フーリエ変換を利用する方法、特徴点のマッチングに基づく方法、アフィン変換、歪み補正を含む位置合わせ方法(例えば、非剛性レジストレーションなど)など種々の画像処理手法が用いられてもよい。
<Image alignment method>
Note that image alignment methods include, for example, a phase-only correlation method, a method using various correlation functions, a method using Fourier transform, a method based on feature point matching, an alignment method including affine transformation, and distortion correction (for example, Various image processing techniques such as non-rigid registration, etc.) may be used.
例えば、CPU71は、基準画像と参照画像を1画素ずつ位置ずれさせ、両画像が最も一致する(相関が最も高くなる)ように画像の位置合わせを行ってもよい。そして、CPU71は、両画像間の位置ずれ方向及び位置ずれ量を検出してもよい。また、所定の基準画像及び参照画像から共通する特徴点を抽出し、抽出された特徴点の位置ずれ方向及び位置ずれ量を検出してもよい。
For example, the
なお、アフィン変換、非剛性レジストレーション等の画像変換を行った場合、CPU71は画像変換に関する数値、または行列式などを画像位置情報として取得してもよい。
When image conversion such as affine conversion or non-rigid registration is performed, the
なお、正面画像の位置合わせにおいて、各OCTデータD1,D2の取得領域A1,A2の位置情報が用いられてもよい。例えば、取得領域A1,A2の位置情報に基づいて、各正面画像の位置をある程度特定した状態で画像処理することによって位置合わせを行ってもよい。この場合、CPU71は、各OCTデータD1,D2を取得した際の測定光の走査位置、および被検眼Eに呈示する固視標の固視位置等の情報に基づいて取得領域A1,A2の位置情報を求めてもよい。このように、各OCTデータD1,D2の取得領域A1,A2の位置情報を用いることによって、画像の位置合わせの処理速度を速くしてもよい。
Note that, in the alignment of the front image, the position information of the acquisition areas A1 and A2 of the respective OCT data D1 and D2 may be used. For example, alignment may be performed by performing image processing in a state where the positions of the front images are specified to some extent based on the position information of the acquisition areas A1 and A2. In this case, the
(ステップS5)
画像の種類ごとに画像位置情報が取得されると、CPU71は、取得された画像位置情報J1,J2に基づいて、OCTデータD1,D2の相対的な位置情報を示すデータ位置情報J0を取得する。例えば、画像位置情報J1,J2を用いた演算によってデータ位置情報J0を取得してもよい。
(Step S5)
When image position information is acquired for each type of image, the
例えば、CPU71は、画像位置情報J1,J2を用いた統計処理によって、データ位置情報J0を取得してもよい。統計処理としては、例えば、平均値の算出、中央値の算出などが挙げられる。例えば、画像のx方向のずれ量とy方向のずれ量を(x,y)で示すとする。例えば、画像位置情報J1が(6,3)、画像位置情報J2が(2,1)であった場合、各画像位置情報J1,J2の平均値を算出すると、データ位置情報J0は(4,2)となる。
For example, the
なお、CPU71は、各OCTデータD1,D2から取得した3種類以上の正面画像から3つ以上の画像値情報を取得した場合は、それらの中央値をデータ位置情報J0として求めてもよい。例えば、画像位置情報を数値の大きさの順番に並べたときに中央に位置する値をデータ位置情報J0として取得してもよい。このように、中央値を用いることによって、複数の画像位置情報の中に外れ値(他の値から大きく外れた値)が存在する場合であっても、適正なデータ位置情報J0を取得できる。
Note that, when the
このように、CPU71は、各画像位置情報J1,J2を用いた統計処理を行うことによって、外れ値を除去してもよい。これによって、CPU71は、より確からしいデータ位置情報J0を取得してもよい。
As described above, the
なお、3種類以上の正面画像を生成した場合も同様に、各種の画像から取得された3つ以上の画像位置情報を用いて演算を行い、データ位置情報J0を取得してもよい。 Similarly, when three or more types of front images are generated, data position information J0 may be acquired by performing calculation using three or more pieces of image position information acquired from various images.
(ステップS6)
CPU71は、ステップS5において取得したデータ位置情報J0を用いて、OCTデータD1,D2の位置合わせを行う。この場合、OCTデータの全体の位置合わせを行ってもよい。ただしこれに限定されず、例えば、第1の深さ領域において、OCTデータD1,D2のそれぞれに基づいて生成された正面画像を、データ位置情報J0にしたがって位置合わせしてもよい。さらに、第2の深さ領域において、OCTデータD1,D2のそれぞれに基づいて生成された正面画像を、データ位置情報J0に従って位置合わせしてもよい。もちろん、CPU71は、第1および第2の深さ領域以外の深さ領域において生成された正面画像の位置合わせにデータ位置情報J0を用いてもよい(図6参照)。
(Step S6)
The
以上のように、2種類以上の正面画像から得られた複数の画像位置情報に基づいて、OCTデータ間の相対的な位置を示すデータ位置情報を取得することによって、正面画像の位置合わせをより正確に行うことができる。 As described above, by acquiring data position information indicating a relative position between OCT data based on a plurality of pieces of image position information obtained from two or more types of front images, the front image is more aligned. Can be done accurately.
例えば、第1の深さ領域において生成された正面画像Pn1と正面画像Pn3において、一方の画像の第1の深さ領域が上手く分離されなかった場合、正面画像Pn1と正面画像Pn3の画像処理による位置合わせに影響が出る可能性があった。しかしながら、複数種類の正面画像を位置合わせして得られた画像位置情報から、OCTデータ間のデータ位置情報を取得することによって、ある深さ領域の分離が上手くいかなかった場合でも、良好な合成画像を取得できる。 For example, in the front image Pn1 and the front image Pn3 generated in the first depth region, when the first depth region of one image is not well separated, the image processing of the front image Pn1 and the front image Pn3 is performed. The alignment could be affected. However, even if the separation of a certain depth region is not successful by obtaining data position information between OCT data from image position information obtained by aligning a plurality of types of front images, good composition Images can be acquired.
さらに、データ位置情報J0の取得には用いなかった種類の正面画像を位置合わせする場合(例えば、図6の合成画像Pw3)、データ位置情報J0を用いれば、わざわざ画像の位置合わせ処理をすることがないため、画像を合成するときの処理速度を速くすることができる。 Furthermore, when aligning a front image of a type that was not used for obtaining the data position information J0 (for example, the composite image Pw3 in FIG. 6), if the data position information J0 is used, the image alignment process is performed. Therefore, the processing speed when compositing images can be increased.
なお、CPU71は、OCTデバイス10によって取得されたOCTデータD1,D2のそれぞれに基づいて生成された画像について、画像解析を行ってもよい。例えば、CPU71は、OCTデータD1に基づく画像Pn2を解析処理することによって、被検眼Eの病変部B1,B2を検出してもよい(図7参照)。同様に、CPU71は、OCTデータD2に基づく画像Pn4を解析処理することによって、被検眼Eの病変部B3を検出してもよい。病変部の検出方法としては、例えば、画像の輝度が低い領域を検出することによって、血流の滞った箇所または存在しない箇所等を検出してもよい。
Note that the
そして、CPU71は、検出した病変部を合成後の合成画像に反映させてもよい。例えば、正面画像Pn2において検出された病変部B1を、合成後の合成画像Pw2に反映させてもよい。これによって、検者は、合成画像Pw2における病変部B1の位置を把握しやすい。
Then, the
さらに、CPU71は、OCTデータD1,D2においてそれぞれ検出された同一の病変部を、正面画像の合成時の位置合わせに用いてもよい。例えば、図7において、CPU71は、OCTデータD1に基づく正面画像Pn2から検出した病変部B2と、OCTデータD2に基づく正面画像Pn4から検出した病変部B3とが重なるように、正面画像Pn2と正面画像Pn4の画像位置情報J2を取得してもよい。このように、各種類の正面画像の画像位置情報を取得するときに、画像の解析情報を用いてもよい。これによって、CPU71は、各種類の正面画像の位置合わせをより正確に行える。
Further, the
なお、図8(a)に示すように、OCT信号を取得する領域A3,A4に重なりがない場合は、各領域において取得されたOCTデータの正面画像Pn5,Pn6の連続性が尤もらしくなるように、正面画像の画像位置情報を取得してもよい。例えば、図8(b)に示すように、正面画像Pn5および正面画像Pn6に写った特徴領域(例えば、血管部など)を検出し、正面画像間で特徴領域の連続性が保たれるように、画像位置情報を取得してもよい。 As shown in FIG. 8A, when there is no overlap between the areas A3 and A4 from which the OCT signals are acquired, the continuity of the front images Pn5 and Pn6 of the OCT data acquired in each area is likely to occur. Alternatively, the image position information of the front image may be acquired. For example, as shown in FIG. 8B, feature regions (for example, blood vessel portions) shown in the front image Pn5 and the front image Pn6 are detected so that the continuity of the feature regions is maintained between the front images. Image position information may be acquired.
なお、CPU71は、例えば、正面画像の歪みを補正してもよい。例えば、図9に示すように、OCTデータD1に基づく正面画像Pn7と、OCTデータD2に基づく正面画像Pn8の少なくとも一方の画像が歪んでいる場合を示す。この場合、正面画像Pn7と正面画像Pn8に写った特徴領域(例えば、血管部など)が合わず、位置合わせが困難である。このような場合、CPU71は、正面画像Pn7および正面画像Pn8を非剛性レジストレーションによって合成してもよい。そして、CPU71は、非剛性レジストレーションの結果を画像位置情報として取得してもよい。これによって、複数のOCTデータの少なくとも一部に歪みが生じている場合でも、OCTデータ間の位置合わせを好適に行える。
Note that the
<モーションコントラストについて>
以下、モーションコントラストの取得について説明する。例えば、本実施例のOCT信号処理装置1は、機能OCT信号に基づいてモーションコントラストを取得する。例えば、CPU71は、各走査ラインにおいて時間間隔を空けて複数回のBスキャンを行い、時間の異なる複数のOCT信号を機能OCT信号として取得してもよい。例えば図10に示すように、CPU71は、ある時間において1回目のBスキャンを行った後、所定時間経過してから1回目と同じ走査ラインで2回目のBスキャンを行う。CPU71は、このときに検出器120によって検出されたOCT信号を取得することによって、時間の異なる複数のOCT信号を取得してもよい。
<About motion contrast>
Hereinafter, acquisition of motion contrast will be described. For example, the OCT
例えば、図10は、走査ラインSL1,SL2,・・・,SLnにおいて時間の異なる複数回のBスキャンを行った場合を示している。例えば、図10は、走査ラインSL1を時間T11,T12,・・・,T1Nで走査し、走査ラインSL2を時間T21,T22,・・・,T2Nで走査し、走査ラインSLnを時間Tn1,Tn2,・・・,TnNで走査した場合を示している。なお、図10において、z軸の方向は、測定光の光軸の方向とする。x軸の方向は、z軸に垂直であって被検者の左右方向とする。y軸の方向は、z軸に垂直であって被検者の上下方向とする。 For example, FIG. 10 shows a case where a plurality of B scans with different times are performed on the scan lines SL1, SL2,..., SLn. For example, FIG. 10 scans the scan line SL1 at times T11, T12,..., T1N, scans the scan line SL2 at times T21, T22,..., T2N, and scans the scan line SLn at times Tn1, Tn2. ..., TnN. In FIG. 10, the direction of the z axis is the direction of the optical axis of the measurement light. The x-axis direction is perpendicular to the z-axis and is the left-right direction of the subject. The y-axis direction is perpendicular to the z-axis and is the vertical direction of the subject.
例えば、CPU71は、走査ラインSL1と同様に各走査ラインにおいて時間の異なる複数回のBスキャンを行うことによって、時間の異なる複数のOCT信号を取得してもよい。なお、CPU71は、同じ位置での走査をN(2以上の自然数)回繰り返し、時間の異なるNフレームのOCT信号を取得してもよい。このようにして、CPU71は、時間の異なる2フレーム以上のOCT信号を取得してもよい。
For example, the
<モーションコントラストの演算>
次に、機能OCT信号に基づいてモーションコントラストを取得するための処理について説明する。CPU71は、上記のようにしてOCTデバイス10から取得された複数のOCT信号を、記憶部74に記憶する。そしてCPU71は、記憶部74に記憶された複数のOCT信号を処理し、複素OCT信号を取得する。例えば、CPU71はOCT信号をフーリエ変換する。例えば、Nフレーム中n枚目の(x,z)の位置の信号をAn(x,z)で表すと、CPU71は、フーリエ変換によって複素OCT信号An(x,z)を得る。複素OCT信号An(x,z)は、実数成分と虚数成分とを含む。
<Calculation of motion contrast>
Next, processing for acquiring motion contrast based on the function OCT signal will be described. The
そして、CPU71は、取得された複素OCT信号を処理し、モーションコントラストを取得してもよい。複素OCT信号を処理する方法としては、例えば、複素OCT信号の強度差を算出する方法、複素OCT信号の位相差を算出する方法、複素OCT信号のベクトル差分を算出する方法、複素OCT信号の位相差及びベクトル差分を掛け合わせる方法、信号の相関を用いる方法(コリレーションマッピング)を用いる方法などが考えられる。本実施例では、位相差を算出する方法を例に説明する。 And CPU71 may process the acquired complex OCT signal and may acquire motion contrast. As a method of processing the complex OCT signal, for example, a method of calculating an intensity difference of the complex OCT signal, a method of calculating a phase difference of the complex OCT signal, a method of calculating a vector difference of the complex OCT signal, a level of the complex OCT signal, and the like. A method of multiplying the phase difference and the vector difference, a method of using signal correlation (correlation mapping), and the like are conceivable. In this embodiment, a method for calculating a phase difference will be described as an example.
まず、CPU71は、同じ位置の少なくとも2つの異なる時間に取得された複素OCT信号A(x,z)に対して位相差を算出する。CPU71は、例えば、下記の式(1)を用いて、位相の変化を算出する。本実施例では、例えば、N回にわたって異なる時間の測定を行った場合、T1とT2,T2とT3,・・・,T(N−1)とTNの計(N−1)回の計算が行われ、(N−1)個のデータが算出される(例えば、図3参照)。もちろん、時間の組み合わせは上記に限らず、異なる時間であれば組み合わせを変更してもよい。なお、数式中のAnは時間TNに取得された信号を示し、*は複素共役を示している。
First, the
以上のように、CPU71は複素OCT信号の位相差に関する深さ方向(Aスキャン方向)の位相差プロファイルを取得する。CPU71は、例えば、この位相差プロファイルの大きさに応じて輝度の大きさが決定された輝度プロファイルを取得し、これをBスキャン方向に並べたモーションコントラスト画像を取得してもよい。この場合、CPU71は、時間の異なる同一位置の複数の複素OCT信号の位相差に基づいて取得されたモーションコントラスト画像データを記憶部74に記憶させる。
As described above, the
なお、以上の実施例において、OCT信号処理装置1は、機能OCT信号をOCTデータとして取得し、被検眼のモーションコントラストに基づく正面画像を生成する場合について説明したが、これに限らない。例えば、OCT信号処理装置1は、各走査ラインにおいて1回のBスキャンによって取得された単独のOCT信号の強度に基づく正面画像を生成してもよい。この場合、画像位置情報を取得するための正面画像の種類として、強度に基づく正面画像を含んでもよい。すなわち、CPU71は、OCTデータD1に基づく強度の正面画像と、OCTデータD2に基づく強度の正面画像との画像位置情報を取得してよい。
In the above embodiment, the OCT
10 OCTデバイス
70 制御部
71 CPU
72 ROM
73 RAM
74 メモリ
75 モニタ
76 操作部
100 OCT光学系
108 走査部
200 正面観察光学系
300 固視標投影ユニット
10
72 ROM
73 RAM
74
Claims (5)
前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、
前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成手段と、
前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御手段と、を備えることを特徴とするOCT信号処理装置。 OCT data acquisition means for acquiring first OCT data and second OCT data in which at least a part of an acquisition area differs from the first OCT data;
By performing a first process on the first OCT data and the second OCT data, a first OCT front image based on the first OCT data and a second OCT front image based on the second OCT data are generated,
By performing a second process different from the first process on the first OCT data and the second OCT data, a third OCT front image based on the first OCT data, a fourth OCT front image based on the second OCT data, and Image generating means for generating
Wherein the first image position information first 1OCT a relative position information of the front image and the second 2OCT front image, the second image is the relative position information between the first 4OCT front image and the second 3OCT front image Position information is acquired by image analysis, and based on the acquired first image position information and second image position information, relative position information between the first OCT data and the second OCT data. An OCT signal processing apparatus comprising: an arithmetic control unit that calculates data position information.
前記第2の処理は、前記第1の深さ領域とは異なる第2の深さ領域における前記第1OCTデータおよび前記第2OCTデータに基づいて、前記第3OCT正面画像および前記第4OCT正面画像を生成する処理であることを特徴とする請求項1または2のOCT信号処理装置。 The first process is a process of generating the first OCT front image and the second OCT front image based on the first OCT data and the second OCT data in a first depth region,
The second process generates the third OCT front image and the fourth OCT front image based on the first OCT data and the second OCT data in a second depth region different from the first depth region. The OCT signal processing apparatus according to claim 1 or 2, wherein
第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを取得するOCTデータ取得ステップと、OCT data acquisition step of acquiring first OCT data and second OCT data in which at least a part of an acquisition area differs from the first OCT data;
前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、By performing a first process on the first OCT data and the second OCT data, a first OCT front image based on the first OCT data and a second OCT front image based on the second OCT data are generated,
前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成ステップと、By performing a second process different from the first process on the first OCT data and the second OCT data, a third OCT front image based on the first OCT data, a fourth OCT front image based on the second OCT data, and An image generation step for generating
前記第1OCT正面画像と前記第2OCT正面画像との相対的な位置情報である第1画像位置情報と、前記第3OCT正面画像と前記第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御ステップと、を前記OCT信号処理装置に実行させることを特徴とするOCT信号処理プログラム。First image position information, which is relative position information between the first OCT front image and the second OCT front image, and a second image, which is relative position information between the third OCT front image and the fourth OCT front image. Position information is acquired by image analysis, and based on the acquired first image position information and second image position information, relative position information between the first OCT data and the second OCT data. An OCT signal processing program that causes the OCT signal processing device to execute a calculation control step for calculating data position information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015080467A JP6471593B2 (en) | 2015-04-09 | 2015-04-09 | OCT signal processing apparatus and OCT signal processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015080467A JP6471593B2 (en) | 2015-04-09 | 2015-04-09 | OCT signal processing apparatus and OCT signal processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016198279A JP2016198279A (en) | 2016-12-01 |
JP2016198279A5 JP2016198279A5 (en) | 2018-05-24 |
JP6471593B2 true JP6471593B2 (en) | 2019-02-20 |
Family
ID=57422037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015080467A Active JP6471593B2 (en) | 2015-04-09 | 2015-04-09 | OCT signal processing apparatus and OCT signal processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6471593B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6736490B2 (en) * | 2017-01-17 | 2020-08-05 | キヤノン株式会社 | Image processing apparatus, optical coherence tomographic imaging apparatus, system, image processing method, and program |
CN110312464B (en) * | 2017-01-28 | 2022-12-13 | 赛莱特私人有限公司 | Method and apparatus for performing optical coherence metrology across an extended zone of an eye |
WO2018175654A1 (en) * | 2017-03-23 | 2018-09-27 | Doheny Eye Institute | Systems, methods, and devices for optical coherence tomgraphy multiple enface angiography averaging |
JP6932581B2 (en) * | 2017-08-09 | 2021-09-08 | キヤノン株式会社 | Ophthalmic equipment, information processing equipment, information processing methods and programs |
JP7123606B2 (en) * | 2018-04-06 | 2022-08-23 | キヤノン株式会社 | Image processing device, image processing method and program |
JP7254682B2 (en) * | 2019-11-22 | 2023-04-10 | キヤノン株式会社 | Image processing device, image processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5192250B2 (en) * | 2008-02-04 | 2013-05-08 | 株式会社トプコン | Fundus observation device |
JP5735790B2 (en) * | 2010-12-02 | 2015-06-17 | 株式会社ニデック | Ophthalmic imaging equipment |
JP6174908B2 (en) * | 2013-05-27 | 2017-08-02 | キヤノン株式会社 | Information processing apparatus, information processing method, and computer program |
-
2015
- 2015-04-09 JP JP2015080467A patent/JP6471593B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016198279A (en) | 2016-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6507615B2 (en) | Optical coherence tomography apparatus and program | |
JP6402902B2 (en) | Optical coherence tomography apparatus and optical coherence tomography calculation program | |
JP6217185B2 (en) | Ophthalmic photographing apparatus and ophthalmic image processing program | |
US11071452B2 (en) | Optical coherence tomography device, optical coherence tomography calculation method, and optical coherence tomography calculation program | |
US8857988B2 (en) | Data acquisition methods for reduced motion artifacts and applications in OCT angiography | |
JP6402901B2 (en) | Optical coherence tomography apparatus, optical coherence tomography calculation method, and optical coherence tomography calculation program | |
JP5735790B2 (en) | Ophthalmic imaging equipment | |
JP6535985B2 (en) | Optical coherence tomography apparatus, optical coherence tomography computing method and optical coherence tomography computing program | |
JP5685013B2 (en) | Optical tomographic imaging apparatus, control method therefor, and program | |
JP6471593B2 (en) | OCT signal processing apparatus and OCT signal processing program | |
JP5790002B2 (en) | Ophthalmic imaging equipment | |
JP6572615B2 (en) | Fundus image processing apparatus and fundus image processing program | |
JP6703730B2 (en) | Optical coherence tomography device and optical coherence tomography control program | |
US9687147B2 (en) | Optical coherence tomography device and control program | |
JP2016106652A (en) | Optical coherence tomography apparatus and control program for use in the same | |
JP2018068578A (en) | OCT apparatus and OCT control program | |
JP2017046976A (en) | Ophthalmic imaging apparatus and ophthalmic imaging program | |
JP2018019771A (en) | Optical coherence tomography device and optical coherence tomography control program | |
JP6606846B2 (en) | OCT signal processing apparatus and OCT signal processing program | |
JP6375760B2 (en) | Optical coherence tomography apparatus and fundus image processing program | |
JP6503665B2 (en) | Optical coherence tomography apparatus and program | |
JP6402879B2 (en) | Ophthalmic imaging equipment | |
EP3106083B1 (en) | Optical coherence tomography device and method of controlling an optical coherence tomography device | |
JP6402921B2 (en) | Optical coherence tomography apparatus and speed measurement program | |
JP2013179972A (en) | Opto-tomographic image capturing apparatus for eye |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180404 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6471593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |