JP2017046975A - Ophthalmic imaging apparatus and ophthalmic imaging program - Google Patents

Ophthalmic imaging apparatus and ophthalmic imaging program Download PDF

Info

Publication number
JP2017046975A
JP2017046975A JP2015173324A JP2015173324A JP2017046975A JP 2017046975 A JP2017046975 A JP 2017046975A JP 2015173324 A JP2015173324 A JP 2015173324A JP 2015173324 A JP2015173324 A JP 2015173324A JP 2017046975 A JP2017046975 A JP 2017046975A
Authority
JP
Japan
Prior art keywords
image data
motion contrast
data
oct
front image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015173324A
Other languages
Japanese (ja)
Inventor
直樹 竹野
Naoki Takeno
直樹 竹野
昌明 羽根渕
Masaaki Hanebuchi
昌明 羽根渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2015173324A priority Critical patent/JP2017046975A/en
Publication of JP2017046975A publication Critical patent/JP2017046975A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an ophthalmic imaging apparatus and an ophthalmic imaging program capable of easily acquiring a front image effective for diagnosis.SOLUTION: Provided is an ophthalmic imaging apparatus for imaging a subject eye, comprising: first acquisition means for acquiring, by a front observation optical system for acquiring front image data of a subject eye, first front image data on the subject eye as well as second front image data, the second front image data including a site common to a site at which the first front image data is captured; and first image processing means for comparing the first front image data with the second front image data and generating third front image data as reference image data, the third front image data including blood vessel emphasized image data in at least a portion of the site common between the first and second front image data.SELECTED DRAWING: Figure 1

Description

本開示は、被検眼を撮影して観察するための眼科撮影装置及び眼科撮影プログラムに関する。   The present disclosure relates to an ophthalmologic photographing apparatus and an ophthalmologic photographing program for photographing and observing an eye to be examined.

従来、被検眼を撮影して観察するための装置として、被検眼に対して2次元的にレーザー光を走査し、その反射を受光することにより被検眼の正面画像を撮影する走査型レーザー検眼装置(SLO)が知られている(特許文献1参照)。また、被検眼(例えば、眼底)を撮影して観察するための装置として、眼底カメラ等が知られている。   2. Description of the Related Art Conventionally, as a device for photographing and observing an eye to be examined, a scanning laser optometry device for photographing a front image of a subject eye by scanning laser light two-dimensionally over the subject eye and receiving the reflection thereof (SLO) is known (see Patent Document 1). In addition, a fundus camera or the like is known as an apparatus for photographing and observing an eye to be examined (for example, the fundus).

特開2006−239196号公報JP 2006-239196 A

しかしながら、これらの装置で撮影された被検眼の正面画像は、より細い血管等が良好に画像化されていない場合があった。このため、これらの装置によって、撮影された正面画像を用いて、被検眼の状態を確認するには困難な場合があった。   However, the front images of the subject's eye photographed with these devices may not have been finely imaged of thinner blood vessels. For this reason, it may be difficult to check the state of the eye to be inspected using these devices using the captured front image.

本発明は、上記問題点を鑑み、診断に有効な正面画像を容易に取得することができる眼科撮影装置及び眼科撮影プログラムを提供することを技術課題とする。   In view of the above problems, an object of the present invention is to provide an ophthalmologic photographing apparatus and an ophthalmic photographing program capable of easily acquiring a front image effective for diagnosis.

上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present disclosure is characterized by having the following configuration.

(1) 本開示の第1態様に係る眼科撮影装置は、被検眼を撮影する眼科撮影装置であって、被検眼の正面画像データを得る正面観察光学系によって、被検眼上において第1正面画像データを取得するとともに、前記第1正面画像データを取得した部位と共通する部位を含む第2正面画像データを取得する第1取得手段と、前記第1正面画像データと、前記第2正面画像データと、を比較処理して、前記第1正面画像データと前記第2正面画像データとで共通する部位の少なくとも一部における血管強調画像データを含む第3正面画像データを基準画像データとして生成する第1画像処理手段と、を備えることを特徴とする。
(2) 本開示の第2態様に係る眼科撮影装置は、被検眼を撮影する眼科撮影装置であって、被検眼の正面画像データを得る走査型レーザー検眼光学系と、被検眼の断層画像データを得るOCT光学系と、前記走査型レーザー検眼光学系によって、被検眼上において第1正面画像データを取得するとともに、前記第1正面画像データを取得した前記被検眼上の部位と同一部位における第2正面画像データを取得する第1取得手段と、前記OCT光学系によって、前記被検眼上の同一位置に関して時間的に異なる複数のOCT信号を取得する第2取得手段と、前記第1正面画像データと、前記第2正面画像データと、を比較処理することによって、血管強調画像データである第3正面画像データを生成する第1画像処理手段と、前記OCT取得手段によって取得された各走査位置での深さ方向における前記複数のOCT信号を処理して、前記被検眼における正面モーションコントラストデータを取得する第2画像処理手段と、前記第2画像処理手段によって取得した前記正面モーションコントラストデータを、複数の領域に分割し、分割した分割領域毎の正面モーションコントラストデータを前記基準画像データに対して、それぞれ位置合わせすることによって、前記正面モーションコントラストデータを補正する補正手段と、を備えることを特徴とする。
(3) 本開示の第3態様に係る眼科撮影プログラムは、被検眼を撮影する眼科撮影装置の動作を制御する制御装置において実行される眼科撮影プログラムであって、前記制御装置のプロセッサによって実行されることで、被検眼の正面画像データを得る正面観察光学系によって、被検眼上において第1正面画像データを取得するとともに、前記第1正面画像データを取得した部位と共通する部位を含む第2正面画像データを取得する第1取得ステップと、前記第1正面画像データと、前記第2正面画像データと、を比較処理して、前記第1正面画像データと前記第2正面画像データとで共通する部位の少なくとも一部における血管強調画像データを含む第3正面画像データを基準画像データとして取得する第1画像処理ステップと、を前記眼科撮影装置に実行させることを特徴とする。
(1) An ophthalmologic photographing apparatus according to a first aspect of the present disclosure is an ophthalmic photographing apparatus that photographs an eye to be examined, and a first front image on the eye to be examined by a front observation optical system that obtains front image data of the eye to be examined. First acquisition means for acquiring data, and acquiring second front image data including a portion common to the portion from which the first front image data has been acquired, the first front image data, and the second front image data And the third front image data including the blood vessel emphasized image data in at least a part of the portion common to the first front image data and the second front image data is generated as reference image data. And an image processing means.
(2) An ophthalmologic imaging apparatus according to a second aspect of the present disclosure is an ophthalmic imaging apparatus that images a subject's eye, and includes a scanning laser optometry optical system that obtains front image data of the subject's eye, and tomographic image data of the subject's eye The first front image data is acquired on the eye to be examined by the OCT optical system and the scanning laser optometry optical system, and the first part in the same part as the part on the eye to be examined from which the first front image data was obtained. First acquisition means for acquiring two front image data; second acquisition means for acquiring a plurality of OCT signals temporally different with respect to the same position on the eye to be examined by the OCT optical system; and the first front image data A first image processing means for generating third front image data which is blood vessel emphasized image data by comparing the second front image data and the second front image data; A second image processing unit that processes the plurality of OCT signals in the depth direction at each scanning position acquired by the stage to acquire frontal motion contrast data in the eye to be examined, and acquired by the second image processing unit Correction for correcting the front motion contrast data by dividing the front motion contrast data into a plurality of regions and aligning the front motion contrast data for each of the divided regions with the reference image data. And means.
(3) The ophthalmic imaging program according to the third aspect of the present disclosure is an ophthalmic imaging program executed in a control device that controls the operation of the ophthalmic imaging device that images the eye to be examined, and is executed by a processor of the control device. Thus, the first front image data is obtained on the eye to be examined by the front observation optical system that obtains the front image data of the eye to be examined, and the second part including the part common to the part from which the first front image data has been obtained. The first acquisition step of acquiring the front image data, the first front image data, and the second front image data are compared and common to the first front image data and the second front image data. A first image processing step of acquiring third front image data including blood vessel emphasized image data in at least a part of a region to be processed as reference image data, It is made to perform in a department radiography apparatus.

本実施形態に係る光コヒーレンストモグラフィ装置の構成について説明するブロック図である。It is a block diagram explaining the structure of the optical coherence tomography apparatus which concerns on this embodiment. 本実施形態に係るOCT光学系の概略を示す図である。It is a figure which shows the outline of the OCT optical system which concerns on this embodiment. OCTデータを処理するときの制御動について説明するフローチャートを示している。The flowchart explaining the control action at the time of processing OCT data is shown. OCT信号の取得動作について説明する図である。It is a figure explaining the acquisition operation of an OCT signal. 血管強調画像データの生成について説明する図である。It is a figure explaining the production | generation of blood vessel emphasis image data. 正面モーションコントラストデータの補正処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the correction process operation | movement of front motion contrast data. 正面モーションコントラストデータの一例を示す図である。It is a figure which shows an example of front motion contrast data. 正面モーションコントラストデータの分割について説明する図である。It is a figure explaining division of front motion contrast data. モーションアーチファクトの検出について説明する図である。It is a figure explaining the detection of a motion artifact. 第3正面画像と分割領域における正面モーションコントラストデータとの位置合わせについて説明する図である。It is a figure explaining alignment with a 3rd front image and front motion contrast data in a division field.

以下、典型的な実施形態の1つについて、図面を参照して説明する。なお、本実施形態においては、眼科撮影装置として、光コヒーレンストモグラフィ装置(以下、OCTデバイスと記載)を例に挙げて説明する。もちろん、眼底カメラ、眼科用走査型レーザー検眼鏡(SLO)等であってもよい。図1は本実施形態に係る光コヒーレンストモグラフィ装置の構成について説明するブロック図である。図2は、OCT光学系について説明する概略図である。   Hereinafter, one exemplary embodiment will be described with reference to the drawings. In the present embodiment, an optical coherence tomography apparatus (hereinafter referred to as an OCT device) will be described as an example of an ophthalmologic imaging apparatus. Of course, a fundus camera, an ophthalmic scanning laser ophthalmoscope (SLO), or the like may be used. FIG. 1 is a block diagram illustrating a configuration of an optical coherence tomography apparatus according to the present embodiment. FIG. 2 is a schematic diagram illustrating the OCT optical system.

光コヒーレンストモグラフィ装置(以下、OCTデバイスと記載)1は、OCT光学系(干渉光学系)100によって取得された検出信号を処理する。本実施形態において、OCTデバイス1は、OCT光学系100によって撮影された画像を表示手段(例えば、モニタ)75上で観察できる構成を備える。例えば、OCTデバイス1は、OCT光学系100と、CPU(制御部)70と、マウス(操作部)76と、メモリ(記憶部)72と、モニタ75と、を備え、各部はバス等を介してCPU70と電気的に接続されている。なお、以下の説明においては、被検眼として、被検眼の眼底をOCTデバイス1によって撮影する場合を例に挙げて説明する。もちろん、OCTデバイス1としては、被検眼の前眼部を撮影することができる。   An optical coherence tomography apparatus (hereinafter referred to as an OCT device) 1 processes a detection signal acquired by an OCT optical system (interference optical system) 100. In the present embodiment, the OCT device 1 has a configuration that allows an image taken by the OCT optical system 100 to be observed on a display means (for example, a monitor) 75. For example, the OCT device 1 includes an OCT optical system 100, a CPU (control unit) 70, a mouse (operation unit) 76, a memory (storage unit) 72, and a monitor 75, and each unit is connected via a bus or the like. Are electrically connected to the CPU 70. In the following description, the case where the fundus of the eye to be examined is imaged by the OCT device 1 will be described as an example. Of course, the OCT device 1 can image the anterior segment of the eye to be examined.

制御部70は、メモリ72に記憶されている演算プログラム及び各種制御プログラム等に基づいて各部の動作を制御する(詳細は後述する)。なお、制御部70、操作部76、メモリ72、モニタ75として、市販のPC(パーソナルコンピュータ)が持つ演算処理部、入力部、記憶部、表示部を用い、市販のPCに各種プログラムをインストールするようにしてもよい。   The control unit 70 controls the operation of each unit based on an arithmetic program and various control programs stored in the memory 72 (details will be described later). In addition, as the control unit 70, the operation unit 76, the memory 72, and the monitor 75, various processing programs are installed on a commercially available PC by using an arithmetic processing unit, an input unit, a storage unit, and a display unit of a commercially available PC (personal computer). You may do it.

なお、本実施形態においては、OCTデバイス1として、OCT光学系100と、各部と、が一体となった装置を例に挙げて説明するがこれに限定されない。例えば、OCTデバイス1としては、OCT光学系100を備えていない構成であってもよい。この場合、OCTデバイスは、別途設けられたOCT光学系等と接続され、OCT信号又はOCT画像データを受信し、受信した情報に基づいて、各種演算処理を行う。   In the present embodiment, the OCT device 1 is described as an example of an apparatus in which the OCT optical system 100 and each unit are integrated, but the present invention is not limited to this. For example, the OCT device 1 may be configured without the OCT optical system 100. In this case, the OCT device is connected to a separately provided OCT optical system or the like, receives an OCT signal or OCT image data, and performs various arithmetic processes based on the received information.

例えば、本実施形態において、OCT光学系100は、正面観察光学系200を含む。もちろん、OCT光学系と、正面観察光学系200が一体となった構成でなくてもよい。OCT光学系100は、眼底Efに測定光を照射する。OCT光学系100は、眼底Efから反射された測定光と,参照光との干渉状態を受光素子(検出器120)によって検出する。OCT光学系100は、眼底Ef上の撮像位置を変更するため、眼底Ef上における測定光の照射位置を変更する照射位置変更ユニット(例えば、光スキャナ108、固視標投影ユニット300)を備える。制御部70は、設定された撮像位置情報に基づいて照射位置変更ユニットの動作を制御し、検出器120からの受光信号に基づいて断層画像を取得する。   For example, in the present embodiment, the OCT optical system 100 includes a front observation optical system 200. Of course, the OCT optical system and the front observation optical system 200 may not be integrated. The OCT optical system 100 irradiates the fundus Ef with measurement light. The OCT optical system 100 detects the interference state between the measurement light reflected from the fundus oculi Ef and the reference light by the light receiving element (detector 120). The OCT optical system 100 includes an irradiation position changing unit (for example, the optical scanner 108 and the fixation target projection unit 300) that changes the irradiation position of the measurement light on the fundus oculi Ef in order to change the imaging position on the fundus oculi Ef. The control unit 70 controls the operation of the irradiation position changing unit based on the set imaging position information, and acquires a tomographic image based on the light reception signal from the detector 120.

<OCT光学系>
OCT光学系100について説明する。OCT光学系100は、いわゆる眼科用光断層干渉計(OCT:Optical coherence tomography)の装置構成を持ち、被検眼Eの断層画像を撮像する。例えば、制御部70は、OCT光学系100を制御することによって、OCT信号を取得する。OCT光学系100は、測定光源102から出射された光をカップラー(光分割器)104によって測定光(試料光)と参照光に分割する。そして、OCT光学系100は、測定光学系106によって測定光を眼Eの眼底Efに導き,また、参照光を参照光学系110に導く。その後、眼底Efによって反射された測定光と,参照光との合成による干渉光を検出器120に受光させる。
<OCT optical system>
The OCT optical system 100 will be described. The OCT optical system 100 has an apparatus configuration of a so-called ophthalmic optical tomography (OCT: Optical coherence tomography), and takes a tomographic image of the eye E to be examined. For example, the control unit 70 acquires the OCT signal by controlling the OCT optical system 100. The OCT optical system 100 splits the light emitted from the measurement light source 102 into measurement light (sample light) and reference light by a coupler (light splitter) 104. The OCT optical system 100 guides the measurement light to the fundus oculi Ef of the eye E by the measurement optical system 106 and guides the reference light to the reference optical system 110. Thereafter, the detector 120 receives interference light obtained by combining the measurement light reflected by the fundus oculi Ef and the reference light.

検出器120は、測定光と参照光との干渉信号を検出する。フーリエドメインOCTの場合では、干渉光のスペクトル強度(スペクトル干渉信号)が検出器120によって検出され、スペクトル強度データに対するフーリエ変換によって複素OCT信号が取得される。   The detector 120 detects an interference signal between the measurement light and the reference light. In the case of Fourier domain OCT, the spectral intensity (spectral interference signal) of the interference light is detected by the detector 120, and a complex OCT signal is obtained by Fourier transform on the spectral intensity data.

例えば、フーリエドメインOCTにおいて、スペクトル強度データに対するフーリエ変換によって取得された複素OCT信号における振幅の絶対値を算出することによって、所定範囲における深さプロファイル(Aスキャン信号)が取得される。光スキャナ108によって走査された測定光の各走査位置における深さプロファイルを並べることによって、OCT画像データ(断層画像データ)が取得される。さらに、測定光を二次元的に走査することによって、三次元OCT画像データ(三次元断層画像データ)を取得してもよい。また、三次元OCT画像データから、OCT正面(Enface)画像データ(例えば、深さ方向に関して積算された積算画像データ、XY各位置でのスペクトルデータの積算値、ある一定の深さ方向におけるXY各位置での輝度データ、網膜表層画像データ、等)が取得されてもよい。   For example, in the Fourier domain OCT, the depth profile (A scan signal) in a predetermined range is acquired by calculating the absolute value of the amplitude in the complex OCT signal acquired by Fourier transform on the spectral intensity data. OCT image data (tomographic image data) is acquired by arranging the depth profiles at each scanning position of the measurement light scanned by the optical scanner 108. Furthermore, three-dimensional OCT image data (three-dimensional tomographic image data) may be acquired by scanning the measurement light two-dimensionally. In addition, from the three-dimensional OCT image data, OCT front (Enface) image data (for example, integrated image data integrated in the depth direction, integrated values of spectrum data at each XY position, XY values in a certain depth direction) Luminance data at a position, retina surface layer image data, etc.) may be acquired.

また、時間の異なる同じ位置(同一の部位)における少なくとも2つ以上のOCT信号から、モーションコントラストデータが取得される。すなわち、少なくとも2つ以上の複素OCT信号が、解析処理されることで、モーションコントラストデータが取得される。例えば、複素OCT信号から一次元モーションコントラストデータが取得される。光スキャナ108によって走査された測定光の各走査位置における一次元モーションコントラストデータを並べることによって、二次元モーションコントラストデータが取得される。さらに、測定光をXY方向に二次元的に走査することによって、三次元モーションコントラストデータ(モーションコントラストボリュームデータ)が取得される。また、三次元モーションコントラストデータから、正面(Enface)モーションコントラストデータ(例えば、ドップラー正面(Enface)画像データ、スペックルバリアンス正面画像データ等)が取得される。なお、各データは、生成された画像のデータであってもよいし、画像が生成される前の信号データであってもよい。なお、モーションコントラストデータの詳細については後述する。   Also, motion contrast data is acquired from at least two or more OCT signals at the same position (the same part) at different times. That is, at least two or more complex OCT signals are analyzed and motion contrast data is acquired. For example, one-dimensional motion contrast data is acquired from the complex OCT signal. Two-dimensional motion contrast data is acquired by arranging the one-dimensional motion contrast data at each scanning position of the measurement light scanned by the optical scanner 108. Further, three-dimensional motion contrast data (motion contrast volume data) is acquired by two-dimensionally scanning the measurement light in the XY directions. Further, from the three-dimensional motion contrast data, front motion contrast data (for example, Doppler front image data, speckle variance front image data, etc.) is acquired. Each data may be generated image data, or may be signal data before an image is generated. Details of the motion contrast data will be described later.

例えば、フーリエドメインOCTとしては、Spectral-domain OCT(SD−OCT)、Swept-source OCT(SS−OCT)が挙げられる。また、例えば、Time-domain OCT(TD−OCT)であってもよい。SD−OCTの場合、光源102として低コヒーレント光源(広帯域光源)が用いられ、検出器120には、干渉光を各周波数成分(各波長成分)に分光する分光光学系(スペクトロメータ)が設けられる。スペクトロメータは、例えば、回折格子とラインセンサからなる。SS−OCTの場合、光源102として出射波長を時間的に高速で変化させる波長走査型光源(波長可変光源)が用いられ、検出器120として、例えば、単一の受光素子が設けられる。光源102は、例えば、光源、ファイバーリング共振器、及び波長選択フィルタによって構成される。そして、波長選択フィルタとして、例えば、回折格子とポリゴンミラーの組み合わせ、ファブリー・ペローエタロンを用いたものが挙げられる。   For example, examples of the Fourier domain OCT include Spectral-domain OCT (SD-OCT) and Swept-source OCT (SS-OCT). For example, Time-domain OCT (TD-OCT) may be used. In the case of SD-OCT, a low-coherent light source (broadband light source) is used as the light source 102, and the detector 120 is provided with a spectroscopic optical system (spectrometer) that separates interference light into each frequency component (each wavelength component). . The spectrometer includes, for example, a diffraction grating and a line sensor. In the case of SS-OCT, a wavelength scanning light source (wavelength variable light source) that changes the emission wavelength at a high speed in time is used as the light source 102, and a single light receiving element is provided as the detector 120, for example. The light source 102 includes, for example, a light source, a fiber ring resonator, and a wavelength selection filter. Examples of the wavelength selection filter include a combination of a diffraction grating and a polygon mirror, and a filter using a Fabry-Perot etalon.

光源102から出射された光は、カップラー104によって測定光束と参照光束に分割される。そして、測定光束は、光ファイバーを通過した後、空気中へ出射される。その光束は、光スキャナ108、及び測定光学系106の他の光学部材を介して眼底Efに集光される。そして、眼底Efで反射された光は、同様の光路を経て光ファイバーに戻される。   The light emitted from the light source 102 is split into a measurement light beam and a reference light beam by the coupler 104. Then, the measurement light flux passes through the optical fiber and is then emitted into the air. The luminous flux is condensed on the fundus oculi Ef via the optical scanner 108 and other optical members of the measurement optical system 106. Then, the light reflected by the fundus oculi Ef is returned to the optical fiber through a similar optical path.

光スキャナ108は、眼底上で二次元的に(XY方向)に測定光を走査させる。光スキャナ108は、瞳孔と略共役な位置に配置される。光スキャナ108は、例えば、2つのガルバノミラーであり、その反射角度が駆動機構50によって任意に調整される。   The optical scanner 108 scans the measurement light two-dimensionally (XY direction) on the fundus. The optical scanner 108 is arranged at a position substantially conjugate with the pupil. The optical scanner 108 is, for example, two galvanometer mirrors, and the reflection angle thereof is arbitrarily adjusted by the drive mechanism 50.

これにより、光源102から出射された光束はその反射(進行)方向が変化され、眼底上で任意の位置に走査される。これにより、眼底Ef上における撮像位置が変更される。光スキャナ108としては、光を偏向させる構成であればよい。例えば、反射ミラー(ガルバノミラー、ポリゴンミラー、レゾナントスキャナ)の他、光の進行(偏向)方向を変化させる音響光学素子(AOM)等が用いられる。   As a result, the reflection (advance) direction of the light beam emitted from the light source 102 is changed and scanned at an arbitrary position on the fundus. Thereby, the imaging position on the fundus oculi Ef is changed. The optical scanner 108 may be configured to deflect light. For example, in addition to a reflective mirror (galvano mirror, polygon mirror, resonant scanner), an acousto-optic device (AOM) that changes the traveling (deflection) direction of light is used.

参照光学系110は、眼底Efでの測定光の反射によって取得される反射光と合成される参照光を生成する。参照光学系110は、マイケルソンタイプであってもよいし、マッハツェンダタイプであっても良い。参照光学系110は、例えば、反射光学系(例えば、参照ミラー)によって形成され、カップラー104からの光を反射光学系により反射することにより再度カップラー104に戻し、検出器120に導く。他の例としては、参照光学系110は、透過光学系(例えば、光ファイバー)によって形成され、カップラー104からの光を戻さず透過させることにより検出器120へと導く。   The reference optical system 110 generates reference light that is combined with reflected light acquired by reflection of measurement light at the fundus oculi Ef. The reference optical system 110 may be a Michelson type or a Mach-Zehnder type. The reference optical system 110 is formed by, for example, a reflection optical system (for example, a reference mirror), and reflects light from the coupler 104 back to the coupler 104 by being reflected by the reflection optical system and guides it to the detector 120. As another example, the reference optical system 110 is formed by a transmission optical system (for example, an optical fiber), and guides the light from the coupler 104 to the detector 120 by transmitting the light without returning.

参照光学系110は、参照光路中の光学部材を移動させることにより、測定光と参照光との光路長差を変更する構成を有する。例えば、参照ミラーが光軸方向に移動される。光路長差を変更するための構成は、測定光学系106の測定光路中に配置されてもよい。   The reference optical system 110 has a configuration in which the optical path length difference between the measurement light and the reference light is changed by moving an optical member in the reference optical path. For example, the reference mirror is moved in the optical axis direction. The configuration for changing the optical path length difference may be arranged in the measurement optical path of the measurement optical system 106.

<正面観察光学系>
正面観察光学系200は、被検眼の正面画像データを取得する。なお、正面画像データは、生成された画像のデータであってもよいし、画像が生成される前の信号データであってもよい。例えば、正面観察光学系200は、眼底Efの正面画像を得るために設けられている。本実施形態において、正面観察光学系200は、例えば、光源から発せられた測定光(例えば、赤外光)を眼底上で二次元的に走査させる光スキャナと、眼底と略共役位置に配置された共焦点開口を介して眼底反射光を受光する第2の受光素子と、を備え、いわゆる眼科用走査型レーザー検眼鏡(SLO)の装置構成を持つ。
<Front observation optical system>
The front observation optical system 200 acquires front image data of the eye to be examined. The front image data may be generated image data or signal data before an image is generated. For example, the front observation optical system 200 is provided to obtain a front image of the fundus oculi Ef. In the present embodiment, the front observation optical system 200 is disposed, for example, at a position substantially conjugate with the fundus and an optical scanner that two-dimensionally scans the fundus with measurement light (for example, infrared light) emitted from a light source. And a second light receiving element that receives fundus reflected light through the confocal aperture, and has a so-called ophthalmic scanning laser ophthalmoscope (SLO) device configuration.

なお、正面観察光学系200の構成としては、いわゆる眼底カメラタイプの構成であってもよい。また、例えば、赤外光を用いて被検体を撮影する赤外撮影光学系であってもよい。また、例えば、OCT光学系100が、正面観察光学系200を兼用してもよい。すなわち、正面画像データ(以下、正面画像と記載)は、二次元的に得られた断層画像(OCT正面画像)を形成するデータを用いて取得されるようにしてもよい。   The configuration of the front observation optical system 200 may be a so-called fundus camera type configuration. Further, for example, an infrared imaging optical system that images a subject using infrared light may be used. Further, for example, the OCT optical system 100 may also serve as the front observation optical system 200. That is, the front image data (hereinafter referred to as a front image) may be acquired using data forming a tomographic image (OCT front image) obtained two-dimensionally.

なお、正面観察光学系200がOCTデバイス等と一体となった構成でなくてもよい。この場合、例えば、別途設けられた正面観察光学系200によって取得された正面画像データが、OCTデバイス等によって受信される。   The front observation optical system 200 may not be integrated with the OCT device or the like. In this case, for example, front image data acquired by a front observation optical system 200 provided separately is received by an OCT device or the like.

<固視標投影ユニット>
固視標投影ユニット300は、被検眼Eの視線方向を誘導するための光学系を有する。固視標投影ユニット300は、被検眼Eに呈示する固視標を有し、複数の方向に被検眼Eを誘導できる。
<Fixation target projection unit>
The fixation target projecting unit 300 includes an optical system for guiding the line-of-sight direction of the eye E. The fixation target projection unit 300 has a fixation target to be presented to the eye E, and can guide the eye E in a plurality of directions.

例えば、固視標投影ユニット300は、可視光を発する可視光源を有し、視標の呈示位置を二次元的に変更させる。これにより、視線方向が変更され、結果的に撮像部位が変更される。例えば、撮影光軸と同方向から固視標が呈示されると、眼底の中心部が撮像部位として設定される。また、撮影光軸に対して固視標が上方に呈示されると、眼底の上部が撮像部位として設定される。すなわち、撮影光軸に対する視標の位置に応じて撮影部位が変更される。   For example, the fixation target projection unit 300 has a visible light source that emits visible light, and changes the presentation position of the target two-dimensionally. Thereby, the line-of-sight direction is changed, and as a result, the imaging region is changed. For example, when the fixation target is presented from the same direction as the imaging optical axis, the center of the fundus is set as the imaging site. When the fixation target is presented upward with respect to the imaging optical axis, the upper part of the fundus is set as the imaging region. That is, the imaging region is changed according to the position of the target with respect to the imaging optical axis.

固視標投影ユニット300としては、例えば、マトリクス状に配列されたLEDの点灯位置により固視位置を調整する構成、光源からの光を光スキャナによって走査させ、光源の点灯制御により固視位置を調整する構成、等、種々の構成が考えられる。また、固視標投影ユニット300は、内部固視灯タイプであってもよいし、外部固視灯タイプであってもよい。   As the fixation target projection unit 300, for example, a configuration in which the fixation position is adjusted by the lighting positions of LEDs arranged in a matrix, the light from the light source is scanned by an optical scanner, and the fixation position is controlled by lighting control of the light source. Various configurations such as a configuration to be adjusted are conceivable. The fixation target projection unit 300 may be an internal fixation lamp type or an external fixation lamp type.

<制御部>
制御部70は、CPU(プロセッサ)、RAM、ROM等を備える。制御部70のCPUは、各構成100〜300の各部材など、装置全体の制御を司る。RAMは、各種情報を一時的に記憶する。制御部70のROMには、装置全体の動作を制御するための各種プログラム、初期値等が記憶されている。なお、制御部70は、複数の制御部(つまり、複数のプロセッサ)によって構成されてもよい。
<Control unit>
The control unit 70 includes a CPU (processor), a RAM, a ROM, and the like. The CPU of the control unit 70 controls the entire apparatus such as each member of each configuration 100 to 300. The RAM temporarily stores various information. The ROM of the control unit 70 stores various programs for controlling the operation of the entire apparatus, initial values, and the like. The control unit 70 may be configured by a plurality of control units (that is, a plurality of processors).

制御部70には、不揮発性メモリ(記憶手段)72、操作部(コントロール部)76、および表示部(モニタ)75等が電気的に接続されている。不揮発性メモリ(メモリ)72は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、OCTデバイス1、及び、OCT光学系100に着脱可能に装着されるUSBメモリ等を不揮発性メモリ72として使用することができる。メモリ72には、OCT光学系100による正面画像データおよび断層画像データの撮影を制御するための撮影制御プログラムが記憶されている。また、メモリ72には、OCTデバイス1を使用することを可能にする眼底解析プログラムが記憶されている。また、メモリ72には、走査ラインにおける断層画像データ(OCT画像データ)、三次元断層画像データ(三次元OCT画像データ)、正面画像データ(眼底正面画像データ)、断層画像データの撮影位置の情報等、撮影に関する各種情報が記憶される。操作部76には、検者による各種操作指示が入力される。   A non-volatile memory (storage means) 72, an operation unit (control unit) 76, a display unit (monitor) 75, and the like are electrically connected to the control unit 70. The non-volatile memory (memory) 72 is a non-transitory storage medium that can retain stored contents even when power supply is interrupted. For example, a hard disk drive, a flash ROM, the OCT device 1, and a USB memory that is detachably attached to the OCT optical system 100 can be used as the nonvolatile memory 72. The memory 72 stores an imaging control program for controlling imaging of front image data and tomographic image data by the OCT optical system 100. The memory 72 stores a fundus analysis program that enables the OCT device 1 to be used. In addition, the memory 72 stores information on imaging positions of tomographic image data (OCT image data), three-dimensional tomographic image data (three-dimensional OCT image data), front image data (fundus frontal image data), and tomographic image data in a scanning line. Etc., various information relating to photographing is stored. Various operation instructions by the examiner are input to the operation unit 76.

操作部76は、入力された操作指示に応じた信号を制御部70に出力する。操作部74には、例えば、マウス、ジョイスティック、キーボード、タッチパネル等の少なくともいずれかを用いればよい。   The operation unit 76 outputs a signal corresponding to the input operation instruction to the control unit 70. For the operation unit 74, for example, at least one of a mouse, a joystick, a keyboard, a touch panel, and the like may be used.

モニタ75は、装置本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。パーソナルコンピュータ(以下、「PC」という。)のディスプレイを用いてもよい。複数のディスプレイが併用されてもよい。また、モニタ75は、タッチパネルであってもよい。なお、モニタ75がタッチパネルである場合に、モニタ75が操作部として機能する。モニタ75には、OCT光学系100によって撮影された断層画像データおよび正面画像データを含む各種画像が表示される。   The monitor 75 may be a display mounted on the apparatus main body or a display connected to the main body. A display of a personal computer (hereinafter referred to as “PC”) may be used. A plurality of displays may be used in combination. The monitor 75 may be a touch panel. When the monitor 75 is a touch panel, the monitor 75 functions as an operation unit. Various images including tomographic image data and front image data captured by the OCT optical system 100 are displayed on the monitor 75.

<信号処理方法>
本実施形態におけるOCT信号からモーションコントラストデータを取得するための演算処理方法について説明する。本実施形態において、モーションコントラストデータを取得するために、制御部70は、同じ位置において、時間の異なる少なくとも2フレームの干渉信号(OCT信号)を取得する。
<Signal processing method>
An arithmetic processing method for acquiring motion contrast data from the OCT signal in this embodiment will be described. In this embodiment, in order to acquire motion contrast data, the control unit 70 acquires at least two frames of interference signals (OCT signals) having different times at the same position.

本実施形態において、制御部70は、ドップラー位相差法に関する処理と、ベクトル差分法に関する処理と、を行うことによって、複数のOCT信号からモーションコントラストデータ(例えば、二次元モーションコントラストデータ)を取得する。複素OCT信号を処理する方法としては、例えば、複素OCT信号の位相差を算出する方法、複素OCT信号のベクトル差分を算出する方法、複素OCT信号の位相差及びベクトル差分を掛け合わせる方法などが考えられる。本実施形態では、位相差とベクトル差分を掛け合わせる方法を例に説明する。   In the present embodiment, the control unit 70 acquires motion contrast data (for example, two-dimensional motion contrast data) from a plurality of OCT signals by performing processing related to the Doppler phase difference method and processing related to the vector difference method. . As a method of processing the complex OCT signal, for example, a method of calculating a phase difference of the complex OCT signal, a method of calculating a vector difference of the complex OCT signal, a method of multiplying the phase difference and the vector difference of the complex OCT signal, and the like are considered. It is done. In the present embodiment, a method of multiplying a phase difference and a vector difference will be described as an example.

初めに、制御部70は、OCT光学系100を制御して、OCT信号を取得する。制御部70は、OCT光学系100によって取得されたOCT信号をフーリエ変換する。制御部70は、フーリエ変換によって、複素OCT信号を得る。複素OCT信号は、実数成分と虚数成分とを含む。   First, the control unit 70 controls the OCT optical system 100 to acquire an OCT signal. The control unit 70 performs Fourier transform on the OCT signal acquired by the OCT optical system 100. The control unit 70 obtains a complex OCT signal by Fourier transform. The complex OCT signal includes a real component and an imaginary component.

血流信号を得るには、時間が異なる同じ位置の画像を比較することが必要である。このため、制御部70は、画像情報を基に画像の位置合わせをすることが好ましい。イメージのレジストレーションは、複数のイメージを揃えて配置するプロセスである。イメージの位置がずれる原因として、例えば、撮影中の被検眼の動き(例えば、固視微動、調節微動、拍動等)等が考えられる。なお、フレーム間の位置合わせをしても、同じ画像内でAスキャンライン間に位相ずれが生じる場合がある。したがって、位相補正を行うことが好ましい。なお、レジストレーション及び位相補正の処理は、本実施形態の処理を行いやすくするためのものであり、必須ではない。   In order to obtain a blood flow signal, it is necessary to compare images at the same position at different times. For this reason, it is preferable that the control unit 70 aligns images based on image information. Image registration is a process of arranging a plurality of images in alignment. Possible causes of the image position shift include, for example, the movement of the subject's eye during imaging (for example, fixation fine movement, adjustment fine movement, and pulsation). Note that even if alignment between frames is performed, a phase shift may occur between A scan lines in the same image. Therefore, it is preferable to perform phase correction. Note that the registration and phase correction processes are intended to facilitate the process of the present embodiment, and are not essential.

次に、制御部70は、同じ位置の少なくとも2つ以上の異なる時間に取得された複素OCT信号に対して、位相差を算出する。制御部70は、S/N比(信号雑音比)が低い領域に存在するランダムな位相差を取り除く。   Next, the control unit 70 calculates a phase difference with respect to the complex OCT signal acquired at least two or more different times at the same position. The controller 70 removes a random phase difference that exists in a region where the S / N ratio (signal-to-noise ratio) is low.

制御部70は、位相差の小さい部分を取り除く。これは、NFL(神経線維層)などの高反射部からの反射信号を取り除くためである。これによって、高反射部からの信号なのか、血管からの信号なのか、区別し易くなる。本実施形態においては、位相差を算出したフレームが1つ取得される。なお、位相差を算出したフレームが複数ある場合には、制御部70は、上記の処理を施したフレームの信号を加算平均処理し、ノイズを除去するとよりよい。もちろん、ノイズ除去処理をしない構成であってもよい。   The controller 70 removes a portion having a small phase difference. This is to remove a reflection signal from a highly reflective portion such as NFL (nerve fiber layer). This makes it easy to distinguish whether the signal is from a highly reflective part or from a blood vessel. In the present embodiment, one frame for which the phase difference is calculated is acquired. When there are a plurality of frames for which the phase difference has been calculated, it is better that the control unit 70 performs an averaging process on the signals of the frames subjected to the above processing to remove noise. Of course, a configuration without noise removal processing may be used.

次いで、制御部70は、複素OCT信号のベクトル差分を算出する。例えば、OCT光学系によって検出された複素OCT信号のベクトル差分を算出する。例えば、複素OCT信号は、複素平面上のベクトルとして表すことができる。そこで、異なる時間における同じ位置での2つの信号を検出し、ベクトル差分を算出することで、被検眼内の造影画像データを生成する。なお、ベクトル差分を画像化する場合、例えば、差分の大きさの他に、位相情報に基づいて画像化を行ってもよい。本実施形態においては、ベクトル差分を算出したフレームが1つ取得される。なお、ベクトル差分を算出したフレームが複数ある場合には、制御部70は、上記の処理を施したフレームの信号を加算平均処理し、ノイズを除去するとよりよい。   Next, the control unit 70 calculates a vector difference of the complex OCT signal. For example, the vector difference of the complex OCT signal detected by the OCT optical system is calculated. For example, a complex OCT signal can be represented as a vector on the complex plane. Therefore, by detecting two signals at the same position at different times and calculating a vector difference, contrast image data in the eye to be examined is generated. In addition, when imaging a vector difference, you may image based on phase information other than the magnitude | size of a difference, for example. In the present embodiment, one frame for which the vector difference is calculated is acquired. When there are a plurality of frames for which the vector difference is calculated, it is better that the control unit 70 performs an averaging process on the signal of the frame subjected to the above-described processing to remove noise.

制御部70は、ベクトル差分の算出結果に、位相差の算出結果をフィルタとして用いる。なお、本実施形態の説明において、「フィルタを掛ける」とは、例えば、ある数値に重み付けを行うことである。例えば、制御部70は、ベクトル差分の算出結果に、位相差の算出結果を掛けることで重み付けを行う。つまり、位相差の小さい部分のベクトル差分は、弱められ、位相差の大きい部分のベクトル差分は、強められる。これによって、ベクトル差分の算出結果は、位相差の算出結果によって重み付けされる。また、例えば、重み付けとしては、閾値を設けて、ある位相差が閾値未満の部分のベクトル差分を弱め、閾値以上の位相差は補正しないような非線形に重み付けをする構成であってもよい。   The control unit 70 uses the phase difference calculation result as a filter for the vector difference calculation result. In the description of the present embodiment, “filtering” means, for example, weighting a certain numerical value. For example, the control unit 70 performs weighting by multiplying the calculation result of the vector difference by the calculation result of the phase difference. That is, the vector difference of the portion having a small phase difference is weakened, and the vector difference of the portion having a large phase difference is strengthened. Thereby, the calculation result of the vector difference is weighted by the calculation result of the phase difference. Further, for example, the weighting may be a non-linear weighting by providing a threshold, weakening a vector difference in a portion where a certain phase difference is less than the threshold, and not correcting a phase difference greater than or equal to the threshold.

なお、本実施形態の処理において、制御部70は、例えば、ベクトル差分の算出結果と、位相差の算出結果を掛け合わせる。これによって、制御部70は位相差の算出結果によって重み付けされた二次元モーションコントラストデータを生成する。   In the process of the present embodiment, the control unit 70 multiplies the vector difference calculation result and the phase difference calculation result, for example. Thus, the control unit 70 generates two-dimensional motion contrast data weighted by the phase difference calculation result.

ベクトル差分の算出結果と、位相差の算出結果を掛け合わせることによって、それぞれの測定方法のデメリットを打ち消すことができ、上手く血管部の画像データを取得することができる。   By multiplying the calculation result of the vector difference and the calculation result of the phase difference, the disadvantages of the respective measurement methods can be negated, and the image data of the blood vessel part can be successfully acquired.

制御部70は、各走査ラインに上記演算処理を行い、各走査ラインにおける二次元モーションコントラストデータを取得する。そして、これらの複数の位置で、二次元モーションコントラストデータを取得することによって、疑似的な血管造影画像として用いられる正面モーションコントラストデータを取得することができる。   The control unit 70 performs the above arithmetic processing on each scanning line, and acquires two-dimensional motion contrast data in each scanning line. Then, by acquiring two-dimensional motion contrast data at these multiple positions, it is possible to acquire frontal motion contrast data used as a pseudo angiographic image.

なお、本実施形態においては、制御部70は、モーションコントラストデータを取得するために、ベクトル差分の算出結果と位相差の算出結果とを掛け合わせる構成を例に挙げて説明したが、これに限定されない。例えば、モーションコントラストデータは、ベクトル差分の算出結果を用いて取得されてもよい。また、例えば、モーションコントラストデータは、位相差の算出結果を用いて取得されてもよい。また、例えば、モーションコントラストデータは、振幅の差分結果、Amplitude-decorrelation、Speckle variance、Phase variance等によって取得されてもよい。   In the present embodiment, the control unit 70 has been described by taking as an example a configuration in which the vector difference calculation result and the phase difference calculation result are multiplied in order to obtain motion contrast data. However, the present invention is not limited to this. Not. For example, the motion contrast data may be acquired using a vector difference calculation result. Further, for example, the motion contrast data may be acquired using a phase difference calculation result. Further, for example, the motion contrast data may be acquired by an amplitude difference result, Amplitude-decorrelation, Speckle variance, Phase variance, or the like.

なお、本実施形態においては、制御部70は、2つのOCT信号を用いて、モーションコントラストデータを取得する構成を例に挙げて説明したがこれに限定されない。モーションコントラストデータは、2つ以上のOCT信号によって取得される構成であってもよい。   In the present embodiment, the control unit 70 has been described with an example of a configuration in which motion contrast data is acquired using two OCT signals, but is not limited thereto. The motion contrast data may be acquired by two or more OCT signals.

<撮影動作>
以下、OCTデバイス1を用いた一連の撮影動作について説明する。図3は、OCTデータを処理するときの制御動について説明するフローチャートを示している。なお、以下の説明については、正面モーションコントラストデータを取得する場合を例に挙げて説明する。もちろん、本発明に開示の技術は、モーションコントラストデータを取得する際に適用することができる。例えば、一次元モーションコントラストデータを取得する場合や二次元モーションコントラストデータを取得する場合等に適用することができる。
<Shooting operation>
Hereinafter, a series of imaging operations using the OCT device 1 will be described. FIG. 3 shows a flowchart for explaining the control operation when processing the OCT data. Note that the following description will be given taking as an example the case of acquiring front motion contrast data. Of course, the technique disclosed in the present invention can be applied when obtaining motion contrast data. For example, it can be applied to the case where one-dimensional motion contrast data is acquired or the case where two-dimensional motion contrast data is acquired.

初めに、検者は、固視標投影ユニット300の固視標を注視するように被検者に指示した後、図示無き前眼部観察用カメラで撮影される前眼部観察像をモニタ75で見ながら、被検眼の瞳孔中心に測定光軸がくるように、操作部76(例えば、図示無きジョイスティック)を用いて、アライメント操作を行う。   First, the examiner instructs the subject to gaze at the fixation target of the fixation target projection unit 300, and then monitors an anterior ocular segment observation image captured by an anterior ocular segment observation camera (not shown) on the monitor 75. , An alignment operation is performed using an operation unit 76 (for example, a joystick (not shown)) so that the measurement optical axis comes to the center of the pupil of the eye to be examined.

例えば、アライメント操作が完了すると、制御部70は、OCT光学系100を制御し、設定された領域に対応する三次元OCT画像データを取得する。また、制御部70は、正面観察光学系200を制御し、眼底画像データ(眼底正面画像データ)を取得する。そして、制御部70は、OCT光学系100によって三次元OCT画像データ、正面観察光学系200によって眼底画像データを随時取得する。なお、三次元OCT画像データには、XY方向に関して二次元的にAスキャン信号を並べた画像データ、三次元グラフィック画像、などが含まれる。   For example, when the alignment operation is completed, the control unit 70 controls the OCT optical system 100 and acquires three-dimensional OCT image data corresponding to the set region. Further, the control unit 70 controls the front observation optical system 200 to acquire fundus image data (fundus front image data). Then, the control unit 70 acquires three-dimensional OCT image data by the OCT optical system 100 and fundus image data by the front observation optical system 200 as needed. The three-dimensional OCT image data includes image data in which A scan signals are arranged two-dimensionally in the XY directions, a three-dimensional graphic image, and the like.

検者は、正面観察光学系200の眼底正面像を用いて、走査位置を設定する。そして、操作部76から撮影開始の信号が出力されると、制御部70は、光スキャナ108の動作を制御し、撮像領域に対応する走査範囲において測定光をXY方向に二次元的に走査させることにより三次元モーションコントラストデータの取得を開始する。なお、走査パターンとして、例えば、ラスタースキャン、複数のラインスキャン、サークル状、屈折のある形状、屈曲のある形状、等が考えられる。   The examiner sets the scanning position using the fundus front image of the front observation optical system 200. Then, when a photographing start signal is output from the operation unit 76, the control unit 70 controls the operation of the optical scanner 108 to cause the measurement light to scan two-dimensionally in the XY directions within a scanning range corresponding to the imaging region. Thus, the acquisition of 3D motion contrast data is started. As the scanning pattern, for example, a raster scan, a plurality of line scans, a circle shape, a refraction shape, a bent shape, and the like are conceivable.

<OCT信号取得(S1)>
例えば、撮影開始の信号が出力されると、制御部70は、正面モーションコントラストデータを取得するために、光スキャナ108の駆動を制御し、眼底上で測定光を走査させる。例えば、撮影開始の信号の出力に応じて、制御部70は、設定されたフレームレートにてOCT信号を取得するために、OCT光学系100を制御する。なお、OCT信号を得るフレームレートは、OCT信号の取得開始前後で変更してもよいし、変更しなくてもよい。
<OCT signal acquisition (S1)>
For example, when an imaging start signal is output, the control unit 70 controls driving of the optical scanner 108 and scans the measurement light on the fundus in order to acquire frontal motion contrast data. For example, according to the output of the imaging start signal, the control unit 70 controls the OCT optical system 100 in order to acquire the OCT signal at the set frame rate. Note that the frame rate for obtaining the OCT signal may or may not be changed before and after the acquisition of the OCT signal.

図4は、本実施形態の撮影について説明するための模式図である。制御部70は、同一の走査位置(同一の部位)で複数のOCT信号を取得する。なお、同一の走査位置とは、完全に同一な走査位置である必要はなく、略同一の走査位置で走査されるものであってもよい。このため、制御部70は、眼底上の同一の走査位置での走査を繰り返す。このような複数の走査によって、制御部70は、同一の走査位置における複数のOCT信号を取得できる。   FIG. 4 is a schematic diagram for explaining photographing according to the present embodiment. The control unit 70 acquires a plurality of OCT signals at the same scanning position (the same part). The same scanning position does not have to be completely the same scanning position, and may be scanned at substantially the same scanning position. For this reason, the control unit 70 repeats scanning at the same scanning position on the fundus. By such a plurality of scans, the control unit 70 can obtain a plurality of OCT signals at the same scan position.

図4に示すように、例えば、制御部70は、走査位置(走査ライン)S1,S2,・・・,Snに沿ってX方向に測定光を走査させる。例えば、第1の走査位置S1に沿ってX方向に測定光を走査させる。このように、XY方向のいずれかの方向(例えば、X方向)に測定光を走査させることを「Bスキャン」と呼ぶ。以下、1フレームの干渉信号とは、1回のBスキャンによって得られたOCT信号として説明する。制御部70は、走査中に検出器120によって検出されたOCT信号を取得する。なお、図4において、Z軸の方向は、測定光の光軸の方向とする。X軸の方向は、Z軸に垂直かつ左右の方向とする。Y軸の方向は、Z軸に垂直かつ上下の方向とする。   As shown in FIG. 4, for example, the control unit 70 scans the measurement light in the X direction along the scanning positions (scanning lines) S1, S2,. For example, the measurement light is scanned in the X direction along the first scanning position S1. Scanning the measurement light in any one of the XY directions (for example, the X direction) in this way is called “B scan”. Hereinafter, the one-frame interference signal is described as an OCT signal obtained by one B-scan. The control unit 70 acquires the OCT signal detected by the detector 120 during scanning. In FIG. 4, the direction of the Z axis is the direction of the optical axis of the measurement light. The direction of the X axis is a direction perpendicular to the Z axis and left and right. The direction of the Y axis is assumed to be perpendicular to the Z axis and up and down.

1回目の走査が完了すると、制御部70は、1回目と同じ位置で2回目の走査を行う。例えば、制御部70は、図4に示す第1の走査ラインS1に沿って測定光を走査させた後、再び測定光を走査させる。制御部70は、2回目の走査中に検出器120によって検出されたOCT信号を取得する。これによって、制御部70は、同一の走査位置における時間の異なる2フレームのOCT信号を取得することができる。例えば、制御部70は、同一の走査位置において、繰り返しOCT信号を取得し、4フレームのOCT信号を取得する。なお、本実施形態においては、同一の走査位置において、4フレームのOCT信号を取得する構成を例に挙げて説明するが、これに限定されない。同じ位置において、少なくとも2フレームのOCT信号が取得される構成であればよい。例えば、同じ位置での走査を8回繰り返し、時間の異なる連続する8フレームのOCT信号を取得するようにしてもよいし、同じ位置での走査を2回繰り返し、時間の異なる2フレームのOCT信号を取得するようにしてもよい。   When the first scan is completed, the control unit 70 performs the second scan at the same position as the first scan. For example, the control unit 70 scans the measurement light again after scanning the measurement light along the first scanning line S1 shown in FIG. The controller 70 acquires the OCT signal detected by the detector 120 during the second scan. Thus, the control unit 70 can acquire two frames of OCT signals at different times at the same scanning position. For example, the control unit 70 repeatedly acquires an OCT signal and acquires a 4-frame OCT signal at the same scanning position. In the present embodiment, a configuration in which an OCT signal of 4 frames is acquired at the same scanning position is described as an example, but the present invention is not limited to this. It suffices if the OCT signal of at least two frames is acquired at the same position. For example, the scanning at the same position may be repeated 8 times to acquire continuous 8 frames of OCT signals at different times, or the scanning at the same position may be repeated 2 times to obtain 2 frames of OCT signals at different times. May be obtained.

なお、1回の走査で、時間の異なる同じ位置のOCT信号を取得することができる場合は、2回目の走査を行わなくてもよい。例えば、所定間隔だけ光軸のずれた2つの測定光を1度に走査させる場合、複数回走査する必要はなく、被検眼内の同じ位置における時間の異なるOCT信号を取得することができればよい。すなわち、同じ位置とは、完全に同一な位置である必要はなく、実質的に同じ位置で走査されるものであってもよい。なお、2つの測定光を1度に走査させる場合、2つの測定光の間隔によって任意の血流速度を目標として検出できる。   Note that if the OCT signal at the same position at different times can be acquired by one scan, the second scan may not be performed. For example, when two measurement lights whose optical axes are shifted by a predetermined interval are scanned at a time, it is not necessary to scan a plurality of times, and it is only necessary to obtain OCT signals having different times at the same position in the eye to be examined. That is, the same position does not need to be completely the same position, and may be scanned at substantially the same position. When two measurement lights are scanned at a time, an arbitrary blood flow velocity can be detected as a target by the interval between the two measurement lights.

<正面画像取得>
一方、撮影開始の信号の出力に応じて、制御部70は、正面画像を繰り返し得るため、正面観察光学系200を制御する。制御部70は、複数のOCT信号が取得されている間、正面画像の取得動作を繰り返す。このような制御により、制御部70は、OCT信号が取得されている間の眼の移動(動き)を監視する。例えば、制御部70は、正面観察光学系200の作動により眼底正面からの反射光を受光する。制御部70は、受光された反射光を処理することにより正面画像を取得する。なお、本実施形態において、例えば、正面画像は、15°〜40°程度の画角にて、取得される。もちろん、画角はこれに限定されない。制御部70は、取得された複数の正面画像を随時メモリ72に記憶させる。以上のように、制御部70は、正面画像の取得とOCT信号の取得を並行させる。
<Front image acquisition>
On the other hand, the control unit 70 controls the front observation optical system 200 in order to repeatedly obtain the front image in response to the output of the imaging start signal. The control unit 70 repeats the front image acquisition operation while a plurality of OCT signals are acquired. With such control, the control unit 70 monitors the movement (movement) of the eye while the OCT signal is acquired. For example, the control unit 70 receives reflected light from the front of the fundus by the operation of the front observation optical system 200. The control unit 70 acquires a front image by processing the received reflected light. In the present embodiment, for example, the front image is acquired at an angle of view of about 15 ° to 40 °. Of course, the angle of view is not limited to this. The controller 70 stores the acquired plurality of front images in the memory 72 as needed. As described above, the control unit 70 makes the acquisition of the front image and the acquisition of the OCT signal in parallel.

<正面モーションコントラストデータの取得(S2)>
制御部70は、上記のようにOCT信号を取得すると、複数のOCT信号を処理して被検眼眼底におけるモーションコントラストデータ(本実施形態においては、正面モーションコントラストデータ)を取得する。なお、正面モーションコントラストデータは、複数のOCT信号を処理して取得される三次元モーションコントラストデータに基づいて取得される。
<Acquisition of front motion contrast data (S2)>
When acquiring the OCT signal as described above, the control unit 70 processes a plurality of OCT signals to acquire motion contrast data (frontal motion contrast data in the present embodiment) on the fundus of the eye to be examined. The front motion contrast data is acquired based on three-dimensional motion contrast data acquired by processing a plurality of OCT signals.

より詳細には、例えば、正面モーションコントラストデータを取得する場合、制御部70は、三次元モーションコントラストデータを深さ方向に関して積算することによって、正面モーションコントラストデータを取得する。もちろん、正面モーションコントラストデータは、XY各位置でのスペクトルデータの積算、ある一定の深さ方向におけるXY各位置での輝度データの抽出等によって、取得されてもよい。なお、例えば、正面モーションコントラストデータとしては、所定の深さ領域において取得される構成であってもよい。例えば、所定の深さ領域における正面モーションコントラストデータとは、三次元モーションコントラストデータの深さ方向の全領域(例えば、各網膜層の全層間)、三次元モーションコントラストデータの深さ方向の一部の領域(例えば、各網膜層の内の少なくとも1つの層、又は、各網膜層の内の複数の層間)等において、取得される正面モーションコントラストデータが挙げられる。   More specifically, for example, when acquiring the front motion contrast data, the control unit 70 acquires the front motion contrast data by integrating the three-dimensional motion contrast data in the depth direction. Of course, the front motion contrast data may be acquired by integrating spectral data at each XY position, extracting luminance data at each XY position in a certain depth direction, and the like. For example, the front motion contrast data may be acquired in a predetermined depth region. For example, the front motion contrast data in a predetermined depth area includes all areas in the depth direction of the 3D motion contrast data (for example, all layers of each retinal layer), a part of the depth direction of the 3D motion contrast data. In the region (for example, at least one layer in each retinal layer or a plurality of layers in each retinal layer) and the like.

<血管強調画像データ生成(S3)>
また、例えば、制御部70は、複数のOCT信号が取得されている間に取得されている正面画像(正面観察光学系200によって取得された正面画像)に基づいて血管強調画像データ(以下、血管強調画像データと記載)を取得する(S3)。もちろん、血管強調画像データは、生成された画像のデータであってもよいし、画像が生成される前の信号データであってもよい。
<Generation of blood vessel enhanced image data (S3)>
Further, for example, the control unit 70 acquires blood vessel emphasized image data (hereinafter referred to as a blood vessel) based on a front image (a front image acquired by the front observation optical system 200) acquired while a plurality of OCT signals are acquired. (Denoted as enhanced image data) is acquired (S3). Of course, the blood vessel emphasized image data may be data of a generated image or signal data before an image is generated.

以下、血管強調画像データの取得について、より詳細に説明する。例えば、制御部70は、被検眼上において第1正面画像データ(以下、第1正面画像と記載)を取得するとともに、第1正面画像を取得した部位と共通する部位を含む第2正面画像データ(以下、第2正面画像と記載)を取得する。例えば、第1正面画像と第2正面画像は、異なる時間に同一部位において取得される。例えば、第1正面画像を取得した後、第2正面画像を取得する間までの時間は、血流が抽出できる時間で設定されるようにすればよい。   Hereinafter, acquisition of blood vessel emphasized image data will be described in more detail. For example, the control unit 70 acquires first front image data (hereinafter, referred to as a first front image) on the eye to be examined, and second front image data including a part common to the part from which the first front image is acquired. (Hereinafter referred to as a second front image). For example, the first front image and the second front image are acquired at the same site at different times. For example, the time from when the first front image is acquired to when the second front image is acquired may be set to a time during which blood flow can be extracted.

図5は、血管強調画像データの生成について説明する図である。本実施形態において、第1正面画像F1を取得した部位と共通する部位を含む第2正面画像F2としては、第1正面画像F1を取得した被検眼上の部位と同一部位において取得する。すなわち、第1正面画像F1と第2正面画像F2とを、同一の撮影範囲、同一の撮影部位にて撮影する。なお、本実施形態において、同一とは完全に同一である必要はなく、略同一であってもよい。なお、第2正面画像F2としては、第1正面画像F1を取得した部位と共通する部位を含むように取得される構成であればよい。例えば、第1正面画像F1と第2正面画像F2の撮影範囲が異なる(例えば、撮影画角が異なる等)構成、第1正面画像F1と第2正面画像F2との撮影部位がずれて撮影されている構成等であってもよい。   FIG. 5 is a diagram for explaining generation of blood vessel emphasized image data. In the present embodiment, the second front image F2 including the part common to the part from which the first front image F1 is acquired is acquired at the same part as the part on the eye to be examined from which the first front image F1 was acquired. That is, the first front image F1 and the second front image F2 are imaged in the same imaging range and the same imaging region. In the present embodiment, the same need not be completely the same, and may be substantially the same. Note that the second front image F2 may be a configuration acquired so as to include a part common to the part from which the first front image F1 is acquired. For example, the first front image F1 and the second front image F2 have different shooting ranges (for example, different shooting angles of view), and the first front image F1 and the second front image F2 are shot at different positions. The structure etc. which are may be sufficient.

制御部70は、第1正面画像F1と、第2正面画像F2と、を比較処理して、第1正面画像F1と第2正面画像F2とで共通する部位の少なくとも一部における血管強調画像データ(以下、血管強調画像と記載)を含む第3正面画像データ(以下、第3正面画像と記載)F3を基準画像データ(以下、基準画像と記載)として生成する。もちろん、各画像データは、画像データであってもよいし、信号データであってもよい。   The control unit 70 compares the first front image F1 and the second front image F2, and the blood vessel emphasized image data in at least a part of the portion common to the first front image F1 and the second front image F2. Third front image data (hereinafter referred to as a third front image) F3 including the following (described as a blood vessel emphasized image) is generated as reference image data (hereinafter referred to as a reference image). Of course, each image data may be image data or signal data.

例えば、本実施形態において、制御部70は、第1正面画像F1と第2正面画像F2とで共通する部分全体において、血管強調画像を取得する。なお、血管強調画像を取得する構成としてはこれに限定されない。血管強調画像を取得する構成としては、第1正面画像F1と第2正面画像F2とで共通する部位の少なくとも一部において取得される構成であればよい。例えば、血管強調画像を取得する構成としては、第1正面画像F1と第2正面画像F2とで共通する部位の一部において取得される構成であってもよい。この場合、例えば、第1正面画像F1と第2正面画像F2の共通の部位の内、一部の部位の画像データを比較処理して、一部の部位の血管強調画像を取得する。
なお、本実施形態において、第3正面画像F3全体が血管強調画像となる。すなわち、本実施形態において、同一部位において取得された、第1正面画像F1全体と第2正面画像F2全体とを比較処理することによって、画像全体が血管強調画像である第3正面画像F3を取得する。もちろん、第3正面画像F3としては、画像上の一部に血管強調画像が含まれる構成であってもよい。この場合、第3正面画像F3の内、一部が血管強調画像であり、他の部分は、第1正面画像F1等の画像データが用いられる。もちろん、血管強調画像を除いた画像領域において、第1正面画像F1及び第2正面画像F2に基づいて取得された画像を用いてもよい。例えば、第1正面画像F1と第2正面画像F2とで加算平均処理された加算平均画像が用いられる構成であってもよい。
For example, in the present embodiment, the control unit 70 acquires a blood vessel emphasized image in the entire portion common to the first front image F1 and the second front image F2. The configuration for acquiring the blood vessel emphasized image is not limited to this. The configuration for acquiring the blood vessel emphasized image may be a configuration acquired at least at a part of the common part between the first front image F1 and the second front image F2. For example, the configuration for acquiring the blood vessel emphasized image may be a configuration acquired in a part of a common part between the first front image F1 and the second front image F2. In this case, for example, image data of a part of the common parts of the first front image F1 and the second front image F2 are compared, and a blood vessel emphasized image of the part is acquired.
In the present embodiment, the entire third front image F3 is a blood vessel emphasized image. That is, in the present embodiment, the entire first front image F1 and the entire second front image F2 acquired at the same site are compared to obtain a third front image F3 whose entire image is a blood vessel emphasized image. To do. Of course, the third front image F3 may have a configuration in which a blood vessel emphasized image is included in a part of the image. In this case, part of the third front image F3 is a blood vessel emphasized image, and image data such as the first front image F1 is used for the other part. Of course, images acquired based on the first front image F1 and the second front image F2 may be used in the image region excluding the blood vessel emphasized image. For example, a configuration may be used in which an averaged image obtained by performing an averaging process on the first front image F1 and the second front image F2 is used.

本実施形態において、第3正面画像F3は、各種制御、各種設定を行うための基準画像として用いられる。例えば、第3正面画像F3は、他の正面画像を位置合わせする基準となる基準画像(テンプレート)として用いられる。この場合、例えば、第3正面画像F3は、正面モーションコントラストデータの補正のための基準画像として用いられる。また、例えば、第3正面画像F3は、OCT光学系100による断層画像データの取得位置(走査位置)の設定、確認等を行うための画像として用いられる。なお、本実施形態においては、上記のように取得された正面モーションコントラストデータを補正するための基準画像として第3正面画像F3が用いられる(詳細は後述する)。   In the present embodiment, the third front image F3 is used as a reference image for performing various controls and various settings. For example, the third front image F3 is used as a reference image (template) serving as a reference for aligning other front images. In this case, for example, the third front image F3 is used as a reference image for correcting the front motion contrast data. Further, for example, the third front image F3 is used as an image for performing setting, confirmation, etc. of the acquisition position (scanning position) of tomographic image data by the OCT optical system 100. In the present embodiment, the third front image F3 is used as a reference image for correcting the front motion contrast data acquired as described above (details will be described later).

<正面画像の比較処理>
以下、より詳細に第3正面画像F3を取得する比較処理について説明する。本実施形態において、比較処理として、統計処理を用いることによって、第3正面画像(本実施形態においては、血管強調画像)F3を取得する。より詳細には、例えば、制御部70は、比較処理として、第1正面画像F1と、第2正面画像F2と、の輝度値の比率から輝度値の時間的な変化を取得し、取得した輝度値の変化に基づいて、血管強調画像を含む第3正面画像F3を基準画像として生成する。なお、血管強調画像を生成する場合、少なくとも2フレーム以上の正面画像に基づいて生成することができる。
<Comparison processing of front images>
Hereinafter, the comparison process for acquiring the third front image F3 will be described in more detail. In the present embodiment, the third front image (in this embodiment, the blood vessel emphasized image) F3 is acquired by using statistical processing as the comparison processing. More specifically, for example, as a comparison process, the control unit 70 acquires a temporal change in the luminance value from the ratio of the luminance values of the first front image F1 and the second front image F2, and acquires the acquired luminance. Based on the change in value, the third front image F3 including the blood vessel emphasized image is generated as a reference image. Note that when generating a blood vessel emphasized image, it can be generated based on a front image of at least two frames.

例えば、制御部70は、第1正面画像F1及び第2正面画像F2の各画素位置における輝度値を算出する。次いで、制御部70は、第1正面画像F1上の所定の画素位置における輝度値と、第1正面画像F1上の所定の画素位置に対応する第2正面画像F2上の所定の画素位置における輝度値と、の比率を、各画素位置においてそれぞれ算出する。つまり、制御部70は、同一の撮影位置における第1正面画像F1の画素の輝度値と、第2正面画像F2の画素の輝度値と、の比率を、各画素位置においてそれぞれ算出する。なお、本実施形態において、第1正面画像F1と第2正面画像F2は同一部位にて取得されているため、位置合わせ処理を必要としない。例えば、第1正面画像F1と第2正面画像F2とが同一部位にて取得されていない場合に、第1正面画像F1と第2正面画像F2とを位置合わせした後、処理を開始する構成であってもよい。   For example, the control unit 70 calculates the luminance value at each pixel position of the first front image F1 and the second front image F2. Next, the control unit 70 determines the luminance value at the predetermined pixel position on the first front image F1 and the luminance at the predetermined pixel position on the second front image F2 corresponding to the predetermined pixel position on the first front image F1. The ratio of the value is calculated at each pixel position. That is, the control unit 70 calculates the ratio between the luminance value of the pixel of the first front image F1 and the luminance value of the pixel of the second front image F2 at the same shooting position at each pixel position. In the present embodiment, since the first front image F1 and the second front image F2 are acquired at the same site, no alignment process is required. For example, when the 1st front image F1 and the 2nd front image F2 are not acquired in the same site | part, after aligning the 1st front image F1 and the 2nd front image F2, it is the structure which starts a process. There may be.

例えば、第1正面画像F1上の所定の画素位置(x、y)における輝度値Iと、第1の正面画像F1上の所定の画素位置に対応する第2正面画像F2上の所定の画素位置(x、y)における輝度値Iと、の比率Dは以下の式(1)によって算出される。式(1)中におけるIは輝度値を示している。なお、以下の式(1)では、j番目に取得された正面画像と、j番目の次(j+1番目)に取得された正面画像と、の輝度値の比率Dの算出を例に挙げている。 For example, a given pixel position on the first front image F1 (x, y) and luminance value I 1 at the predetermined pixel on the second front image F2 corresponding to a predetermined pixel positions on the first front image F1 The ratio D between the luminance value I 2 at the position (x, y) is calculated by the following equation (1). I in the formula (1) indicates a luminance value. In the following formula (1), the calculation of the ratio D of luminance values between the jth front image acquired and the jth next (j + 1) front image is taken as an example. .

Figure 2017046975
なお、血管強調画像を生成するための正面画像として、第1正面画像F1と第2正面画像F2の他に複数の正面画像が存在する場合(少なくとも4フレームの正面画像を取得している場合)、制御部70は、以下の平均化処理及び標準偏差算出を行ってもよい。例えば、制御部70は、各正面画像において、その前後に取得された正面画像との比率をそれぞれ算出する。制御部70は、各正面画像にて取得された比率において、前後の比率の平均値をそれぞれ算出する。
Figure 2017046975
In addition, when there are a plurality of front images in addition to the first front image F1 and the second front image F2 as front images for generating a blood vessel emphasized image (when a front image of at least 4 frames is acquired). The control unit 70 may perform the following averaging process and standard deviation calculation. For example, the control unit 70 calculates the ratio of each front image to the front images acquired before and after that. The control unit 70 calculates the average value of the ratios before and after the ratio acquired in each front image.

より詳細には、例えば、4フレームの正面画像を取得し、4フレームの正面画像に基づいて、血管強調画像を生成する場合、制御部70は、1番目に取得された正面画像と、2番目に取得された正面画像と、の輝度値の比率D1を算出する。また、2番目に取得された正面画像と、3番目に取得された正面画像と、の輝度値の比率D2を算出する。また、3番目に取得された正面画像と、4番目に取得された正面画像と、の輝度値の比率D3を算出する。次いで、制御部70は、前後の比率(上記の場合、比率D1と比率D2、比率D2と比率D3)を平均化処理して、平均値をそれぞれ算出する。制御部70は、比率D1と比率D2を平均化処理し、平均値M1を算出する。また、制御部70は、比率D2と比率D3を平均化処理し、平均値M2を算出する。すなわち、例えば、8フレームの正面画像を取得し、血管強調画像を生成する場合には、7つの比率D1〜D7が算出され、7つの比率から6つの平均値M1〜M6が算出される。なお、平均値は、以下の式(2)によって算出される。式(2)中におけるMは平均値を示している。   More specifically, for example, when acquiring a front image of four frames and generating a blood vessel emphasized image based on the front image of four frames, the control unit 70 determines that the first acquired front image, The ratio D1 of the luminance value between the acquired front image and the front image is calculated. Further, a luminance value ratio D2 between the front image acquired second and the front image acquired third is calculated. Further, a luminance value ratio D3 between the third acquired front image and the fourth acquired front image is calculated. Next, the control unit 70 averages the front and rear ratios (in the above case, the ratio D1 and the ratio D2, the ratio D2 and the ratio D3), and calculates the average value. The controller 70 averages the ratio D1 and the ratio D2, and calculates an average value M1. In addition, the control unit 70 averages the ratio D2 and the ratio D3, and calculates an average value M2. That is, for example, when a front image of 8 frames is acquired and a blood vessel emphasized image is generated, seven ratios D1 to D7 are calculated, and six average values M1 to M6 are calculated from the seven ratios. The average value is calculated by the following equation (2). M in Formula (2) has shown the average value.

Figure 2017046975
制御部70は、平均値が算出されると、算出した平均値の標準偏差を求める。すなわち、制御部70は、正面画像上における各画素位置の平均値の標準偏差をそれぞれ算出する。例えば、標準偏差は、以下の式(3)によって算出される。式(3)におけるNは、正面画像のフレーム数を示しており、Sは標準偏差を示している。
Figure 2017046975
When the average value is calculated, the control unit 70 obtains a standard deviation of the calculated average value. That is, the control unit 70 calculates the standard deviation of the average value of each pixel position on the front image. For example, the standard deviation is calculated by the following equation (3). In Expression (3), N indicates the number of frames of the front image, and S indicates the standard deviation.

Figure 2017046975
各画素位置における標準偏差がそれぞれ算出されると、制御部70は、各画素位置の標準偏差をそれぞれ輝度値に変換処理する。例えば、制御部70は、標準偏差を輝度値(例えば、0〜255の輝度値)に変換する。すなわち、制御部70は、第1の画素位置の標準偏差が10であり、第2の画素位置の標準偏差が100であった場合、第1の画素位置における輝度値を25に変換し、第2の画素位置における輝度値を255に変換する。制御部70は、各画素位置において変換された輝度値に基づいて、画像を生成し、血管部分の強調された血管強調画像(本実施形態においては、第3正面画像F3)を生成する。このように、少なくとも2フレームの正面画像の比較処理に基づいて、より細い血管等が良好に画像化された血管強調画像を含む第3正面画像F3を取得することによって、被検眼のより詳細な状況を確認することが容易となる。
Figure 2017046975
When the standard deviation at each pixel position is calculated, the control unit 70 converts the standard deviation at each pixel position into a luminance value. For example, the control unit 70 converts the standard deviation into a luminance value (for example, a luminance value from 0 to 255). That is, when the standard deviation of the first pixel position is 10 and the standard deviation of the second pixel position is 100, the control unit 70 converts the luminance value at the first pixel position to 25, The luminance value at the pixel position of 2 is converted to 255. The control unit 70 generates an image based on the luminance value converted at each pixel position, and generates a blood vessel emphasized image (the third front image F3 in the present embodiment) of the blood vessel portion. As described above, by acquiring the third front image F3 including the blood vessel emphasized image in which the finer blood vessels and the like are well imaged based on the comparison process of the front images of at least two frames, more detailed of the eye to be examined is obtained. It becomes easy to check the situation.

なお、上記説明においては、標準偏差を輝度値に変換することによって、血管強調画像を生成する構成を例に挙げたがこれに限定されない。例えば、比率を輝度値に変換して血管強調画像を生成してもよい。より詳細には、例えば、2フレームの正面画像に基づいて、血管強調画像を生成する場合、1つの比率が算出(2フレームの正面画像の輝度値から1つの比率が算出)されるため、各画素位置における比率を輝度値に変換することによって、血管強調画像が生成するようにしてもよい。この場合、例えば、2フレームの正面画像の内、輝度値の高いものが分母となるように統一することによって、比率を算出すればよい(比率が1以上の数値に統一できる)。また、例えば、平均値を輝度値に変換して血管強調画像を生成してもよい。より詳細には、例えば、3フレームの正面画像に基づいて、血管強調画像を生成する場合、1つの平均値が算出(2つの比率を算出し、2つの比率に基づいて1つの平均値が算出)されるため、各画素位置における平均値を輝度値に変換することによって、血管強調画像が生成するようにしてもよい。もちろん、平均値又は比率からの変換処理による血管強調画像の生成は、4フレーム以上の正面画像を取得している場合であっても適用できる。例えば、各正面画像に基づいて取得された複数の比率全体から1つの平均値を求め、血管強調画像の生成を行ってもよい。また、各正面画像に基づいて取得された複数の比率又は複数の平均値から適正な比率又は平均値を選択して、血管強調画像の生成を行ってもよい。   In the above description, the configuration in which the blood vessel emphasized image is generated by converting the standard deviation into the luminance value is described as an example, but the present invention is not limited to this. For example, the blood vessel emphasized image may be generated by converting the ratio into a luminance value. More specifically, for example, when generating a blood vessel emphasized image based on a front image of two frames, one ratio is calculated (one ratio is calculated from the luminance value of the front image of two frames). A blood vessel emphasized image may be generated by converting a ratio at a pixel position into a luminance value. In this case, for example, the ratio may be calculated by unifying the two frames of the front image having a high luminance value as the denominator (the ratio can be unified to a numerical value of 1 or more). Further, for example, the blood vessel enhancement image may be generated by converting the average value into the luminance value. More specifically, for example, when generating a blood vessel emphasized image based on a front image of three frames, one average value is calculated (two ratios are calculated, and one average value is calculated based on the two ratios). Therefore, the blood vessel enhancement image may be generated by converting an average value at each pixel position into a luminance value. Of course, the generation of a blood vessel emphasized image by conversion processing from an average value or a ratio can be applied even when a front image of four frames or more is acquired. For example, one average value may be obtained from the entire plurality of ratios acquired based on each front image, and a blood vessel emphasized image may be generated. In addition, a blood vessel emphasized image may be generated by selecting an appropriate ratio or average value from a plurality of ratios or a plurality of average values acquired based on each front image.

なお、本実施形態においては、比較処理として、上記の統計処理を用いる構成を例に挙げて説明したがこれに限定されない。第1正面画像F1と第2正面画像F2とを比較することによって、血流(血管部分)による輝度値の変化量を抽出するための処理方法であればよい。例えば、比較処理として差分処理を用いる構成であってもよい。この場合、例えば、第1正面画像F1の輝度値及び第2正面画像F2の輝度値を検出し、それらの輝度値の差分から血管強調画像を生成する。すなわち、正面画像上において、血管に対応する部分については、血液が流れているため、時間の経過に伴って輝度値が変化する。一方、その他の部位では、輝度値の変化は小さい。このため、輝度値の差分処理を行い、輝度値の時間的な変化を取得することによって、血管強調画像を含む第3正面画像F3を基準画像として生成することができる。   In the present embodiment, the configuration using the statistical processing is described as an example of the comparison processing, but the present invention is not limited to this. Any processing method may be used as long as the first front image F1 and the second front image F2 are compared to extract the amount of change in luminance value due to blood flow (blood vessel portion). For example, a configuration using difference processing as the comparison processing may be used. In this case, for example, the luminance value of the first front image F1 and the luminance value of the second front image F2 are detected, and a blood vessel emphasized image is generated from the difference between the luminance values. That is, in the front image, since the blood flows in the portion corresponding to the blood vessel, the luminance value changes with the passage of time. On the other hand, the change in luminance value is small in other parts. For this reason, the third front image F3 including the blood vessel emphasized image can be generated as the reference image by performing the difference process of the luminance value and acquiring the temporal change of the luminance value.

<正面モーションコントラストデータの補正(S4)>
ここで、例えば、モーションコントラストデータ(本実施形態においては、正面モーションコントラストデータ)を取得する場合、撮影時間が長くなるため、被検眼の瞬きや固視微動等の影響を受けやすく、歪み、データの不連続性(欠損)等が問題となる。本実施形態において、例えば、制御部70は、正面モーションコントラストデータを取得する際に、基準画像をテンプレートとし、正面モーションコントラストデータを構築するための各走査位置でのモーションコントラストデータ(例えば、二次元モーションコントラストデータ)を基準画像に対して位置合わせし、各走査位置におけるモーションコントラストデータの位置ずれを補正する。
<Correction of front motion contrast data (S4)>
Here, for example, when motion contrast data (frontal motion contrast data in the present embodiment) is acquired, the imaging time becomes long, so that it is easily influenced by blinking of the eye to be examined, fixation micromotion, etc., distortion, data Discontinuity (defects) of the problem becomes a problem. In the present embodiment, for example, when acquiring the front motion contrast data, the control unit 70 uses the reference image as a template and motion contrast data (for example, two-dimensional) at each scanning position for constructing the front motion contrast data. Motion contrast data) is aligned with respect to the reference image, and the displacement of the motion contrast data at each scanning position is corrected.

以下、正面モーションコントラストデータの補正処理について説明する。図6は、正面モーションコントラストデータの補正処理動作の一例を示すフローチャートである。図7は、正面モーションコントラストデータA1の一例を示す図である。図7に示されるように、正面モーションコントラストデータA1には、被検眼の瞬きや固視微動等の影響によって、走査位置間で画像の取得位置がずれてしまい、画像内において、画像領域G1〜G4の間でXY方向に位置ずれが生じる。本実施形態においては、X方向のみに位置ずれが生じている場合を例に挙げて説明する。また、OCT機能正面画像A1には、被検眼の瞬きや固視微動等の影響によって、同一位置において複数のOCT信号が取得できていないことによって、それらの複数のOCT信号からモーションコントラストデータを取得した場合に、モーションアーチファクトB1〜B3が生じる。   Hereinafter, correction processing for front motion contrast data will be described. FIG. 6 is a flowchart showing an example of the front motion contrast data correction processing operation. FIG. 7 is a diagram illustrating an example of the front motion contrast data A1. As shown in FIG. 7, in the front motion contrast data A1, the image acquisition position is deviated between the scanning positions due to the effect of blinking of the eye to be examined, fixation micromotion, etc., and the image regions G1 to G1 are included in the image. A positional shift occurs in the XY direction between G4. In the present embodiment, a case where positional deviation occurs only in the X direction will be described as an example. In addition, in the OCT function front image A1, motion contrast data is acquired from the plurality of OCT signals because a plurality of OCT signals cannot be acquired at the same position due to the effect of blinking of the eye to be inspected, fixation fixation or the like. In this case, motion artifacts B1 to B3 occur.

例えば、制御部70は、第3正面画像(本実施形態においては、血管強調画像)F3が取得されると、第3正面画像F3を基準画像として設定し、正面モーションコントラストデータA1の補正を行う。これによって、正面モーションコントラストデータA1を位置ずれが抑制された正面モーションコントラストデータに補正する。   For example, when the third front image (in this embodiment, a blood vessel emphasized image) F3 is acquired, the control unit 70 sets the third front image F3 as a reference image and corrects the front motion contrast data A1. . As a result, the front motion contrast data A1 is corrected to front motion contrast data in which displacement is suppressed.

本実施形態においては、制御部70は、正面モーションコントラストデータA1を取得し、取得した正面モーションコントラストデータA1を補正することによって、最終的な正面モーションコントラストデータA2(図10参照)を取得する。なお、本実施形態においては、制御部70は、一度、正面モーションコントラストデータA1を取得する。そして、制御部70は、取得した正面モーションコントラストデータA1を、基準画像に基づいて位置合わせし、補正することによって、最終的な正面モーションコントラストデータA2を生成する構成を例に挙げて説明する。もちろん、最終的な正面モーションコントラストデータA2を生成する構成はこれに限定されない。制御部70は、各走査位置におけるモーションコントラストデータ(例えば、正面モーションコントラストデータを構築している各走査位置での二次元モーションコントラストデータ)をそれぞれ取得する。制御部70は、各走査位置におけるモーションコントラストデータを第3正面画像F3に基づいて位置合わせしていくことによって正面モーションコントラストデータを補正し、最終的な正面モーションコントラストデータを取得する構成としてもよい。このように、例えば、第3正面画像F3のような血管強調画像に対してモーションコントラストデータ(例えば、正面モーションコントラストデータ)の位置合わせを行うことで、血管部分の強調された画像データ同士(画像データとして類似している画像データ同士)で位置合わせを行うことができるため、位置合わせの精度をより良好とすることができる。また、例えば、第3正面画像に対して、モーションコントラストデータを位置合わせしていくことで、各走査位置間でずれの少ない良好な正面モーションコントラストデータが取得できる。   In the present embodiment, the control unit 70 acquires the front motion contrast data A1 (see FIG. 10) by acquiring the front motion contrast data A1 and correcting the acquired front motion contrast data A1. In the present embodiment, the control unit 70 acquires the front motion contrast data A1 once. The control unit 70 will be described by taking as an example a configuration in which the final front motion contrast data A2 is generated by aligning and correcting the acquired front motion contrast data A1 based on the reference image. Of course, the configuration for generating the final front motion contrast data A2 is not limited to this. The control unit 70 acquires motion contrast data at each scanning position (for example, two-dimensional motion contrast data at each scanning position constructing front motion contrast data). The control unit 70 may be configured to correct the front motion contrast data by aligning the motion contrast data at each scanning position based on the third front image F3 and obtain the final front motion contrast data. . In this way, for example, by aligning motion contrast data (for example, front motion contrast data) with respect to a blood vessel emphasized image such as the third front image F3, image data in which blood vessel portions are emphasized (images). Since it is possible to perform alignment between image data that are similar as data), the accuracy of alignment can be further improved. Further, for example, by aligning the motion contrast data with respect to the third front image, it is possible to acquire good front motion contrast data with little deviation between the scanning positions.

以下、正面モーションコントラストデータA1の補正処理について、より詳細に説明する。図8は、正面モーションコントラストデータの分割について説明する図である。例えば、制御部70は、上記記載のようにして取得された正面モーションコントラストデータA1(図3のS2参照)を、複数の領域に分割する。制御部70は、分割した分割領域毎の正面モーションコントラストデータを基準画像に対して、それぞれ位置合わせすることによって、正面モーションコントラストデータA1を補正する。   Hereinafter, the correction process of the front motion contrast data A1 will be described in more detail. FIG. 8 is a diagram for explaining division of front motion contrast data. For example, the control unit 70 divides the front motion contrast data A1 (see S2 in FIG. 3) acquired as described above into a plurality of regions. The control unit 70 corrects the front motion contrast data A1 by aligning the front motion contrast data for each divided area with respect to the reference image.

<モーションアーチファクトの検出(S41)>
例えば、図8に示されるように、制御部70は、モーションアーチファクトB1〜B3が検出された位置に基づいて、正面モーションコントラストデータA1の分割位置を設定する。より詳細には、例えば、制御部70は、正面モーションコントラストデータA1において、正面モーションコントラストデータA1から画像処理によって、モーションアーチファクトB1〜B3を検出する(S41)。図9は、モーションアーチファクトの検出について説明する図である。
例えば、正面モーションコントラストデータA1の輝度レベルが検出され、モーションアーチファクトB1〜B3に相当する所定の輝度を持つ部分の位置が検出される。なお、モーションアーチファクトB1〜B3を特定する場合、例えば、制御部70は、正面モーションコントラストデータにおける各横方向(X方向)の輝度値を加算していく。
<Detection of motion artifact (S41)>
For example, as illustrated in FIG. 8, the control unit 70 sets the division position of the front motion contrast data A1 based on the positions where the motion artifacts B1 to B3 are detected. More specifically, for example, in the front motion contrast data A1, the control unit 70 detects motion artifacts B1 to B3 by image processing from the front motion contrast data A1 (S41). FIG. 9 is a diagram for explaining detection of motion artifacts.
For example, the luminance level of the front motion contrast data A1 is detected, and the position of a portion having a predetermined luminance corresponding to the motion artifacts B1 to B3 is detected. In addition, when specifying motion artifact B1-B3, the control part 70 adds the luminance value of each horizontal direction (X direction) in front motion contrast data, for example.

モーションアーチファクトB1〜B3は、Y方向において、略一定の走査位置に略一定の輝度値にて表示される。図9に示すように、モーションアーチファクトB1〜B3は、通常、X方向(二次元モーションコントラストデータを取得する際の走査方向)に延びるラインを形成する。このため、X方向に輝度値を加算処理し、加算処理された輝度値をY方向に向かって検出することによって、モーションアーチファクトの位置が特定できる。例えば、制御部70は、加算処置された輝度値をY方向に向かって検出することによって、輝度分布Lを取得できる。制御部70は、輝度値が大きく変化する部分(例えば、輝度値の立ち上がり部分と輝度値の立ち下がり部分等)L1,L2,L3を検出し、検出した輝度値の変化が大きい部分L1,L2,L3をモーションアーチファクトB1〜B3が存在する位置として特定する。以上のようにして、モーションアーチファクトの位置が検出される。   The motion artifacts B1 to B3 are displayed with substantially constant luminance values at substantially constant scanning positions in the Y direction. As shown in FIG. 9, the motion artifacts B1 to B3 usually form lines extending in the X direction (scanning direction when acquiring two-dimensional motion contrast data). For this reason, the position of the motion artifact can be specified by adding the luminance value in the X direction and detecting the added luminance value in the Y direction. For example, the control unit 70 can acquire the luminance distribution L by detecting the luminance value subjected to the addition treatment in the Y direction. The control unit 70 detects portions L1, L2, and L3 where the luminance value changes greatly (for example, the rising portion of the luminance value and the falling portion of the luminance value), and the portions L1 and L2 where the change in the detected luminance value is large. , L3 is specified as a position where motion artifacts B1 to B3 exist. As described above, the position of the motion artifact is detected.

なお、モーションアーチファクトが所定の領域に亘って(Y方向において複数の走査位置に亘って)検査された場合、モーションアーチファクトの検出位置としては、任意の位置に設定することができる。例えば、モーションアーチファクトが所定の領域に亘って検査された場合、モーションアーチファクトの検出位置としては、モーションアーチファクトが検出された始めた部分(例えば、Y方向における輝度値の立ちあがり部分)をモーションアーチファクトの検出位置としてもよい。また、例えば、モーションアーチファクトが所定の領域に亘って検査された場合、モーションアーチファクトの検出位置としては、モーションアーチファクトが検出された領域の中間位置(例えば、Y方向における輝度値の立ち上がりと輝度値の立ち下がりの中間位置)をモーションアーチファクトの検出位置としてもよい。なお、モーションアーチファクトB1〜B3の検出方法は、上記手法に限定されない。モーションアーチファクトB1〜B3を検出する場合、モーションアーチファクトB1〜B3に対応する血管部分の繋がりの検出(血管部分が途切れている部分を検出)等が利用されてもよい。   When the motion artifact is inspected over a predetermined area (a plurality of scanning positions in the Y direction), the detection position of the motion artifact can be set to an arbitrary position. For example, when motion artifacts are inspected over a predetermined area, the detection position of motion artifacts is the part where motion artifacts have started to be detected (for example, the rising part of the luminance value in the Y direction). It is good also as a position. In addition, for example, when motion artifacts are inspected over a predetermined area, the motion artifact detection position is an intermediate position of the area where the motion artifact is detected (for example, the rise of the luminance value and the luminance value in the Y direction). The intermediate position of the fall may be used as a motion artifact detection position. In addition, the detection method of motion artifact B1-B3 is not limited to the said method. When detecting the motion artifacts B1 to B3, detection of connection of blood vessel portions corresponding to the motion artifacts B1 to B3 (detection of a portion where the blood vessel portion is interrupted) may be used.

<正面モーションコントラストデータの分割(S42)>
図8の説明に戻る。例えば、制御部70は、正面モーションコントラストデータの副走査方向(Y方向)において分割位置を設定する。本実施形態において、例えば、制御部70は、検出されたモーションアーチファクトB1〜B3が検出された位置に基づいて、正面モーションコントラストデータA1の分割位置を設定し、分割をする(S42)。例えば、制御部70は、図8に示す例において、設定した分割位置に基づいて、正面モーションコントラストデータA1を、第1分割領域における正面モーションコントラストデータ(以下、第1正面モーションコントラストデータと記載)A1a、第2分割領域における正面モーションコントラストデータ(以下、第2正面モーションコントラストデータと記載)A1b、第3分割領域における正面モーションコントラストデータ(以下、第3正面モーションコントラストデータと記載)A1c、第4分割領域における正面モーションコントラストデータ(以下、第4正面モーションコントラストデータと記載)A1d、に分割する。このように、一例として、本実施形態では、モーションアーチファクトB1〜B3が発生している部分を境界として、正面モーションコントラストデータA1を分割することで、被検眼の位置ずれが生じた位置等で、機能OCT正面画像を分割することでき、各走査位置間でのずれを考慮した位置合わせ処理を行う良好に行うことができる。
<Division of Front Motion Contrast Data (S42)>
Returning to the description of FIG. For example, the control unit 70 sets the division position in the sub-scanning direction (Y direction) of the front motion contrast data. In the present embodiment, for example, the control unit 70 sets and divides the front motion contrast data A1 based on the detected positions of the detected motion artifacts B1 to B3 (S42). For example, in the example shown in FIG. 8, the control unit 70 converts the front motion contrast data A1 to the front motion contrast data in the first divided area (hereinafter referred to as first front motion contrast data) based on the set division position. A1a, front motion contrast data in the second divided area (hereinafter referred to as second front motion contrast data) A1b, front motion contrast data in the third divided area (hereinafter referred to as third front motion contrast data) A1c, fourth It is divided into front motion contrast data (hereinafter referred to as fourth front motion contrast data) A1d in the divided area. Thus, as an example, in the present embodiment, by dividing the front motion contrast data A1 with the portion where the motion artifacts B1 to B3 are generated as a boundary, at the position where the position shift of the eye to be examined has occurred, The functional OCT front image can be divided, and the alignment process can be performed satisfactorily in consideration of the shift between the scanning positions.

なお、本実施形態において、制御部70は、検出されたモーションアーチファクトB1〜B3が検出された位置に基づいて、正面モーションコントラストデータA1の分割位置を設定する場合に、モーションアーチファクトB1〜B3の領域の除去処理をし(例えば、輝度値の立ちあがり部分から輝度値の立ち下がり部分までの領域を除去)、正面モーションコントラストデータA1を、第1正面モーションコントラストデータA1a、第2正面モーションコントラストデータA1b、第3正面モーションコントラストデータA1c、第4正面モーションコントラストデータA1dに分割する。なお、本実施形態においては、正面モーションコントラストデータA1を分割する際に、モーションアーチファクトB1〜B3を除去する構成を例に挙げて説明したがこれに限定されない。例えば、制御部70は、モーションアーチファクトB1〜B3の少なくとも一部を含んだ状態で、正面モーションコントラストデータA1を分割するようにしてもよい。   In the present embodiment, the control unit 70 sets the regions of the motion artifacts B1 to B3 when setting the division position of the front motion contrast data A1 based on the detected positions of the motion artifacts B1 to B3. (For example, the region from the rising portion of the luminance value to the falling portion of the luminance value is removed), and the front motion contrast data A1 is converted into the first front motion contrast data A1a, the second front motion contrast data A1b, The data is divided into third front motion contrast data A1c and fourth front motion contrast data A1d. In the present embodiment, the configuration in which the motion artifacts B1 to B3 are removed when dividing the front motion contrast data A1 has been described as an example, but the present invention is not limited to this. For example, the control unit 70 may divide the front motion contrast data A1 in a state including at least a part of the motion artifacts B1 to B3.

なお、本実施形態においては、正面モーションコントラストデータA1の分割位置をモーションアーチファクトが検出された境界に基づいて設定する構成を例に挙げて説明したが、これに限定されない。例えば、正面モーションコントラストデータA1の分割位置は、一定の間隔で分割する構成としてもよい。また、例えば、正面モーションコントラストデータA1の分割位置は、検者によって選択された位置にて分割する構成としてもよい。なお、正面モーションコントラストデータA1において、モーションアーチファクトが検出された位置に基づいて分割位置を設定する場合に、制御部70は、モーションアーチファクトが検出された位置のすべての位置を分割位置として設定してもよい。また、例えば、正面モーションコントラストデータA1において、モーションアーチファクトが検出された位置に基づいて分割位置を設定する場合に、制御部70は、モーションアーチファクトが検出された位置の内、少なくとも1つ以上の位置を分割位置として設定してもよい。   In the present embodiment, the configuration in which the division position of the front motion contrast data A1 is set based on the boundary where the motion artifact is detected has been described as an example, but the present invention is not limited to this. For example, the front motion contrast data A1 may be divided at regular intervals. Further, for example, the division position of the front motion contrast data A1 may be divided at a position selected by the examiner. In the front motion contrast data A1, when the division position is set based on the position where the motion artifact is detected, the control unit 70 sets all the positions where the motion artifact is detected as the division position. Also good. Further, for example, in the case where the division position is set based on the position where the motion artifact is detected in the front motion contrast data A1, the control unit 70 selects at least one position among the positions where the motion artifact is detected. May be set as the division position.

<分割領域における正面モーションコントラストデータの適否判定(S43)>
例えば、制御部70は、正面モーションコントラストデータA1が分割されると、分割された分割領域毎の正面モーションコントラストデータ(本実施形態において、第1正面モーションコントラストデータA1a〜第4正面モーションコントラストデータA1d)の適否を、分割領域毎に判定する(S43)。例えば、制御部70は、分割領域毎の正面モーションコントラストデータが所定の基準(所定の閾値)を超えるか否かに基づいて判定を行う。より詳細には、例えば、本実施形態において、制御部70は、分割領域毎の正面モーションコントラストデータの画質に基づいて、分割領域毎の正面モーションコントラストデータの適否を、分割領域毎に判定する。
<Appropriateness determination of front motion contrast data in divided area (S43)>
For example, when the front motion contrast data A1 is divided, the control unit 70 determines the front motion contrast data for each divided area (in this embodiment, the first front motion contrast data A1a to the fourth front motion contrast data A1d). ) Is determined for each divided region (S43). For example, the control unit 70 performs determination based on whether or not the front motion contrast data for each divided region exceeds a predetermined reference (predetermined threshold). More specifically, for example, in the present embodiment, the control unit 70 determines the suitability of the front motion contrast data for each divided region for each divided region based on the image quality of the front motion contrast data for each divided region.

このように、例えば、分割領域毎の正面モーションコントラストデータの適否を確認することで、分割領域毎に適正な正面モーションコントラストデータを取得することができる。これによって、各分割領域で適正な正面モーションコントラストデータを適用することが可能となり、これらによって構築される正面モーションコントラストデータがより良好な画像データとなる。すなわち、診断に有用な正面モーションコントラストデータを取得することができる。   Thus, for example, by confirming the suitability of the front motion contrast data for each divided region, it is possible to acquire appropriate front motion contrast data for each divided region. Accordingly, it is possible to apply appropriate front motion contrast data in each divided region, and the front motion contrast data constructed by them becomes better image data. That is, front motion contrast data useful for diagnosis can be acquired.

なお、画像データを分割し、分割された分割領域毎の画像データの適否を、分割領域毎に判定する構成としては、三次元モーションコントラストデータにおいても用いることができる。これによって、各分割領域で適正な三次元モーションコントラストデータを適用することが可能となり、これらによって構築される三次元モーションコントラストデータがより良好な画像データとなる。もちろん、各分割領域で適正な三次元モーションコントラストデータを適用した後、三次元モーションコントラストデータに基づいて、正面モーションコントラストデータを取得してもよい。これによっても、診断に有用な正面モーションコントラストデータを取得することができる。   Note that a configuration in which image data is divided and the suitability of the image data for each divided area is determined for each divided area can also be used in three-dimensional motion contrast data. This makes it possible to apply appropriate three-dimensional motion contrast data in each divided region, and the three-dimensional motion contrast data constructed by them becomes better image data. Of course, after applying appropriate 3D motion contrast data in each divided region, the front motion contrast data may be acquired based on the 3D motion contrast data. Also by this, front motion contrast data useful for diagnosis can be acquired.

例えば、制御部70は、正面モーションコントラストデータA1が分割されると、分割された分割領域毎の正面モーションコントラストデータ(本実施形態において、第1正面モーションコントラストデータA1a〜第4正面モーションコントラストデータA1d)の適否を、分割領域毎に判定する(S43)。例えば、制御部70は、分割領域毎の正面モーションコントラストデータが所定の基準(所定の閾値)を超えるか否かに基づいて判定を行う。より詳細には、例えば、本実施形態において、制御部70は、分割領域毎の正面モーションコントラストデータの画質に基づいて、分割領域毎の正面モーションコントラストデータの適否を、分割領域毎に判定する。   For example, when the front motion contrast data A1 is divided, the control unit 70 determines the front motion contrast data for each divided area (in this embodiment, the first front motion contrast data A1a to the fourth front motion contrast data A1d). ) Is determined for each divided region (S43). For example, the control unit 70 performs determination based on whether or not the front motion contrast data for each divided region exceeds a predetermined reference (predetermined threshold). More specifically, for example, in the present embodiment, the control unit 70 determines the suitability of the front motion contrast data for each divided region for each divided region based on the image quality of the front motion contrast data for each divided region.

なお、本実施形態においては、分割領域毎の正面モーションコントラストデータの画質に基づいて、判定処理を行う構成を例に挙げているがこれに限定されない。他の分割領域の正面モーションコントラストデータとの関係から判定処理を行うようにしてもよい。例えば、分割領域間の正面モーションコントラストデータのずれ量を算出し、ずれ量が所定の閾値を超えるか否かによって、分割領域毎の正面モーションコントラストデータの適否を判定してもよい。   In the present embodiment, the configuration in which the determination process is performed based on the image quality of the front motion contrast data for each divided region is exemplified, but the present invention is not limited to this. The determination process may be performed based on the relationship with the front motion contrast data of other divided areas. For example, the amount of shift of the front motion contrast data between the divided areas may be calculated, and the suitability of the front motion contrast data for each divided area may be determined based on whether the shift amount exceeds a predetermined threshold.

以下、分割領域毎の正面モーションコントラストデータの画質に基づいて、判定処理を行う構成について説明する。本実施形態においては、制御部70は、画質に基づく判定処理として、画質の評価値を算出し、評価値が所定の閾値を超えるか否かに基づいて、分割領域毎の正面モーションコントラストデータの適否を判定する。例えば、所定の閾値は、予め、シミュレーションや実験等によって設定される。   Hereinafter, a configuration for performing the determination process based on the image quality of the front motion contrast data for each divided area will be described. In the present embodiment, the control unit 70 calculates the evaluation value of the image quality as the determination process based on the image quality, and determines the front motion contrast data for each divided region based on whether the evaluation value exceeds a predetermined threshold. Judge the suitability. For example, the predetermined threshold is set in advance by simulation or experiment.

例えば、画質の評価値としては、正面モーションコントラストデータの各画素の輝度値の合算値や、空間周波数の分布による周波数の高低の結果等を用いることができる。例えば、本実施形態において、正面モーションコントラストデータの画質の信号強度(例えば、Signal Strength Index(SSI))を示す評価値Vが用いられる。例えば、評価値Vは、V=((画像の平均最大輝度値)−(画像の背景領域の平均輝度値))/(背景領域の輝度値の標準偏差)の式より求められる。すなわち、正面モーションコントラストデータにおいてノイズが大きい場合には、評価値Vが小さくなる(詳細は、特開2013−34658号公報参照)。   For example, as the evaluation value of the image quality, a sum value of luminance values of each pixel of the front motion contrast data, a result of high or low frequency due to a spatial frequency distribution, or the like can be used. For example, in this embodiment, an evaluation value V indicating the signal strength (for example, Signal Strength Index (SSI)) of the image quality of the front motion contrast data is used. For example, the evaluation value V is obtained from the equation: V = ((average maximum luminance value of the image) − (average luminance value of the background area of the image)) / (standard deviation of the luminance value of the background area). That is, when noise is large in the front motion contrast data, the evaluation value V is small (for details, refer to Japanese Patent Laid-Open No. 2013-34658).

例えば、制御部70は、分割領域毎に評価値Vを算出する。例えば、制御部70は、第1正面モーションコントラストデータA1aの評価値V1を算出する。制御部70は、算出した評価値V1が所定の閾値を超えるか否かを判定する。例えば、制御部70は、算出した評価値1が所定の閾値を超える場合には、第1正面モーションコントラストデータA1aが適正であると判定する。また、例えば、制御部70は、算出した評価値V1が所定の閾値を超えない場合に、第1正面モーションコントラストデータA1aが適正でないと判定する。このように、分割領域における正面モーションコントラストデータのみの情報から適否の判定を行うことができ、容易に分割領域毎の正面モーションコントラストデータを取得することができる。   For example, the control unit 70 calculates the evaluation value V for each divided region. For example, the control unit 70 calculates the evaluation value V1 of the first front motion contrast data A1a. The control unit 70 determines whether or not the calculated evaluation value V1 exceeds a predetermined threshold value. For example, when the calculated evaluation value 1 exceeds a predetermined threshold value, the control unit 70 determines that the first front motion contrast data A1a is appropriate. For example, the control unit 70 determines that the first front motion contrast data A1a is not appropriate when the calculated evaluation value V1 does not exceed a predetermined threshold. Thus, it is possible to determine suitability from only the information on the front motion contrast data in the divided area, and it is possible to easily obtain the front motion contrast data for each divided area.

<分割領域の正面モーションコントラストデータ再取得(S44)>
例えば、制御部70は、所定の分割領域において正面モーションコントラストデータが適正でないと判定された場合、適正でないと判定された分割領域の正面モーションコントラストデータと、同一の分割領域における各走査位置にて複数のOCT信号を再取得する(S44)。なお、同一とは完全に同一である必要はなく、略同一であってもよい。例えば、適正でないと判定された分割領域を含み、且つ、適正でないと判定された分割領域よりも大きい領域で、OCT信号が再取得される構成であってもよい。次いで、制御部70は、再取得した前記各走査位置における複数のOCT信号を、適正でないと判定された分割領域における複数のOCT信号として設定する(複数のOCT信号を置き換える)。
<Re-acquisition of front area motion contrast data of divided area (S44)>
For example, when it is determined that the front motion contrast data is not appropriate in the predetermined divided area, the control unit 70 uses the front motion contrast data of the divided area determined to be inappropriate and each scanning position in the same divided area. A plurality of OCT signals are reacquired (S44). Note that the same does not have to be completely the same, and may be substantially the same. For example, the configuration may be such that the OCT signal is re-acquired in a region that includes the divided region determined to be inappropriate and is larger than the divided region determined to be inappropriate. Next, the control unit 70 sets the re-acquired plurality of OCT signals at the respective scanning positions as a plurality of OCT signals in the divided areas determined to be inappropriate (replaces the plurality of OCT signals).

より詳細には、例えば、制御部70は、第1正面モーションコントラストデータA1aが適正でないと判定された場合、第1正面モーションコントラストデータA1aを取得した各走査位置において、再度、複数のOCT信号を取得する。例えば、制御部70は、第3正面画像と再取得時において取得されている正面画像(正面観察光学系200によって取得された正面画像)とのずれ量に基づいて、光スキャナ108を制御し、走査位置を補正する。もちろん、例えば、第3正面画像の代わりに、第1正面画像及び第2正面画像の少なくともいずれかが用いられてもよい。また、例えば、再取得時において、複数の正面画像を取得し、複数の正面画像から血管強調画像(新たな第3正面画像)を生成し、血管強調画像を第3正面画像とのずれ量の算出に用いてもよい。血管が強調された正面画像でずれ量を算出することで、より精度よくずれ量を算出することができる。例えば、制御部70は、光スキャナ108を制御し、走査位置を補正した後、再度、複数のOCT信号の取得を開始する。   More specifically, for example, when it is determined that the first front motion contrast data A1a is not appropriate, the control unit 70 again outputs a plurality of OCT signals at each scanning position where the first front motion contrast data A1a is acquired. get. For example, the control unit 70 controls the optical scanner 108 based on the amount of deviation between the third front image and the front image acquired at the time of reacquisition (the front image acquired by the front observation optical system 200). Correct the scanning position. Of course, for example, at least one of the first front image and the second front image may be used instead of the third front image. Further, for example, at the time of re-acquisition, a plurality of front images are acquired, a blood vessel emphasized image (new third front image) is generated from the plurality of front images, and the blood vessel emphasized image has a deviation amount from the third front image. You may use for calculation. By calculating the shift amount with the front image in which the blood vessels are emphasized, the shift amount can be calculated with higher accuracy. For example, the control unit 70 controls the optical scanner 108, corrects the scanning position, and then starts acquiring a plurality of OCT signals again.

例えば、制御部70は、再取得した各走査位置における複数のOCT信号を、適正でないと判定された第1分割領域(第1正面モーションコントラストデータA1aが取得された領域)における複数のOCT信号として設定する。すなわち、制御部70は、再取得した複数のOCT信号に基づいて、第1分割領域における正面モーションコントラストデータを取得する。そして、制御部70は、適正でないと判定された第1分割領域における正面モーションコントラストデータを破棄し、再取得した正面モーションコントラストデータを、第1分割領域の正面モーションコントラストデータとして設定する。   For example, the control unit 70 uses the re-acquired OCT signals at the respective scanning positions as the plurality of OCT signals in the first divided area (the area where the first front motion contrast data A1a is acquired) determined to be inappropriate. Set. That is, the control unit 70 acquires front motion contrast data in the first divided region based on the plurality of OCT signals acquired again. Then, the control unit 70 discards the front motion contrast data in the first divided area determined to be inappropriate, and sets the re-acquired front motion contrast data as the front motion contrast data of the first divided area.

例えば、制御部70は、第1分割領域において、再取得された正面モーションコントラストデータについて、再度、正面モーションコントラストデータの適否を判定する。制御部70は、正面モーションコントラストデータが適正と判定されるまで、上記再取得処理を繰り返し行う。以上のように、各分割領域において取得されている正面モーションコントラストデータが適正でなかった場合であっても、正面モーションコントラストデータを再取得することできる。これによって、各分割領域において、適正な正面モーションコントラストデータを取得することができる。   For example, the control unit 70 again determines whether or not the front motion contrast data is appropriate for the re-acquired front motion contrast data in the first divided region. The control unit 70 repeatedly performs the re-acquisition process until it is determined that the front motion contrast data is appropriate. As described above, even when the front motion contrast data acquired in each divided region is not appropriate, the front motion contrast data can be acquired again. Thereby, appropriate front motion contrast data can be acquired in each divided region.

なお、例えば、再取得処理を所定回数繰り返した場合であっても、正面モーションコントラストデータが適正と判定されない場合には、再取得を停止させてもよい。また、例えば、再取得処理を所定回数繰り返した場合であっても、正面モーションコントラストデータが適正と判定されない場合には、その旨を報知するようにしてもよい。例えば、報知構成としては、エラー表示、警告音等によって、検者に報知する構成が挙げられる。また、例えば、再取得処理を所定回数繰り返した場合であっても、正面モーションコントラストデータが適正と判定されない場合には、次の処理(例えば、図6におけるS45)に移行するようにしてもよい。   For example, even if the re-acquisition process is repeated a predetermined number of times, if the front motion contrast data is not determined to be appropriate, the re-acquisition may be stopped. Further, for example, even when the re-acquisition process is repeated a predetermined number of times, if the front motion contrast data is not determined to be appropriate, that fact may be notified. For example, the notification configuration includes a configuration in which the examiner is notified by an error display, a warning sound, or the like. For example, even when the reacquisition process is repeated a predetermined number of times, if the front motion contrast data is not determined to be appropriate, the process may proceed to the next process (for example, S45 in FIG. 6). .

<分割領域の正面モーションコントラストデータ位置合わせ(S45)>
例えば、制御部70は、所定の分割領域において正面モーションコントラストデータが適正であると判定された場合、第3正面画像F3を基準画像として設定する。制御部70は、基準画像をテンプレートとし、適正であると判定された分割領域の正面モーションコントラストデータを基準画像に対して位置合わせすることによって、正面モーションコントラストデータを補正する。
<Front motion contrast data alignment of divided areas (S45)>
For example, when it is determined that the front motion contrast data is appropriate in a predetermined divided region, the control unit 70 sets the third front image F3 as the reference image. The control unit 70 corrects the front motion contrast data by using the reference image as a template and aligning the front motion contrast data of the divided areas determined to be appropriate with the reference image.

より詳細に説明する。図10は、第3正面画像F3と分割領域における正面モーションコントラストデータとの位置合わせについて説明する図である。例えば、制御部70は、第1正面モーションコントラストデータA1aが適正であると判定された場合、第3正面画像F3を基準画像として設定する。制御部70は、第3正面画像F3をテンプレートとし、第1正面モーションコントラストデータA1aを第3正面画像F3に対して位置合わせする。例えば、制御部70は、第3正面画像F3における正面モーションコントラストデータA1を取得した領域に対応する走査領域F3aに対して、分割された正面モーションコントラストデータA1の位置合わせを行っていく。   This will be described in more detail. FIG. 10 is a diagram for explaining the alignment between the third front image F3 and the front motion contrast data in the divided areas. For example, when it is determined that the first front motion contrast data A1a is appropriate, the control unit 70 sets the third front image F3 as a reference image. The control unit 70 uses the third front image F3 as a template and aligns the first front motion contrast data A1a with the third front image F3. For example, the control unit 70 aligns the divided front motion contrast data A1 with respect to the scanning region F3a corresponding to the region from which the front motion contrast data A1 is acquired in the third front image F3.

以下、位置合わせ処置について説明する。例えば、制御部70は、第3正面画像F3と、第1正面モーションコントラストデータA1aとのマッチング処理を行い、第3正面画像F3と、第1正面モーションコントラストデータA1aとを対応づける。   Hereinafter, the alignment procedure will be described. For example, the control unit 70 performs matching processing between the third front image F3 and the first front motion contrast data A1a, and associates the third front image F3 with the first front motion contrast data A1a.

例えば、制御部70は、マッチング処理として、第3正面画像F3と、第1正面モーションコントラストデータA1aと、の位置ずれ量を検出し、位置ずれ量に基づいて、第3正面画像F3と第1正面モーションコントラストデータA1aとの位置関係を対応させる。   For example, the control unit 70 detects the positional deviation amount between the third front image F3 and the first front motion contrast data A1a as the matching process, and based on the positional deviation amount, The positional relationship with the front motion contrast data A1a is made to correspond.

例えば、2つの画像間の位置ずれ量を検出する手法としては、種々の画像処理手法(各種相関関数を用いる方法、フーリエ変換を利用する方法、特徴点のマッチングに基づく方法)、非剛体レジストレーション、等を用いることが可能である。   For example, there are various image processing methods (methods using various correlation functions, methods using Fourier transforms, methods based on feature point matching), non-rigid registration, etc. , Etc. can be used.

例えば、所定の基準画像データ(例えば、第3正面画像F3)又は対象画像データ(第1正面モーションコントラストデータA1a)を1画素ずつ位置ずれさせ、基準画像と対象画像を比較し、両データが最も一致したとき(相関が最も高くなるとき)の両データ間の位置ずれ量を検出する手法が考えられる。また、所定の基準画像及び対象画像から共通する特徴点を抽出し、抽出された特徴点の位置ずれを検出する手法が考えられる。   For example, predetermined reference image data (for example, the third front image F3) or target image data (first front motion contrast data A1a) is displaced pixel by pixel, the reference image and the target image are compared, and both data are the most A method of detecting the amount of misalignment between the two data when they match (when the correlation is highest) can be considered. Further, a method of extracting a common feature point from a predetermined reference image and target image and detecting a positional shift of the extracted feature point is conceivable.

また、2つの画像データ間の位置ずれを求めるための関数として、位相限定相関関数を用いるようにしてもよい。この場合、まず、各画像データをフーリエ変換し、各周波数成分の位相と振幅を得る。なお、得られた振幅成分は、各周波数成分に関して大きさ1に正規化しておく。次に、2つの画像データ間で周波数毎の位相差を算出した後、これらに逆フーリエ変換をかける。   Further, a phase-only correlation function may be used as a function for obtaining a positional deviation between two image data. In this case, first, each image data is Fourier transformed to obtain the phase and amplitude of each frequency component. The obtained amplitude component is normalized to a magnitude of 1 for each frequency component. Next, after calculating a phase difference for each frequency between the two image data, inverse Fourier transform is applied to them.

ここで、2つの画像データ間の位置ずれがなければ、余弦波のみの加算となり、原点位置(0,0)にピークが出現する。また、位置ずれがある場合、位置ずれに対応する位置にピークが出る。そこで、ピークの検出位置を求めることにより2つの画像データ間の位置ずれ量が得られる。この手法によれば、第3正面画像F3と、第1正面モーションコントラストデータA1aと、の位置ずれ量を高精度かつ短時間で検出できる。   If there is no positional deviation between the two image data, only the cosine wave is added, and a peak appears at the origin position (0, 0). Further, when there is a positional deviation, a peak appears at a position corresponding to the positional deviation. Therefore, the amount of positional deviation between the two image data can be obtained by obtaining the peak detection position. According to this method, it is possible to detect the positional deviation amount between the third front image F3 and the first front motion contrast data A1a with high accuracy and in a short time.

本実施例において、制御部70は、第3正面画像F3と、第1正面モーションコントラストデータA1aと、から共通する特徴点を抽出し、抽出された特徴点の位置ずれ量を検出する手法を用いる。制御部70は、位置ずれ量を検出すると、位置ずれ量に基づいて、第3正面画像F3と第1正面モーションコントラストデータA1aとの位置関係を対応させる。このようにして、正面画像に対して分割された正面モーションコントラストデータの位置合わせが行われる。   In the present embodiment, the control unit 70 uses a method of extracting common feature points from the third front image F3 and the first front motion contrast data A1a and detecting the amount of positional deviation of the extracted feature points. . When detecting the positional deviation amount, the control unit 70 associates the positional relationship between the third front image F3 and the first front motion contrast data A1a based on the positional deviation amount. In this way, alignment of the front motion contrast data divided with respect to the front image is performed.

例えば、制御部70は、第1正面モーションコントラストデータA1aの位置合わせが完了した後、第2正面モーションコントラストデータA1bの判定処理に移行する。例えば、制御部70は、各分割領域の正面モーションコントラストデータにおいて、上記第1分割領域における処理(例えば、S43〜S45)と同様の処理を行っていく。このようにして、各分割領域の正面モーションコントラストデータの位置合わせが行われる。なお、本実施形態において、上記処理(S43〜S45)を分割領域毎に順に行っていく構成を例に挙げて説明したがこれに限定されない。例えば、すべての分割領域における正面モーションコントラストデータの判定処理を完了した後、次の処理(S44又はS45)を行うようにしてもよい。   For example, after the positioning of the first front motion contrast data A1a is completed, the control unit 70 proceeds to a determination process for the second front motion contrast data A1b. For example, the control unit 70 performs the same process as the process in the first divided area (for example, S43 to S45) in the front motion contrast data of each divided area. In this way, alignment of the front motion contrast data of each divided area is performed. In the present embodiment, the configuration in which the above processing (S43 to S45) is sequentially performed for each divided region has been described as an example, but the present invention is not limited to this. For example, after completing the determination process of the front motion contrast data in all the divided areas, the next process (S44 or S45) may be performed.

以上のように、例えば、正面モーションコントラストデータを所定の領域毎に分割し、正面モーションコントラストデータを構築している各走査位置のモーションコントラストデータを所定の領域単位で位置合わせしていくことによって、より迅速に位置ずれ補正を行うことができる。また、特に、このような分割領域毎に位置合わせ処理を行う場合に、画像データとして類似している画像データ同士で位置合わせを行うことができるため、位置合わせの精度をより良好とすることができる。   As described above, for example, by dividing the front motion contrast data into predetermined regions and aligning the motion contrast data of each scanning position that constructs the front motion contrast data in units of predetermined regions, Misalignment correction can be performed more quickly. In particular, when alignment processing is performed for each of such divided regions, it is possible to perform alignment between image data similar as image data, so that the accuracy of alignment can be improved. it can.

次いで、例えば、制御部70は、所定の分割領域における正面モーションコントラストデータの位置合わせ処理が完了すると、全ての分割領域において、位置合わせ処理までが完了したか否かを判定する(S46)。より詳細には、例えば、制御部70は、第1正面モーションコントラストデータA1aの位置合わせが完了した後、他の分割領域の正面モーションコントラストデータ(例えば、第2正面モーションコントラストデータA1b、第3正面モーションコントラストデータA1c、第4正面モーションコントラストデータA1d)の位置合わせが完了しているか否かを判定する。   Next, for example, when the alignment process of the front motion contrast data in the predetermined divided area is completed, the control unit 70 determines whether or not the alignment process is completed in all the divided areas (S46). More specifically, for example, after the alignment of the first front motion contrast data A1a is completed, the control unit 70 detects the front motion contrast data (for example, the second front motion contrast data A1b, the third front surface) of other divided areas. It is determined whether or not the alignment of the motion contrast data A1c and the fourth front motion contrast data A1d) has been completed.

例えば、制御部70は、全ての分割領域の位置合わせが完了していないと判定すると、次の分割領域の処理に移行する(S47)。より詳細には、例えば、制御部70は、第1正面モーションコントラストデータA1aの位置合わせが完了した後、第2正面モーションコントラストデータA1bの判定処理に移行する。もちろん、所定の分割領域においては、位置合わせを行わなく、次の処理(例えば、S48)に進む構成としてもよい。   For example, if the control unit 70 determines that the alignment of all the divided regions is not completed, the control unit 70 proceeds to the processing of the next divided region (S47). More specifically, for example, after the positioning of the first front motion contrast data A1a is completed, the control unit 70 proceeds to a determination process for the second front motion contrast data A1b. Of course, in a predetermined divided region, it is possible to proceed to the next process (for example, S48) without performing alignment.

<モーションアーチファクト検出位置の正面モーションコントラストデータ再取得(S48)>
例えば、制御部70は、全ての分割領域の位置合わせが完了していると判定すると、モーションアーチファクトが検出された領域と同一の領域における各走査位置にて複数のOCT信号を再取得する(S48)。なお、前述したように、本実施形態において、同一とは完全に同一である必要はなく、略同一であってもよい。例えば、制御部70は、再取得した各走査位置における複数のOCT信号を、モーションアーチファクトがされた領域における複数のOCT信号として設定する。
<Re-acquisition of front motion contrast data of motion artifact detection position (S48)>
For example, when the control unit 70 determines that the alignment of all the divided regions is completed, the control unit 70 re-acquires a plurality of OCT signals at each scanning position in the same region where the motion artifact is detected (S48). ). As described above, in the present embodiment, the same need not be completely the same, and may be substantially the same. For example, the control unit 70 sets a plurality of OCT signals at the re-acquired scanning positions as a plurality of OCT signals in the region where the motion artifact is performed.

より詳細には、例えば、制御部70は、モーションアーチファクトB1〜B3が検出された位置(領域)に対応する各走査位置において、再度、複数のOCT信号を取得する。例えば、制御部70は、第3正面画像と、再取得時において取得されている正面画像とのずれ量に基づいて、光スキャナ108を制御し、走査位置を補正する。もちろん、例えば、第3正面画像の代わりに、第1正面画像及び第2正面画像の少なくともいずれかが用いられてもよい。また、例えば、再取得時において、複数の正面画像を取得し、複数の正面画像から血管強調画像を生成し、血管強調画像を第3正面画像とのずれ量の算出に用いてもよい。血管が強調された正面画像でずれ量を算出することで、より精度よくずれ量を算出することができる。例えば、制御部70は、光スキャナ108を制御し、走査位置を補正した後、再度、モーションアーチファクトB1〜B3が検出された領域に対応する各走査位置における複数のOCT信号の取得を開始する。   More specifically, for example, the control unit 70 acquires a plurality of OCT signals again at each scanning position corresponding to the position (region) where the motion artifacts B1 to B3 are detected. For example, the control unit 70 corrects the scanning position by controlling the optical scanner 108 based on the amount of deviation between the third front image and the front image acquired at the time of re-acquisition. Of course, for example, at least one of the first front image and the second front image may be used instead of the third front image. Further, for example, at the time of re-acquisition, a plurality of front images may be acquired, a blood vessel emphasized image may be generated from the plurality of front images, and the blood vessel emphasized image may be used for calculating a deviation amount from the third front image. By calculating the shift amount with the front image in which the blood vessels are emphasized, the shift amount can be calculated with higher accuracy. For example, after controlling the optical scanner 108 and correcting the scanning position, the control unit 70 starts again acquiring a plurality of OCT signals at each scanning position corresponding to the region where the motion artifacts B1 to B3 are detected.

例えば、制御部70は、再取得した各走査位置における複数のOCT信号を、モーションアーチファクトB1〜B3が検出された領域における複数のOCT信号として設定する。すなわち、制御部70は、再取得した複数のOCT信号に基づいて、モーションアーチファクトB1〜B3が検出された領域における正面モーションコントラストデータを取得する。そして、制御部70は、モーションアーチファクト画像データを破棄し、再取得した正面モーションコントラストデータを、モーションアーチファクトB1〜B3が検出された領域の正面モーションコントラストデータとして設定する。もちろん、分割処理、及び、各分割領域の正面モーションコントラストデータの判定処理を、実施することなく、モーションアーチファクトB1〜B3が検出された領域における正面モーションコントラストデータを再取得するようにしてもよい。この場合、例えば、制御部70は、正面モーションコントラストデータからモーションアーチファクトを検出し、モーションアーチファクトが検出された領域における正面モーションコントラストデータを再取得するようにしてもよい。   For example, the control unit 70 sets a plurality of OCT signals at the re-acquired scanning positions as a plurality of OCT signals in the region where the motion artifacts B1 to B3 are detected. That is, the control unit 70 acquires the front motion contrast data in the region where the motion artifacts B1 to B3 are detected based on the re-acquired plurality of OCT signals. Then, the control unit 70 discards the motion artifact image data and sets the re-acquired front motion contrast data as the front motion contrast data of the area where the motion artifacts B1 to B3 are detected. Of course, the front motion contrast data in the area where the motion artifacts B1 to B3 are detected may be re-acquired without performing the division process and the determination process of the front motion contrast data of each divided area. In this case, for example, the control unit 70 may detect the motion artifact from the front motion contrast data, and re-acquire the front motion contrast data in the area where the motion artifact is detected.

例えば、制御部70は、モーションアーチファクトB1〜B3が検出された領域において、再取得された正面モーションコントラストデータについて、上記記載の判定処理等(例えば、S43〜S47)と同様の処理を行う。例えば、制御部70は、正面モーションコントラストデータの適否を判定する。もちろん、正面モーションコントラストデータの適否を判定しない構成であってもよい。この場合、制御部70は、判定処理を行うことなく、モーションアーチファクトB1〜B3が検出された各領域における正面モーションコントラストデータを第3正面画像F3に対して位置合わせしていく。   For example, the control unit 70 performs the same processing as the above-described determination processing (for example, S43 to S47) for the re-acquired front motion contrast data in the region where the motion artifacts B1 to B3 are detected. For example, the control unit 70 determines whether the front motion contrast data is appropriate. Of course, a configuration in which the suitability of the front motion contrast data is not determined may be used. In this case, the control unit 70 aligns the front motion contrast data in each region in which the motion artifacts B1 to B3 are detected without performing the determination process with respect to the third front image F3.

例えば、制御部70は、正面モーションコントラストデータが適正と判定されるまで、上記再取得処理を繰り返し行う。制御部70は、正面モーションコントラストデータが適正であると判定された場合、モーションアーチファクトB1〜B3が検出された各領域における正面モーションコントラストデータを第3正面画像F3に対して位置合わせしていく。以上のように、モーションアーチファクトが発生した領域において複数のOCT信号を再取得することによって、モーションアーチファクト部分のモーションコントラストデータを補完することができる。これによって、モーションアーチファクトが発生している領域について、OCT信号を再取得できるため、モーションアーチファクトの抑制された、良好な正面モーションコントラストデータ取得することができる。   For example, the control unit 70 repeatedly performs the re-acquisition process until it is determined that the front motion contrast data is appropriate. When it is determined that the front motion contrast data is appropriate, the control unit 70 aligns the front motion contrast data in each region where the motion artifacts B1 to B3 are detected with respect to the third front image F3. As described above, the motion contrast data of the motion artifact portion can be complemented by re-acquiring a plurality of OCT signals in the region where the motion artifact has occurred. Thereby, since the OCT signal can be re-acquired for the region where the motion artifact is generated, it is possible to acquire good front motion contrast data in which the motion artifact is suppressed.

なお、モーションアーチファクトの検出位置における複数のOCT信号の再取得を行うタイミングとしては、分割領域毎の正面モーションコントラストデータの位置合わせが完了した後に限定されない。任意のタイミングで行うことができる。例えば、S42の後に行うようにしてもよい。   Note that the timing for re-acquiring a plurality of OCT signals at the detection position of the motion artifact is not limited after the alignment of the front motion contrast data for each divided region is completed. It can be performed at any timing. For example, it may be performed after S42.

以上のように、制御部70は、第3正面画像F3に対して、分割領域毎の適正な正面モーションコントラストデータを位置合わせする。また、制御部70は、モーションアーチファクト部分について正面モーションコントラストデータを再取得し、モーションアーチファクト部分の正面モーションコントラストデータを補完することによって、最終的な正面モーションコントラストデータA2が取得される。これによって、診断に有用な正面モーションコントラストデータを取得することができる。   As described above, the control unit 70 aligns the appropriate front motion contrast data for each divided region with respect to the third front image F3. In addition, the control unit 70 reacquires the front motion contrast data for the motion artifact portion and complements the front motion contrast data for the motion artifact portion, thereby obtaining the final front motion contrast data A2. Thereby, front motion contrast data useful for diagnosis can be acquired.

<変容例>
なお、本実施形態において、所定の分割領域及びモーションアーチファクトの発生領域の少なくともいずれかにおいて、複数のOCT信号を再取得する場合に、再取得を行う以前に、眼科撮影装置(本実施形態においては、光コヒーレンストモグラフィ装置1)における光学部材の調整を行うようにしてもよい。例えば、光学部材の調整としては、測定光と参照光との光路長差を変更する光路長変更部材、OCT光学系100のフォーカスを調整する図示無きフォーカシングレンズ等を調整する構成が挙げられる。このように、複数のOCT信号の再取得を行う以前に、撮影条件の調整を行うため、被検眼の位置ずれ等によって、撮影状態が良好でなくなっていた場合であっても、撮影状態を良好な状態に再調整することができる。これによって、分割領域における適正な正面モーションコントラストデータを適切に取得することができる。
<Transformation example>
In this embodiment, when re-acquiring a plurality of OCT signals in at least one of a predetermined divided area and a motion artifact occurrence area, an ophthalmic imaging apparatus (in this embodiment, before re-acquisition) The optical member in the optical coherence tomography apparatus 1) may be adjusted. For example, the adjustment of the optical member includes a configuration in which an optical path length changing member that changes the optical path length difference between the measurement light and the reference light, a focusing lens (not shown) that adjusts the focus of the OCT optical system 100, and the like. As described above, since the imaging conditions are adjusted before the re-acquisition of the plurality of OCT signals, the imaging state is good even when the imaging state is not good due to the positional deviation of the eye to be examined. Can be readjusted. Accordingly, it is possible to appropriately acquire appropriate front motion contrast data in the divided area.

なお、本実施形態において、所定の分割領域及びモーションアーチファクトの発生領域の少なくともいずれかにおいて、複数のOCT信号を再取得する構成を例に挙げて説明したがこれに限定されない。例えば、予め、複数の正面モーションコントラストデータを取得しておき、複数の正面モーションコントラストデータの中から、所定の分割領域に最適な正面モーションコントラストデータを選択し、所定の分割領域の正面モーションコントラストデータとして設定していく構成であってもよい。   In the present embodiment, a configuration in which a plurality of OCT signals are re-acquired in at least one of a predetermined divided region and a motion artifact generation region has been described as an example, but the present invention is not limited to this. For example, a plurality of front motion contrast data is acquired in advance, and the optimum front motion contrast data for a predetermined divided area is selected from the plurality of front motion contrast data, and the front motion contrast data of the predetermined divided area is selected. It may be configured to set as.

なお、本実施形態においては、分割領域毎に正面モーションコントラストデータの判定処理を行う構成を例に挙げて説明したが、判定処理を行うことなく、第3正面画像に対して、分割領域毎の正面モーションコントラストデータを位置合わせしていく構成であってもよい。   In the present embodiment, the configuration in which the determination process of the front motion contrast data is performed for each divided area has been described as an example. However, the determination process is not performed, and the third front image is processed for each divided area. The configuration may be such that the front motion contrast data is aligned.

なお、本実施形態において、分割領域毎に正面モーションコントラストデータの判定処理を行う構成については、種々の正面画像を用いることができる。例えば、従来の正面観察光学系によって取得された正面画像を基準画像として、分割領域毎に正面モーションコントラストデータを位置合わせする構成であってもよい。また、例えば、OCT正面画像、被検眼の瞬きや固視微動等の影響を受けないように高速で取得されたOCT機能正面画像等を基準画像としてもよい。すなわち、第3正面画像を位置合わせ用の基準画像として用いない場合の眼科撮影装置であっても適用することができる。このように、例えば、正面画像に対して、各分割領域で適正な正面モーションコントラストデータを、位置合わせして補正することによって、撮影中に、被検眼の固視微動等の影響を受けていた場合であっても、診断に有用な正面モーションコントラストデータを取得することができる。   In the present embodiment, various front images can be used for the configuration for performing the front motion contrast data determination process for each divided region. For example, the front motion contrast data may be aligned for each divided region using a front image acquired by a conventional front observation optical system as a reference image. Further, for example, an OCT front image, an OCT function front image acquired at a high speed so as not to be affected by blinking of the eye to be examined, fixation micromotion, and the like may be used as the reference image. That is, the present invention can also be applied to an ophthalmologic photographing apparatus when the third front image is not used as a reference image for alignment. In this way, for example, by correcting the frontal motion contrast data appropriate for each divided region by aligning the frontal image, it has been affected by the fixation eye movement of the subject's eye during imaging. Even in this case, front motion contrast data useful for diagnosis can be acquired.

なお、本実施形態においては、第3正面画像(血管強調画像)に対して、正面モーションコントラストデータを位置合わせする構成について説明したがこれに限定されない。血管強調画像に対して、種々の正面画像を位置合わせする構成であってもよい。例えば、OCT光学系100によって、各走査位置で取得されたOCT信号に基づいて取得されるOCT正面画像データを第3正面画像に対して、位置合わせする構成であってもよい。この場合、例えば、制御部70は、被検眼の断層画像データを得るOCT光学系100によって、各走査位置でのOCT信号を取得する。制御部70は、取得された各走査位置での深さ方向におけるOCT信号を処理して、被検眼におけるOCT正面画像データを取得する。制御部70は、基準画像(第3正面画像)をテンプレートとし、OCT正面画像データを取得する際に、OCT正面画像データを構築するための各走査位置でのOCT画像データを基準画像に対して位置合わせし、各走査位置におけるOCT画像データの位置ずれを補正する。   In the present embodiment, the configuration in which the front motion contrast data is aligned with the third front image (blood vessel emphasized image) has been described, but the present invention is not limited to this. The configuration may be such that various front images are aligned with the blood vessel emphasized image. For example, the OCT optical system 100 may be configured to align the OCT front image data acquired based on the OCT signal acquired at each scanning position with respect to the third front image. In this case, for example, the control unit 70 acquires an OCT signal at each scanning position by the OCT optical system 100 that obtains tomographic image data of the eye to be examined. The control unit 70 processes the acquired OCT signal in the depth direction at each scanning position, and acquires OCT front image data in the eye to be examined. When the controller 70 acquires the OCT front image data using the reference image (third front image) as a template, the OCT image data at each scanning position for constructing the OCT front image data is obtained with respect to the reference image. Alignment is performed, and positional deviation of the OCT image data at each scanning position is corrected.

なお、OCT正面画像データの位置合わせを行う場合に、OCT正面画像データ全体を取得してから位置合わせを行ってもよいし、OCT正面画像データの少なくとも一部を取得してから位置合わせを行ってもよい。このように、特徴部分である血管がより強調された画像データを用いて、特徴部分に基づく、画像データ位置合わせをすることで、血管部分の位置合わせの精度をより良好とすることができる。特に、OCT正面画像データとして、深さ方向において所定の層領域のみから取得されたOCT正面画像データの場合に、画像データ中における血管部分が多くなることがあるため、血管部分の強調された画像データ同士(画像データとして類似している画像データ同士)で位置合わせを行うことができるため、位置合わせの精度をより良好とすることができる。   In addition, when aligning the OCT front image data, the alignment may be performed after acquiring the entire OCT front image data, or after at least a part of the OCT front image data is acquired. May be. As described above, the image data alignment based on the feature portion is performed using the image data in which the blood vessel that is the feature portion is more emphasized, so that the alignment accuracy of the blood vessel portion can be further improved. In particular, in the case of OCT front image data acquired from only a predetermined layer region in the depth direction as OCT front image data, there may be many blood vessel portions in the image data. Since alignment can be performed between data (image data similar as image data), the alignment accuracy can be further improved.

なお、本実施形態においては、眼科撮影装置として、OCT信号を取得する光コヒーレンストモグラフィ装置を例に挙げて説明したこれに限定されない。本開示の技術は、複数の信号からモーションコントラストデータを取得する装置であれば、適用することができる。   In the present embodiment, the ophthalmologic imaging apparatus is not limited to the optical coherence tomography apparatus that acquires the OCT signal as an example. The technique of the present disclosure can be applied to any apparatus that acquires motion contrast data from a plurality of signals.

なお、本実施形態においては、撮影装置として、被検眼を撮影する構成を例に挙げて説明したがこれに限定されない。本開示の技術は、種々の生体を撮影する撮影装置において適用することができる。例えば、耳、鼻、各種臓器等が挙げられる。また、例えば、生体以外の試料、等を撮影する撮影装置においても、本開示の技術が適用可能である。   In the present embodiment, the imaging apparatus has been described by taking the configuration for imaging the eye to be examined as an example, but is not limited thereto. The technology of the present disclosure can be applied to an imaging device that images various living bodies. For example, ears, nose, various organs and the like can be mentioned. Further, for example, the technique of the present disclosure can also be applied to an imaging apparatus that images a sample other than a living body.

なお、本実施形態においては、 第1正面画像データと、第2正面画像データと、を比較処理して、血管強調画像データを含む第3正面画像データ生成する構成を例に挙げて説明したがこれに限定されない。本開示の技術は、第1正面画像データと、第2正面画像データと、を比較処理して、導管を強調した導管強調画像データを生成する装置であれば適用することができる。例えば、導管強調画像データとしては、リンパ管を強調する構成が挙げられる。   In the present embodiment, the first front image data and the second front image data are compared, and the third front image data including the blood vessel emphasized image data is generated as an example. It is not limited to this. The technique of the present disclosure can be applied to any device that generates a conduit-weighted image data in which a conduit is emphasized by comparing the first front image data and the second front image data. For example, the duct-emphasized image data includes a configuration that emphasizes lymphatic vessels.

なお、本発明においては、本実施形態に記載した装置に限定されない。例えば、上記実施形態の機能を行う眼科撮影ソフトウェア(プログラム)をネットワーク又は各種記憶媒体等を介して、システムあるいは装置に供給する。そして、システムあるいは装置の制御装置(例えば、CPU等)がプログラムを読み出し、実行することも可能である。   Note that the present invention is not limited to the apparatus described in this embodiment. For example, ophthalmic imaging software (program) that performs the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. A control device (for example, a CPU) of the system or device can read and execute the program.

1 光コヒーレンストモグラフィデバイス
70 制御部
72 メモリ
75 モニタ
76 操作部
100 干渉光学系(OCT光学系)
108 光スキャナ
120 検出器
200 正面観察光学系
300 固視標投影ユニット
DESCRIPTION OF SYMBOLS 1 Optical coherence tomography device 70 Control part 72 Memory 75 Monitor 76 Operation part 100 Interference optical system (OCT optical system)
108 optical scanner 120 detector 200 front observation optical system 300 fixation target projection unit

Claims (8)

被検眼を撮影する眼科撮影装置であって、
被検眼の正面画像データを得る正面観察光学系によって、被検眼上において第1正面画像データを取得するとともに、前記第1正面画像データを取得した部位と共通する部位を含む第2正面画像データを取得する第1取得手段と、
前記第1正面画像データと、前記第2正面画像データと、を比較処理して、前記第1正面画像データと前記第2正面画像データとで共通する部位の少なくとも一部における血管強調画像データを含む第3正面画像データを基準画像データとして生成する第1画像処理手段と、
を備えることを特徴とする眼科撮影装置。
An ophthalmologic photographing apparatus for photographing an eye to be examined,
The first front image data is obtained on the eye to be examined by the front observation optical system for obtaining the front image data of the eye to be examined, and the second front image data including a part common to the part from which the first front image data is obtained is obtained. First acquiring means for acquiring;
By comparing the first front image data and the second front image data, blood vessel emphasized image data in at least a part of a portion common to the first front image data and the second front image data is obtained. First image processing means for generating third front image data including reference image data;
An ophthalmologic photographing apparatus comprising:
請求項1の眼科撮影装置において、
被検眼の断層画像データを得るOCT光学系によって、被検眼上の同一位置に関して時間的に異なる複数のOCT信号を取得する第2取得手段と、
前記第2取得手段によって取得された各走査位置での深さ方向における前記複数のOCT信号を処理して、前記被検眼における正面モーションコントラストデータを取得する第2画像処理手段と、
前記正面モーションコントラストデータを取得する際に、前記基準画像データをテンプレートとし、前記正面モーションコントラストデータを構築するための前記各走査位置でのモーションコントラストデータを前記基準画像データに対して位置合わせし、前記各走査位置におけるモーションコントラストデータの位置ずれを補正する補正手段と、
を備えることを特徴とする眼科撮影装置。
The ophthalmologic photographing apparatus according to claim 1.
Second acquisition means for acquiring a plurality of OCT signals that are temporally different with respect to the same position on the eye to be examined by an OCT optical system that obtains tomographic image data of the eye to be examined;
Second image processing means for processing the plurality of OCT signals in the depth direction at each scanning position acquired by the second acquisition means to acquire frontal motion contrast data in the eye to be examined;
When acquiring the front motion contrast data, the reference image data is used as a template, and the motion contrast data at each scanning position for constructing the front motion contrast data is aligned with the reference image data, Correction means for correcting a displacement of motion contrast data at each scanning position;
An ophthalmologic photographing apparatus comprising:
請求項2の眼科撮影装置において、
前記第2画像処理手段は、前記各走査位置での深さ方向における前記複数のOCT信号を処理して、前記正面モーションコントラストデータを取得し、
前記補正手段は、取得した前記正面モーションコントラストデータを、複数の領域に分割し、分割した分割領域毎の正面モーションコントラストデータを前記基準画像データに対して、それぞれ位置合わせすることによって、前記正面モーションコントラストデータを補正することを特徴とする眼科撮影装置。
The ophthalmologic photographing apparatus according to claim 2,
The second image processing means processes the plurality of OCT signals in the depth direction at each scanning position to obtain the front motion contrast data,
The correction means divides the acquired front motion contrast data into a plurality of regions, and aligns the front motion contrast data for each of the divided regions with the reference image data to thereby adjust the front motion contrast. An ophthalmologic photographing apparatus characterized by correcting contrast data.
請求項3の眼科撮影装置において、
前記第2画像処理手段は、前記正面モーションコントラストデータにおいて、前記正面モーションコントラストデータから画像処理によってモーションアーチファクトを検出し、前記モーションアーチファクトが検出された位置に基づいて、前記正面モーションコントラストデータを前記複数の領域に分割するための分割位置を設定する眼科撮影装置。
The ophthalmologic photographing apparatus according to claim 3,
The second image processing means detects a motion artifact by image processing from the front motion contrast data in the front motion contrast data, and based on the position where the motion artifact is detected, the plurality of front motion contrast data An ophthalmologic photographing apparatus for setting a division position for division into regions.
請求項1の眼科撮影装置において、
被検眼の断層画像データを得るOCT光学系によって、各走査位置でのOCT信号を取得する第3取得手段と、
前記第3取得手段によって取得された各走査位置での深さ方向における前記OCT信号を処理して、前記被検眼におけるOCT正面画像データを取得する第3画像処理手段と、
を備え、
前記基準画像データをテンプレートとし、前記OCT正面画像データを取得する際に、前記OCT正面画像データを構築するための前記各走査位置でのOCT画像データを前記基準画像データに対して位置合わせし、前記各走査位置における前記OCT画像データの位置ずれを補正する補正手段と、
を備えることを特徴とする眼科撮影装置。
The ophthalmologic photographing apparatus according to claim 1.
Third acquisition means for acquiring an OCT signal at each scanning position by an OCT optical system that obtains tomographic image data of the eye to be examined;
Third image processing means for processing the OCT signal in the depth direction at each scanning position acquired by the third acquisition means to acquire OCT front image data in the eye to be examined;
With
When obtaining the OCT front image data using the reference image data as a template, the OCT image data at each scanning position for constructing the OCT front image data is aligned with the reference image data, Correction means for correcting a positional shift of the OCT image data at each scanning position;
An ophthalmologic photographing apparatus comprising:
請求項1〜5のいずれかの眼科撮影装置において、
前記1画像処理手段は、前記比較処理として、前記第1正面画像データと、前記第2正面画像データと、の輝度値の比率から輝度値の時間的な変化を取得し、取得した輝度値の変化に基づいて、前記血管強調画像データを含む前記第3正面画像データを前記基準画像データとして生成することを特徴とする眼科撮影装置。
In the ophthalmologic photographing apparatus according to any one of claims 1 to 5,
The one image processing means acquires a temporal change in luminance value from the ratio of luminance values of the first front image data and the second front image data as the comparison processing, and the acquired luminance value An ophthalmologic photographing apparatus characterized in that the third front image data including the blood vessel emphasized image data is generated as the reference image data based on a change.
被検眼を撮影する眼科撮影装置であって、
被検眼の正面画像データを得る走査型レーザー検眼光学系と、
被検眼の断層画像データを得るOCT光学系と、
前記走査型レーザー検眼光学系によって、被検眼上において第1正面画像データを取得するとともに、前記第1正面画像データを取得した前記被検眼上の部位と同一部位における第2正面画像データを取得する第1取得手段と、
前記OCT光学系によって、前記被検眼上の同一位置に関して時間的に異なる複数のOCT信号を取得する第2取得手段と、
前記第1正面画像データと、前記第2正面画像データと、を比較処理することによって、血管強調画像データである第3正面画像データを生成する第1画像処理手段と、
前記OCT取得手段によって取得された各走査位置での深さ方向における前記複数のOCT信号を処理して、前記被検眼における正面モーションコントラストデータを取得する第2画像処理手段と、
前記第2画像処理手段によって取得した前記正面モーションコントラストデータを、複数の領域に分割し、分割した分割領域毎の正面モーションコントラストデータを前記基準画像データに対して、それぞれ位置合わせすることによって、前記正面モーションコントラストデータを補正する補正手段と、
を備えることを特徴とする眼科撮影装置。
An ophthalmologic photographing apparatus for photographing an eye to be examined,
A scanning laser optometry optical system for obtaining front image data of the eye to be examined;
An OCT optical system for obtaining tomographic image data of the eye to be examined;
The scanning laser optometry optical system obtains first front image data on the eye to be examined, and obtains second front image data in the same part as the part on the eye to be examined from which the first front image data was obtained. First acquisition means;
Second acquisition means for acquiring, by the OCT optical system, a plurality of OCT signals that are temporally different with respect to the same position on the eye to be examined;
First image processing means for generating third front image data which is blood vessel emphasized image data by comparing the first front image data and the second front image data;
Second image processing means for processing the plurality of OCT signals in the depth direction at each scanning position acquired by the OCT acquisition means to acquire frontal motion contrast data in the eye to be examined;
The front motion contrast data acquired by the second image processing means is divided into a plurality of regions, and the front motion contrast data for each divided region is aligned with the reference image data, thereby Correction means for correcting the front motion contrast data;
An ophthalmologic photographing apparatus comprising:
被検眼を撮影する眼科撮影装置の動作を制御する制御装置において実行される眼科撮影プログラムであって、
前記制御装置のプロセッサによって実行されることで、
被検眼の正面画像データを得る正面観察光学系によって、被検眼上において第1正面画像データを取得するとともに、前記第1正面画像データを取得した部位と共通する部位を含む第2正面画像データを取得する第1取得ステップと、
前記第1正面画像データと、前記第2正面画像データと、を比較処理して、前記第1正面画像データと前記第2正面画像データとで共通する部位の少なくとも一部における血管強調画像データを含む第3正面画像データを基準画像データとして取得する第1画像処理ステップと、
を前記眼科撮影装置に実行させることを特徴とする眼科撮影プログラム。
An ophthalmic imaging program that is executed in a control device that controls the operation of an ophthalmologic imaging apparatus that images an eye to be examined
By being executed by the processor of the control device,
The first front image data is obtained on the eye to be examined by the front observation optical system for obtaining the front image data of the eye to be examined, and the second front image data including a part common to the part from which the first front image data is obtained is obtained. A first acquisition step of acquiring;
By comparing the first front image data and the second front image data, blood vessel emphasized image data in at least a part of a portion common to the first front image data and the second front image data is obtained. A first image processing step of acquiring third front image data including reference image data;
Is executed by the ophthalmologic photographing apparatus.
JP2015173324A 2015-09-02 2015-09-02 Ophthalmic imaging apparatus and ophthalmic imaging program Pending JP2017046975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015173324A JP2017046975A (en) 2015-09-02 2015-09-02 Ophthalmic imaging apparatus and ophthalmic imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015173324A JP2017046975A (en) 2015-09-02 2015-09-02 Ophthalmic imaging apparatus and ophthalmic imaging program

Publications (1)

Publication Number Publication Date
JP2017046975A true JP2017046975A (en) 2017-03-09

Family

ID=58280725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015173324A Pending JP2017046975A (en) 2015-09-02 2015-09-02 Ophthalmic imaging apparatus and ophthalmic imaging program

Country Status (1)

Country Link
JP (1) JP2017046975A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3375349A1 (en) * 2017-03-17 2018-09-19 C/o Canon Kabushiki Kaisha Information processing apparatus, image generation method, and computer-readable medium
JP2018153611A (en) * 2017-03-17 2018-10-04 キヤノン株式会社 Information processor, image generation method and program
WO2019003804A1 (en) * 2017-06-26 2019-01-03 株式会社トプコン Ophthalmic device and method for controlling same
JP2019058495A (en) * 2017-09-27 2019-04-18 株式会社トプコン Ophthalmologic apparatus, ophthalmologic image processing method, program, and recording medium
WO2020090439A1 (en) * 2018-10-31 2020-05-07 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2020513983A (en) * 2017-03-23 2020-05-21 ドヘニー アイ インスティテュート Multiplex en-face angiographic averaging system, method and apparatus for optical coherence tomography
JP2020162927A (en) * 2019-03-29 2020-10-08 株式会社ニデック Ophthalmology imaging apparatus and ophthalmology image processing program
JP7348374B2 (en) 2018-12-26 2023-09-20 株式会社トプコン Ophthalmology information processing device, ophthalmology imaging device, ophthalmology information processing method, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018153611A (en) * 2017-03-17 2018-10-04 キヤノン株式会社 Information processor, image generation method and program
US10888220B2 (en) 2017-03-17 2021-01-12 Canon Kabushiki Kaisha Information processing apparatus, image generation method, and computer-readable medium, with acquisition of correction coefficient by performing arithmetic operation on first and second parameters
EP3375349A1 (en) * 2017-03-17 2018-09-19 C/o Canon Kabushiki Kaisha Information processing apparatus, image generation method, and computer-readable medium
JP2020513983A (en) * 2017-03-23 2020-05-21 ドヘニー アイ インスティテュート Multiplex en-face angiographic averaging system, method and apparatus for optical coherence tomography
JP2019005254A (en) * 2017-06-26 2019-01-17 株式会社トプコン Ophthalmologic apparatus and control method of the same
WO2019003804A1 (en) * 2017-06-26 2019-01-03 株式会社トプコン Ophthalmic device and method for controlling same
US11213202B2 (en) 2017-06-26 2022-01-04 Topcon Corporation Ophthalmologic apparatus and method for controlling the same
JP2019058495A (en) * 2017-09-27 2019-04-18 株式会社トプコン Ophthalmologic apparatus, ophthalmologic image processing method, program, and recording medium
JP7220509B2 (en) 2017-09-27 2023-02-10 株式会社トプコン OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
WO2020090439A1 (en) * 2018-10-31 2020-05-07 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7348374B2 (en) 2018-12-26 2023-09-20 株式会社トプコン Ophthalmology information processing device, ophthalmology imaging device, ophthalmology information processing method, and program
JP2020162927A (en) * 2019-03-29 2020-10-08 株式会社ニデック Ophthalmology imaging apparatus and ophthalmology image processing program
JP7318273B2 (en) 2019-03-29 2023-08-01 株式会社ニデック OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM

Similar Documents

Publication Publication Date Title
JP6551081B2 (en) Ophthalmic imaging apparatus and ophthalmologic imaging program
JP6746884B2 (en) Ophthalmic photography device and ophthalmic photography program
JP6507615B2 (en) Optical coherence tomography apparatus and program
JP6402902B2 (en) Optical coherence tomography apparatus and optical coherence tomography calculation program
JP6703730B2 (en) Optical coherence tomography device and optical coherence tomography control program
JP6402901B2 (en) Optical coherence tomography apparatus, optical coherence tomography calculation method, and optical coherence tomography calculation program
JP2017046975A (en) Ophthalmic imaging apparatus and ophthalmic imaging program
JP6746960B2 (en) Ophthalmic laser treatment device
JP6535985B2 (en) Optical coherence tomography apparatus, optical coherence tomography computing method and optical coherence tomography computing program
US10660514B2 (en) Image processing apparatus and image processing method with generating motion contrast image using items of three-dimensional tomographic data
JP6909109B2 (en) Information processing equipment, information processing methods, and programs
JP2018019771A (en) Optical coherence tomography device and optical coherence tomography control program
JP6471593B2 (en) OCT signal processing apparatus and OCT signal processing program
WO2015016292A2 (en) Image processing apparatus and image processing method
JP6375760B2 (en) Optical coherence tomography apparatus and fundus image processing program
JP2019177032A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP2013034658A (en) Fundus imaging apparatus
JP6606846B2 (en) OCT signal processing apparatus and OCT signal processing program
JP6544071B2 (en) Optical coherence tomography apparatus and optical coherence tomography control program
JP6402921B2 (en) Optical coherence tomography apparatus and speed measurement program
JP2013179972A (en) Opto-tomographic image capturing apparatus for eye
US20210049742A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11412925B2 (en) Ophthalmic imaging apparatus and storage medium
JP6763457B2 (en) Optical coherence tomography equipment and optical coherence tomography control program
JP6977114B2 (en) Image processing equipment, systems, image processing methods, and programs