JP6849776B2 - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP6849776B2
JP6849776B2 JP2019214043A JP2019214043A JP6849776B2 JP 6849776 B2 JP6849776 B2 JP 6849776B2 JP 2019214043 A JP2019214043 A JP 2019214043A JP 2019214043 A JP2019214043 A JP 2019214043A JP 6849776 B2 JP6849776 B2 JP 6849776B2
Authority
JP
Japan
Prior art keywords
image
motion contrast
information
display
blood vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019214043A
Other languages
Japanese (ja)
Other versions
JP2020049231A (en
Inventor
住谷 利治
利治 住谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019214043A priority Critical patent/JP6849776B2/en
Publication of JP2020049231A publication Critical patent/JP2020049231A/en
Application granted granted Critical
Publication of JP6849776B2 publication Critical patent/JP6849776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing device and an information processing method .

生体などの測定対象の断層像を非破壊、非侵襲で取得する方法として、光干渉断層撮像法(Optical Coherence Tomography、以下OCTという)が実用化されている。OCTは、特に眼科領域で被検眼の眼底における網膜の断層像が取得され、網膜の眼科診断等において広く利用されている。 Optical coherence tomography (hereinafter referred to as OCT) has been put into practical use as a non-destructive and non-invasive method for acquiring a tomographic image of a living body or the like. OCT is widely used in ophthalmic diagnosis of the retina because a tomographic image of the retina in the fundus of the eye to be examined is acquired, especially in the field of ophthalmology.

OCTは、測定対象から反射した光と参照鏡から反射した光を干渉させ、その干渉した光強度の時間依存性又は波数依存性を解析することにより断層像を得ている。このような光干渉断層像取得装置として、タイムドメインOCT、スペクトラルドメインOCT、或いは波長掃引OCTが知られている。タイムドメインOCTでは、参照鏡の位置を変えることで測定対象の深さ情報を得る。広帯域光源を使用したスペクトラルドメインOCT(SD−OCT:Spectral Domain Optical Coherence Tomography)では分光器により波長毎に干渉光を分光し、測定対象の深さ情報を得る。波長掃引光コヒーレンストモグラフィー(SS−OCT:Swept Source Optical Coherence Tomography)装置では発振波長を変えることができる波長可変光源装置を用いている。なお、SD−OCTとSS−OCTは総称して(FD−OCT:Fourier Domain Optical Coherence Tomography)と呼ばれる。 OCT obtains a tomographic image by interfering the light reflected from the measurement target with the light reflected from the reference mirror and analyzing the time dependence or wave number dependence of the interfering light intensity. As such an optical coherence tomography acquisition device, a time domain OCT, a spectral domain OCT, or a wavelength sweep OCT is known. In the time domain OCT, the depth information of the measurement target is obtained by changing the position of the reference mirror. In a spectral domain OCT (SD-OCT: Spectral Domine Optical Coherence Tomography) using a wideband light source, interference light is separated for each wavelength by a spectroscope to obtain depth information of a measurement target. The wavelength sweep optical coherence tomography (SS-OCT) device uses a wavelength variable light source device capable of changing the oscillation wavelength. In addition, SD-OCT and SS-OCT are collectively called (FD-OCT: Fourier Optical Coherence Tomography).

近年、このFD−OCTを用いた擬似血管造影法が提案されており、OCTアンギオグラフィー(OCTA)と呼ばれている(非特許文献1)。現代の臨床医療で一般的な血管造影法である蛍光造影は、体内に蛍光色素(例えばフルオレセイン又はインドシアニングリーン)の注入を必要とし、蛍光色素の通り道となる血管を2次元的に表示する。一方、OCTAは非侵襲で擬似的な血管造影を可能にし、血流部位のネットワークを3次元的に表示することを可能とする。さらに、OCTAは蛍光造影法に比べて高分解能であり、眼底の微小血管又は血流を描出することができるため注目を集めている。 In recent years, a pseudo-angiography method using this FD-OCT has been proposed and is called OCT angiography (OCTA) (Non-Patent Document 1). Fluorescence imaging, which is a common angiography method in modern clinical medicine, requires injection of a fluorescent dye (for example, fluorescein or indocyanine green) into the body, and displays the blood vessels through which the fluorescent dye passes in two dimensions. On the other hand, OCTA enables non-invasive and pseudo angiography and enables three-dimensional display of the network of blood flow sites. Furthermore, OCTA is attracting attention because it has a higher resolution than fluorescence contrast and can visualize microvessels or blood flow in the fundus.

OCTAは血流検出方法の違いにより複数の方法が提案されている。例えば、被特許文献2には、OCT信号から時間変調が起こっている信号のみを抽出することで血流からのOCT信号を分離する方法が提案されている。非特許文献3には、血流による位相のバラツキを利用した方法が、非特許文献4及び特許文献1には血流による強度のバラツキを利用した方法が提案されている。 A plurality of OCTA methods have been proposed depending on the difference in blood flow detection method. For example, Patent Document 2 proposes a method of separating an OCT signal from a bloodstream by extracting only a time-modulated signal from an OCT signal. Non-Patent Document 3 proposes a method utilizing phase variation due to blood flow, and Non-Patent Document 4 and Patent Document 1 propose a method utilizing intensity variation due to blood flow.

USP Pub. No. 2014/221827 A1USP Pub. No. 2014/221827 A1

Makita et al., “Optical Coherence Angiography,” Optics Express, 14(17), 7821-7840 (2006)Makita et al., “Optical Coherence Angiography,” Optics Express, 14 (17), 7821-7840 (2006) An et al. “Optical microangiography provides correlation between microstructure and microvasculature of optic nerve head in human subjects,” J. Biomed. Opt. 17, 116018 (2012)An et al. “Optical microangiography provides correlation between microstructure and microvasculature of optic nerve head in human subjects,” J. Biomed. Opt. 17, 116018 (2012) Fingler et al. “Mobility and transverse flow visualization using phase variance contrast with spectral domain optical coherence tomography” Optics Express. Vol. 15, No. 20. pp 12637-12653 (2007)Fingler et al. “Mobility and transverse flow visualization using phase variance contrast with spectral domain optical coherence tomography” Optics Express. Vol. 15, No. 20. pp 12637-12653 (2007) Mariampillai et al., “Optimized speckle variance OCT imaging of microvasculature,” Optics Letters 35, 1257-1259 (2010)Mariampillai et al., “Optimized speckle variance OCT imaging of microvasculature,” Optics Letters 35, 1257-1259 (2010)

しかし、上述したOCTAでは詳細な血流部位まで得られるがために、特定の血管の繋がりや走行が検者にとって分かりにくい場合がある。また、上述したOCTAで得られる血流部位に関する画像とOCTで得られる構造情報に関する画像とは、各々独立した別個の画像として得られる。このため、実際の診断に際しては、検者がこれら両画像を交互に見比べる必要がある。しかしOCTAにより得た詳細な血流部位は詳細であるが故、OCTの強度画像や眼底写真等から得られる被検眼の構造情報との対応が分かりにくかった。 However, since the above-mentioned OCTA can obtain detailed blood flow sites, it may be difficult for the examiner to understand the connection and running of specific blood vessels. Further, the image regarding the blood flow site obtained by the above-mentioned OCTA and the image regarding the structural information obtained by the OCTA are obtained as independent and separate images. Therefore, in the actual diagnosis, it is necessary for the examiner to compare these two images alternately. However, since the detailed blood flow site obtained by OCTA is detailed, it is difficult to understand the correspondence with the structural information of the eye to be inspected obtained from the intensity image of OCT, the photograph of the fundus, and the like.

本発明は、このような状況に鑑みて為されたものであって、OCTAで得られる血流部位に関する画像とOCT等で得られる構造情報との対応を容易にすることを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to facilitate correspondence between an image relating to a blood flow site obtained by OCTA and structural information obtained by OCT or the like.

上記課題を解決するために、本発明の一態様に係る情報処理装置は、
異なる時間に被検眼を撮影して得た複数の3次元モーションコントラストデータのそれぞれのデータを用いて少なくとも1つの血管に関する計測情報を取得する情報取得手段と、
前記取得された計測情報を用いて前記少なくとも1つの血管を分類する分類手段と、
前記被検眼の深さ方向における前記複数の3次元モーションコントラストデータのそれぞれのデータの少なくとも一部の範囲を用いて生成されたモーションコントラストEnface画像であって、前記複数の3次元モーションコントラストデータに対応する複数のモーションコントラストEnface画像を並べて表示手段に表示させ、前記複数のモーションコントラストEnface画像において互いに対応する位置を示す表示情報を表示手段に表示させる表示制御手段と、
を備える。
In order to solve the above problems, the information processing device according to one aspect of the present invention is
Using each of the data of a plurality of 3-dimensional motion contrast data obtained by photographing a subject's eye at different times, information acquisition means for acquiring measurement information for at least one blood vessel,
A classification means for classifying at least one blood vessel using the acquired measurement information, and
It is a motion contrast Enface image generated by using at least a part range of each data of the plurality of three-dimensional motion contrast data in the depth direction of the eye to be inspected, and corresponds to the plurality of three-dimensional motion contrast data. A display control means for displaying a plurality of motion contrast Enface images side by side on a display means, and displaying display information indicating positions corresponding to each other in the plurality of motion contrast Enface images on the display means.
To be equipped.

本発明によれば、OCTAで得られる血流部位に関する画像とOCT等で得られる構造情報との対応を容易に得ることが可能となる。 According to the present invention, it is possible to easily obtain a correspondence between an image relating to a blood flow site obtained by OCTA and structural information obtained by OCT or the like.

本発明の第一の実施形態における装置の全体構成の概略を示す図である。It is a figure which shows the outline of the whole structure of the apparatus in 1st Embodiment of this invention. 第一の実施形態におけるスキャンパターンの一例を表す図である。It is a figure which shows an example of the scan pattern in 1st Embodiment. 第一の実施形態における画像生成の全体処理手順を示すフローチャートである。It is a flowchart which shows the whole processing procedure of image generation in 1st Embodiment. 第一の実施形態における干渉信号取得手順を示すフローチャートである。It is a flowchart which shows the interference signal acquisition procedure in 1st Embodiment. 第一の実施形態における信号処理手順を示すフローチャートである。It is a flowchart which shows the signal processing procedure in 1st Embodiment. 第一の実施形態における3次元血流部位情報取得及び表示手順を示すフローチャートである。It is a flowchart which shows the 3D blood flow part information acquisition and display procedure in 1st Embodiment. 第一の実施形態におけるセグメンテーション結果の説明図である。It is explanatory drawing of the segmentation result in 1st Embodiment. 第一の実施形態における表示画面の一例を表す図である。It is a figure which shows an example of the display screen in 1st Embodiment. 第一の実施形態における表示方法の一例を表す図である。It is a figure which shows an example of the display method in 1st Embodiment. 第二の実施形態における深さ選択方法の一例を表す図。The figure which shows an example of the depth selection method in 2nd Embodiment. 第二の実施形態における2次元強度画像を生成方法の一例を表す図。The figure which shows an example of the method of generating the 2D intensity image in 2nd Embodiment. 第二の実施形態における選択部位の表示方法の一例を表す図。The figure which shows an example of the display method of the selected part in 2nd Embodiment. 領域分割処理手順の一例を表すフローチャートである。It is a flowchart which shows an example of the area division processing procedure. 2つの画像を表示する表示方法の一例を表す図である。It is a figure which shows an example of the display method which displays two images. 血管を推定する際に行われる比較手順の一例を表すフローチャートである。It is a flowchart which shows an example of the comparison procedure performed at the time of estimating a blood vessel. 血管推定の解析結果の表示方法の一例を表す図である。It is a figure which shows an example of the display method of the analysis result of the blood vessel estimation. 第三の実施形態における表示画面の一例を表す図である。It is a figure which shows an example of the display screen in 3rd Embodiment. 第四の実施形態における表示画面の一例を表す図である。It is a figure which shows an example of the display screen in 4th Embodiment.

以下、本発明の実施形態について図面に基づいて説明する。なお、以下の実施形態は特許請求の範囲に関わる本発明を限定するものではなく、また、以下の実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention relating to the scope of claims, and that all combinations of features described in the following embodiments are essential for the means for solving the present invention. Not exclusively.

また、本明細書中では、OCT信号を画像として表示したものを強度画像と呼ぶ。さらに、OCT信号から時間変調が起こっている信号を画像として表示したものをモーションコントラスト画像、またその画素値をモーションコントラスト、そのデータセットをモーションコントラストデータと呼ぶ。 Further, in the present specification, an image in which an OCT signal is displayed as an image is referred to as an intensity image. Further, a signal obtained by displaying a time-modulated signal from the OCT signal as an image is called a motion contrast image, the pixel value thereof is called a motion contrast, and the data set is called a motion contrast data.

(第一の実施形態)
本実施形態では、撮影された3次元光干渉信号から断層画像を生成し、モーションコントラストを算出して、3次元血流部位情報を取得する例を示す。
(First Embodiment)
In this embodiment, an example is shown in which a tomographic image is generated from a captured three-dimensional optical interference signal, motion contrast is calculated, and three-dimensional blood flow site information is acquired.

[画像形成装置全体の構成]
図1は、本発明の実施形態における光干渉断層法を用いた画像形成方法及び装置の構成例を示す図である。画像形成方法及び装置は、光干渉断層信号を取得する光干渉断層取得部であるOCT装置100と制御部143とから構成される。なお、OCT装置としては、例えば上述したSD−OCTやSS−OCTが本発明に適用可能である。以下に述べる実施形態では、OCT装置がSS−OCTである場合の構成を示す。
[Structure of the entire image forming apparatus]
FIG. 1 is a diagram showing a configuration example of an image forming method and an apparatus using the optical coherence tomography method according to the embodiment of the present invention. The image forming method and device are composed of an OCT device 100 and a control unit 143, which are optical coherence tomography acquisition units that acquire optical coherence tomography signals. As the OCT apparatus, for example, the SD-OCT and SS-OCT described above can be applied to the present invention. In the embodiment described below, the configuration when the OCT apparatus is SS-OCT is shown.

<OCT装置100の構成>
OCT装置100の構成について以下に図1を参照して説明する。
光源101は波長掃引型(Swept Source:以下SS)光源であり、例えば、掃引中心波長1050nm、掃引幅100nmで掃引しながら光を出射する。
<Configuration of OCT device 100>
The configuration of the OCT apparatus 100 will be described below with reference to FIG.
The light source 101 is a wavelength sweep type (Swept Source: SS) light source, and emits light while sweeping at a sweep center wavelength of 1050 nm and a sweep width of 100 nm, for example.

光源101から出射された光は光ファイバ102を介して、ビームスプリッタ110に導かれ、測定光(OCT測定光とも言う)と参照光(OCT測定光に対応する参照光とも言う)に分岐される。ビームスプリッタ110の分岐比は、90(参照光):10(測定光)である。分岐された測定光は、光ファイバ111を介して測定光路に出射される該測定光路には、光ファイバ111から被検眼118まで順に、コリメータレンズ112、ガルバノスキャナ114、スキャンレンズ115、及びフォーカスレンズ116が配置される。 The light emitted from the light source 101 is guided to the beam splitter 110 via the optical fiber 102 and split into measurement light (also referred to as OCT measurement light) and reference light (also referred to as reference light corresponding to OCT measurement light). .. The branching ratio of the beam splitter 110 is 90 (reference light): 10 (measurement light). The branched measurement light is emitted to the measurement optical path via the optical fiber 111. In the measurement optical path, the collimator lens 112, the galvano scanner 114, the scan lens 115, and the focus lens are arranged in this order from the optical fiber 111 to the eye to be inspected 118. 116 is placed.

測定光路に射出された測定光は、コリメータレンズ112によって平行光とされる。平行光となった測定光は、被検眼118の眼底Erにおいて測定光を走査するガルバノスキャナ114、スキャンレンズ115、及びフォーカスレンズ116を介して被検眼118に入射する。ここで、ガルバノスキャナ114は単一のミラーとして記載したが、実際は被検眼118の眼底Erをラスタースキャンするように不図示の2枚のガルバノスキャナ、例えばX軸スキャナーとY軸スキャナーとによって構成されている。 The measurement light emitted into the measurement optical path is made parallel light by the collimator lens 112. The parallel light is incident on the eye 118 via the galvano scanner 114, the scan lens 115, and the focus lens 116 that scan the measurement light on the fundus Er of the eye 118. Here, the galvano scanner 114 is described as a single mirror, but is actually composed of two galvano scanners (for example, an X-axis scanner and a Y-axis scanner) (not shown) so as to raster scan the fundus Er of the eye 118 to be inspected. ing.

フォーカスレンズ116はステージ117上に固定されており、該ステージ117が光軸方向に動くことで、フォーカスレンズ116によるフォーカス調整をすることができる。ガルバノスキャナ114とステージ117は後述する信号取得制御部145によって制御され、被検眼118の眼底Erの所望の範囲(断層画像の取得範囲、断層画像の取得位置、測定光の照射位置とも言う)で測定光を走査することができる。 The focus lens 116 is fixed on the stage 117, and the focus can be adjusted by the focus lens 116 by moving the stage 117 in the optical axis direction. The galvano scanner 114 and the stage 117 are controlled by the signal acquisition control unit 145, which will be described later, in a desired range of the fundus Er of the eye to be inspected 118 (also referred to as a tomographic image acquisition range, a tomographic image acquisition position, and a measurement light irradiation position). The measurement light can be scanned.

なお、本実施形態では詳細な説明はしていないが、眼底Erの動きを検出し、ガルバノスキャナ114のミラーを眼底Erの動きに追従させて走査させるトラッキング機能が付与されていることが望ましい。トラッキング方法については一般的な技術を用いて行うことが可能であり、リアルタイムで行うことも、ポストプロセッシングで行うことも可能である。 Although detailed description is not given in this embodiment, it is desirable that a tracking function for detecting the movement of the fundus Er and scanning the mirror of the galvano scanner 114 by following the movement of the fundus Er is provided. The tracking method can be performed using a general technique, and can be performed in real time or by post-processing.

眼底Erの動き検出のために眼底画像を得る方法として、例えば、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope:SLO)を用いる方法がある。この方法では、眼底Erの画像について、SLOを用いて光軸に対して垂直な面内の画像(眼底表面画像)を経時的に取得し、画像中の血管分岐などの特徴箇所を抽出する。取得する2次元画像中の特徴箇所がどのように動いたかを眼底Erの移動量として算出し、算出した移動量をガルバノスキャナ114にフィードバックすることでリアルタイムトラッキングを行うことができる。 As a method of obtaining a fundus image for detecting the movement of the fundus Er, for example, there is a method of using a scanning laser ophthalmoscope (SLO). In this method, with respect to the image of the fundus Er, an in-plane image (fundus surface image) perpendicular to the optical axis is acquired over time using SLO, and characteristic points such as blood vessel branches in the image are extracted. Real-time tracking can be performed by calculating how the feature portion in the acquired two-dimensional image moves as the movement amount of the fundus Er, and feeding back the calculated movement amount to the galvano scanner 114.

上述したように、測定光はステージ117上に乗ったフォーカスレンズ116を介して被検眼118に入射し、該フォーカスレンズ116により眼底Erにフォーカスされる。眼底Erを照射した測定光は各網膜層で反射・散乱し、上述の測定光路を経てビームスプリッタ110に戻る。ビームスプリッタ110に入射した測定光の戻り光は光ファイバ126を経由し、ビームスプリッタ128に入射する。 As described above, the measurement light is incident on the eye to be inspected 118 via the focus lens 116 mounted on the stage 117, and is focused on the fundus Er by the focus lens 116. The measurement light that irradiates the fundus Er is reflected and scattered in each retinal layer, and returns to the beam splitter 110 via the above-mentioned measurement optical path. The return light of the measurement light incident on the beam splitter 110 passes through the optical fiber 126 and is incident on the beam splitter 128.

一方、ビームスプリッタ110で分岐された参照光は、光ファイバ119a、偏光制御器150、及び光ファイバ119b、を介して参照光路に出射される該参照光路には、光ファイバ119bより順に、コリメータレンズ120、分散補償ガラス122、NDフィルタ123、コリメータレンズ124が配置される。 On the other hand, the reference light branched by the beam splitter 110 is emitted to the reference optical path via the optical fiber 119a, the polarization controller 150, and the optical fiber 119b. 120, dispersion compensating glass 122, ND filter 123, and collimator lens 124 are arranged.

光ファイバ119bより射出された参照光は、コリメータレンズ120によって平行光とされる。偏光制御器150は参照光の偏光を所望の偏光状態へ変化させることができる。参照光は分散補償ガラス122、NDフィルタ123、及びコリメータレンズ124を介し、光ファイバ127に入射する。コリメータレンズ124と光ファイバ127の一端はコヒーレンスゲートステージ125の上に固定されており、被検者の眼軸長の相違等に対応してこれらコリメータレンズ124等を光軸方向に駆動するように、後述する信号取得制御部145で制御される。なお本実施形態では参照光の光路長を変更しているが、測定光の光路と参照光の光路との光路長差を変更できればよい。 The reference light emitted from the optical fiber 119b is collimated by the collimator lens 120. The polarization controller 150 can change the polarization of the reference light to a desired polarization state. The reference light enters the optical fiber 127 via the dispersion compensating glass 122, the ND filter 123, and the collimator lens 124. One end of the collimator lens 124 and the optical fiber 127 is fixed on the coherence gate stage 125, and the collimator lens 124 or the like is driven in the optical axis direction in response to a difference in the axial length of the subject. , It is controlled by the signal acquisition control unit 145, which will be described later. Although the optical path length of the reference light is changed in this embodiment, it is sufficient that the optical path length difference between the optical path of the measurement light and the optical path of the reference light can be changed.

光ファイバ127を通過した参照光はビームスプリッタ128に入射する。ビームスプリッタ128では上述した測定光の戻り光と参照光とが合波されて干渉光とされた上で二つに分割される。分割される干渉光は、互いに反転した位相の干渉光(以下、正の成分及び負の成分と表現する)となっている。分割された干渉光の正の成分は光ファイバ129を経由してディテクタ141の一方の入力ポートに入射する。一方、干渉光の負の成分は光ファイバ130を経由してディテクタ141の他方の入力ポートに入射する。ディテクタ141は差動検出器となっており、位相が180°反転した二つの干渉信号が入力されると、直流成分を除去し、干渉成分のみを出力する。 The reference light that has passed through the optical fiber 127 enters the beam splitter 128. In the beam splitter 128, the return light and the reference light of the measurement light described above are combined to form interference light, and then split into two. The divided interference light is interference light having phases that are inverted from each other (hereinafter, referred to as a positive component and a negative component). The positive component of the divided interference light enters one input port of the detector 141 via the optical fiber 129. On the other hand, the negative component of the interference light enters the other input port of the detector 141 via the optical fiber 130. The detector 141 is a differential detector, and when two interference signals whose phases are inverted by 180 ° are input, the DC component is removed and only the interference component is output.

ディテクタ141で検出された干渉信号は光の強度に応じた電気信号として出力され、断層画像生成部の一例である信号処理部144に入力する。 The interference signal detected by the detector 141 is output as an electric signal according to the intensity of light, and is input to the signal processing unit 144, which is an example of the tomographic image generation unit.

<制御部143の構成>
本装置全体を制御するための制御部143について説明する。
制御部143は信号処理部144、信号取得制御部145、表示部146、及び表示制御部149によって構成される。また、信号処理部144はさらに、画像生成部147とマップ生成部148を持つ構成となっている。画像生成部147は送られる電気信号から輝度画像及びモーションコントラスト画像を生成する機能を有し、マップ生成部148は輝度画像から層情報(網膜のセグメンテーション)を生成する機能を有する。
<Structure of control unit 143>
The control unit 143 for controlling the entire apparatus will be described.
The control unit 143 is composed of a signal processing unit 144, a signal acquisition control unit 145, a display unit 146, and a display control unit 149. Further, the signal processing unit 144 further includes an image generation unit 147 and a map generation unit 148. The image generation unit 147 has a function of generating a luminance image and a motion contrast image from the transmitted electric signal, and the map generation unit 148 has a function of generating layer information (segmentation of the retina) from the luminance image.

信号取得制御部145は、上述の通りにステージ117、コヒーレンスゲートステージ125等の各部を制御する。信号処理部144はディテクタ141から出力される信号に基づき、画像の生成、生成された画像の解析、及び解析結果の可視情報の生成を行う。 The signal acquisition control unit 145 controls each unit such as the stage 117 and the coherence gate stage 125 as described above. The signal processing unit 144 generates an image, analyzes the generated image, and generates visible information of the analysis result based on the signal output from the detector 141.

信号処理部144で生成される画像や解析結果は表示制御部149に送られ、表示制御部149は表示部146の表示画面に表示させる。ここで、表示部146は、例えば液晶等のディスプレイである。なお、信号処理部144で生成された画像データは表示制御部149に送られた後、表示部146に有線で送信されてもよいし、無線で送信されてもよい。また、本実施形態において表示部146等は制御部143に含まれているが、本発明はこれに限らず、制御部143とは別に設けられても良く、例えばユーザが持ち運び可能な装置の一例であるタブレットでもよい。この場合、表示部にタッチパネル機能を搭載させ、タッチパネル上で画像の表示位置の移動、拡大縮小、表示される画像の変更等を操作可能に構成することが好ましい。 The image and analysis result generated by the signal processing unit 144 are sent to the display control unit 149, and the display control unit 149 displays the image and the analysis result on the display screen of the display unit 146. Here, the display unit 146 is a display such as a liquid crystal display. The image data generated by the signal processing unit 144 may be transmitted to the display control unit 149 and then to the display unit 146 by wire or wirelessly. Further, in the present embodiment, the display unit 146 and the like are included in the control unit 143, but the present invention is not limited to this, and the display unit 146 and the like may be provided separately from the control unit 143, for example, an example of a device that can be carried by the user. It may be a tablet that is. In this case, it is preferable that the display unit is equipped with a touch panel function so that the display position of the image can be moved, enlarged / reduced, the displayed image can be changed, and the like can be operated on the touch panel.

[スキャンパターン]
<OCT装置における測定光の走査様式>
ここで、OCT装置において測定光を走査する様式について説明する。上述したように被検眼118の眼底上の任意の点に照射した測定光の戻り光と、対応する参照光とから干渉光を得ている。信号処理部144では、ディテクタ141で検出された干渉光の強度に応じた電気信号を処理して当該任意の点における深さ方向の画像データを得る。以上が、被検眼118のある1点における断層に関する情報の取得のプロセスの説明である。このように被検眼118の奥行き方向の断層に関する情報を取得することをA−scanと呼ぶ。
[Scan pattern]
<Scanning mode of measurement light in OCT device>
Here, a mode for scanning the measurement light in the OCT apparatus will be described. As described above, the interference light is obtained from the return light of the measurement light irradiated to an arbitrary point on the fundus of the eye 118 to be inspected and the corresponding reference light. The signal processing unit 144 processes an electric signal according to the intensity of the interference light detected by the detector 141 to obtain image data in the depth direction at the arbitrary point. The above is the description of the process of acquiring information on the tomography at one point of the eye to be inspected 118. Acquiring information on the tomographic fault in the depth direction of the eye 118 in this way is called A-scan.

また、A−scanと直交する方向で被検眼118の断層に関する情報、すなわち2次元画像を取得するための走査方向において前述した奥行き方向についての複数の断層に関する情報を取得することをB−scanと呼ぶ。さらに、A−scan及びB−scanのいずれの走査方向とも直交する走査方向において奥行き方向についての複数の断層に関する情報を取得することをC−scanと呼ぶ。3次元断層像を取得する際に眼底面内に2次元ラスター走査する場合、高速な走査方向がB−scan方向、B−scanをその直交方向に並べて走査する低速な走査方向をC−scan方向と呼ぶ。A−scan及びB−scanを行うことで2次元の断層像が得られ、A−scan、B−scan及びC−scanを行うことで、3次元の断層像を得ることができる。これらB−scan並びにC−scanは、上述したガルバノスキャナ114により行われる。 Further, acquisition of information on the tomography of the eye 118 to be inspected in the direction orthogonal to A-scan, that is, information on a plurality of tomography in the depth direction described above in the scanning direction for acquiring a two-dimensional image is called B-scan. Call. Further, acquiring information on a plurality of faults in the depth direction in the scanning direction orthogonal to both the scanning directions of A-scan and B-scan is called C-scan. When two-dimensional raster scanning is performed in the bottom surface of the eye when acquiring a three-dimensional tomographic image, the high-speed scanning direction is the B-scan direction, and the low-speed scanning direction in which B-scan is arranged in the orthogonal direction is the C-scan direction. Called. A two-dimensional tomographic image can be obtained by performing A-scan and B-scan, and a three-dimensional tomographic image can be obtained by performing A-scan, B-scan and C-scan. These B-scan and C-scan are performed by the above-mentioned galvano scanner 114.

上述したように、ガルバノスキャナ114は不図示のX軸スキャナー及びY軸スキャナーより構成され、その各々はそれぞれ回転軸が互いに直交するよう配置された偏向ミラーで構成されている。X軸スキャナーは例えば眼底Er上で測定光のX軸方向の走査を行い、Y軸スキャナーはY軸方向の走査を行う。X軸方向、Y軸方向の各方向は、眼球の眼軸方向に対して垂直な方向で、互いに垂直な方向である。 As described above, the galvano scanner 114 is composed of an X-axis scanner and a Y-axis scanner (not shown), each of which is composed of deflection mirrors arranged so that their rotation axes are orthogonal to each other. For example, the X-axis scanner scans the measurement light in the X-axis direction on the fundus Er, and the Y-axis scanner scans in the Y-axis direction. Each of the X-axis direction and the Y-axis direction is a direction perpendicular to the eye axis direction of the eyeball and is a direction perpendicular to each other.

また、B−scan及びC−scanのようなライン走査方向と、X軸方向又はY軸方向とは、一致していなくてもよい。このため、B−scan、C−scanのライン走査方向は、撮像したい2次元の断層像あるいは3次元の断層像に応じて、適宜決めることができる。 Further, the line scanning direction such as B-scan and C-scan does not have to coincide with the X-axis direction or the Y-axis direction. Therefore, the line scanning direction of B-scan and C-scan can be appropriately determined according to the two-dimensional tomographic image or the three-dimensional tomographic image to be imaged.

<本実施形態における測定光の走査様式>
OCTAでは血流によるOCT干渉信号の時間変化を計測するため、同じ場所で複数回の計測が必要となる。本実施形態ではOCT装置は同じ場所でのBスキャン(X軸方向のスキャン)をm回繰り返しつつ、n箇所のyポジション(Y軸方向に測定光の照射位置を移動させた位置)に走査位置を移動するスキャンを行う。具体的なスキャンパターンを図2に示す。同図に示すように、本実施形態では、眼底平面上でy1〜ynのn箇所のyポジションについて、それぞれBスキャンを繰り返しm回ずつ実施する。
<Scanning mode of measurement light in this embodiment>
Since OCTA measures the time change of the OCT interference signal due to blood flow, it is necessary to measure it multiple times at the same place. In the present embodiment, the OCT apparatus repeats the B scan (scan in the X-axis direction) at the same location m times, and at n positions (the position where the irradiation position of the measurement light is moved in the Y-axis direction) at the scan position. Perform a scan to move. A specific scan pattern is shown in FIG. As shown in the figure, in the present embodiment, B scan is repeated m times for each of n positions of y1 to yn on the fundus plane.

ここで、mの値が大きいと同じ場所での計測回数が増えるため、血流の検出精度が向上する。その一方でスキャン時間が長くなり、スキャン中の眼の動き(固視微動)により画像にモーションアーチファクトが発生する問題と被検者の負担が増える問題とが生じる。本実施形態では両者のバランスを考慮してm=4として実施した。なお、OCT装置のAスキャン速度、及び被検眼118の眼底表面画像の運動解析に応じて、制御部143はmを自動的に変更することとしてもよい。 Here, when the value of m is large, the number of measurements at the same place increases, so that the accuracy of detecting blood flow is improved. On the other hand, the scanning time becomes long, and there arises a problem that motion artifacts occur in the image due to eye movement (fixation fine movement) during scanning and a problem that the burden on the subject increases. In this embodiment, m = 4 is set in consideration of the balance between the two. The control unit 143 may automatically change m according to the A scan speed of the OCT apparatus and the motion analysis of the fundus surface image of the eye to be inspected 118.

また図2においてpは1つのBスキャンにおけるAスキャンのサンプリング数を示している。すなわち、1つのBスキャンにおいてx1〜xpの位置各々でAスキャンを行っており、p×nにより平面画像サイズが決定される。p×nの値が大きいと、同じ計測ピッチであれば広範囲がスキャンできるが、スキャン時間が長くなり、上述のモーションアーチファクト及び患者負担の問題が生じる。本実施形態では両者のバランスを考慮してn=p=300として実施した。なお、上述したn、pは適宜自由にその値の変更が可能である。 Further, in FIG. 2, p indicates the number of samples of A scan in one B scan. That is, in one B scan, the A scan is performed at each of the positions x1 to xp, and the plane image size is determined by pxn. If the value of p × n is large, a wide range can be scanned at the same measurement pitch, but the scanning time becomes long, and the above-mentioned motion artifact and patient burden problems occur. In this embodiment, n = p = 300 in consideration of the balance between the two. The values of n and p described above can be freely changed as appropriate.

また、図2におけるΔxは隣り合うxポジションの間隔(xピッチ)であり、Δyは隣り合うyポジションの間隔(yピッチ)である。本実施形態ではxピッチ、yピッチは眼底における照射光のビームスポット径の1/2として決定し、10μmとする。xピッチ、yピッチを眼底上ビームスポット径の1/2とすることで 生成する画像を高精細に形成することができる。なお、xピッチ及びyピッチを眼底ビームスポット径の1/2より小さくしても生成する画像の精細度をそれ以上高くする効果は小さい。 Further, Δx in FIG. 2 is the interval (x pitch) between adjacent x positions, and Δy is the interval (y pitch) between adjacent y positions. In the present embodiment, the x-pitch and y-pitch are determined as 1/2 of the beam spot diameter of the irradiation light on the fundus and set to 10 μm. By setting the x-pitch and y-pitch to 1/2 of the diameter of the beam spot on the fundus, it is possible to form a high-definition image to be generated. Even if the x-pitch and y-pitch are made smaller than 1/2 of the fundus beam spot diameter, the effect of further increasing the definition of the generated image is small.

逆にxピッチ及びyピッチを眼底ビームスポット径の1/2より大きくすると精細度は悪化するが、小さなデータ容量で広い範囲の画像を取得することができる。しかし、臨床上の要求に応じてxピッチ及びyピッチを各々自由に変更してもよい。
本実施形態のスキャン範囲は、x方向がp×Δx=3mm、y方向がn×Δy=3mmである。
On the contrary, if the x-pitch and the y-pitch are made larger than 1/2 of the fundus beam spot diameter, the definition is deteriorated, but a wide range of images can be acquired with a small data capacity. However, the x-pitch and the y-pitch may be freely changed according to clinical requirements.
The scan range of this embodiment is p × Δx = 3 mm in the x direction and n × Δy = 3 mm in the y direction.

<OCT干渉信号とOCTA信号の取得様式>
OCT干渉信号の取得と、OCTAの信号の取得とは、同一の工程であっても別々の工程であってもよい。ここでは、OCT干渉信号の取得とOCTAの信号の取得を同一の工程で取得する場合について説明する。同一の工程で取得する場合、信号取得制御部145は、測定光でのスキャンにおいて同一位置を複数回測定することで、3次元断層画像を形成する際に用いる複数フレーム分の干渉信号セットを取得する。ここで、該信号取得制御部145は、信号取得手段として機能する。なお、干渉信号セットとは、上述した一Bスキャンにより得られる干渉信号のセットであって、Bスキャンによる断層画像を一フレーム分生成可能な干渉信号のセットを意味する。また、被検眼は常に固視微動を行うため、被検眼における同一位置を複数回走査して複数フレーム分の干渉信号セット得て被検眼の同一断面の画像を構成しようとしても、実際には同一断面を正確に得ることは困難である。よって、ここで述べる複数フレーム分の干渉信号セットは、同一断面を意図して取得される複数フレーム分の干渉信号セットとして把握される。
<Acquisition mode of OCT interference signal and OCTA signal>
The acquisition of the OCT interference signal and the acquisition of the OCTA signal may be the same step or different steps. Here, a case where the acquisition of the OCT interference signal and the acquisition of the OCTA signal are acquired in the same process will be described. When acquiring in the same process, the signal acquisition control unit 145 acquires an interference signal set for a plurality of frames used when forming a three-dimensional tomographic image by measuring the same position multiple times in scanning with measurement light. To do. Here, the signal acquisition control unit 145 functions as a signal acquisition means. The interference signal set is a set of interference signals obtained by the above-mentioned one B scan, and means a set of interference signals capable of generating a tomographic image by one frame by the B scan. In addition, since the eye to be inspected constantly performs fixation tremor, even if an attempt is made to construct an image of the same cross section of the eye to be inspected by scanning the same position in the eye to be inspected multiple times to obtain an interference signal set for a plurality of frames, they are actually the same. It is difficult to obtain an accurate cross section. Therefore, the interference signal set for a plurality of frames described here is grasped as an interference signal set for a plurality of frames intentionally acquired with the same cross section.

信号処理部144は、これら干渉信号セットを処理することでOCT干渉信号とOCTAの信号を算出する。同一工程で取得した干渉信号セットを利用することで、OCTによる強度画像とOCTAによるモーションコントラスト画像との各画素は同一の位置とする事ができる。即ち、本実施形態において、OCT強度画像の生成に用いる干渉信号セットは、OCTAによるモーションコントラスト画像を生成するために取得される複数フレーム分の干渉信号セットに含まれる。さらに2次元画像として表示されるOCT強度画像は、上述した複数フレーム分の取得した干渉信号セットの少なくとも2つ以上の干渉信号セット、即ち2つ分のフレームを使って平均化(重ね合わせ)して得ることとしてもよい。このような構成とすることで、干渉信号セットに含まれるランダムノイズが平均化され、強度画像のノイズを低減することができる。ここで、該信号処理部144は、同一断面を構成する複数フレーム分の干渉信号セットにおいて各フレーム間で対応する画素データを用いてモーションコントラスト画像を生成するモーションコントラスト画像生成手段として機能する。 The signal processing unit 144 calculates the OCT interference signal and the OCTA signal by processing these interference signal sets. By using the interference signal set acquired in the same process, each pixel of the intensity image by OCT and the motion contrast image by OCTA can be set to the same position. That is, in the present embodiment, the interference signal set used for generating the OCT intensity image is included in the interference signal set for a plurality of frames acquired to generate the motion contrast image by OCTA. Further, the OCT intensity image displayed as a two-dimensional image is averaged (superposed) using at least two or more interference signal sets of the above-mentioned acquired interference signal sets for a plurality of frames, that is, two frames. You may get it. With such a configuration, the random noise included in the interference signal set is averaged, and the noise of the intensity image can be reduced. Here, the signal processing unit 144 functions as a motion contrast image generation means for generating a motion contrast image by using the pixel data corresponding to each frame in the interference signal set for a plurality of frames constituting the same cross section.

次に、OCT干渉信号の取得とOCTAの信号取得を別々の工程で取得する場合について説明する。別々の工程の場合、信号取得制御部145は、例えばOCT干渉信号の取得の後に、OCTAの信号取得を実行させる。OCT干渉信号の取得時のスキャンパターンにおいては、該スキャンパターンに対応した繰り返し回数、ピッチ等の値になる。例えば、OCT干渉信号の取得は、必ずしもBスキャンをm回ずつ繰り返す必要はない。また、スキャン範囲がOCT干渉信号の取得とOCTAの信号取得とで同一である必要もない。従って、同一のスキャン時間であれば、OCT干渉信号の取得の方が第一の所定範囲として広範囲で取得することができる。また別々の工程とした場合、OCTによる3次元断層像で広い範囲を観察しつつ、第一の所定範囲に含まれる第二の所定範囲として所定の関心領域のみ詳細にOCTAの信号取得をするといった使い方ができる。 Next, a case where the acquisition of the OCT interference signal and the acquisition of the OCTA signal are acquired in separate steps will be described. In the case of separate steps, the signal acquisition control unit 145 causes, for example, the acquisition of the OCTA interference signal to be followed by the acquisition of the OCTA signal. In the scan pattern at the time of acquiring the OCT interference signal, the values such as the number of repetitions and the pitch corresponding to the scan pattern are used. For example, the acquisition of the OCT interference signal does not necessarily have to repeat the B scan m times. Further, the scan range does not have to be the same for the acquisition of the OCT interference signal and the acquisition of the OCTA signal. Therefore, if the scan time is the same, the acquisition of the OCT interference signal can be acquired in a wider range as the first predetermined range. In addition, when separate processes are used, OCTA signals are acquired in detail only in a predetermined area of interest as a second predetermined range included in the first predetermined range while observing a wide range with a three-dimensional tomographic image by OCT. Can be used.

次に、図3に示すフローチャートを用いて、本実施形態の画像形成方法の具体的な処理の手順を説明する。なお、当該フローに示される各処理の詳細説明は後述する。図3では、OCT干渉信号の取得とOCTAの信号取得を別々の工程で取得する例で説明する。 Next, a specific processing procedure of the image forming method of the present embodiment will be described with reference to the flowchart shown in FIG. A detailed description of each process shown in the flow will be described later. In FIG. 3, an example in which the acquisition of the OCT interference signal and the acquisition of the OCTA signal are acquired in separate steps will be described.

第一の信号取得工程即ち2次元画像として表示される被検体画像取得工程であるステップS101において、信号取得制御部145はOCT装置100を制御し、光干渉断層信号を取得する。 In step S101, which is the first signal acquisition step, that is, the subject image acquisition step displayed as a two-dimensional image, the signal acquisition control unit 145 controls the OCT device 100 to acquire an optical interference tomographic signal.

第二の信号取得工程即ち信号取得工程であるステップS102において、信号取得制御部145はOCT装置100を制御し、光干渉断層信号を複数フレーム分取得する。より詳細には、副走査方向における同一位置を複数回走査するように制御された測定光に基づく干渉信号セットを複数フレーム分取得する。更に、この操作を副走査方向に走査位置をずらせながら異なる複数の断面からの干渉信号セットを得るために複数回実行して、3次元断層像を形成できるだけの干渉信号セットの取得を行う。 In step S102, which is the second signal acquisition step, that is, the signal acquisition step, the signal acquisition control unit 145 controls the OCT device 100 and acquires a plurality of frames of optical coherence tomographic signals. More specifically, the interference signal set based on the measurement light controlled to scan the same position a plurality of times in the sub-scanning direction is acquired for a plurality of frames. Further, this operation is executed a plurality of times to obtain an interference signal set from a plurality of different cross sections while shifting the scanning position in the sub-scanning direction, and an interference signal set sufficient to form a three-dimensional tomographic image is acquired.

強度画像生成工程であるステップS103において、制御部143は第一の信号取得工程で取得された光干渉断層信号に基づいて、被検眼118の3次元断層像データを算出し、強度画像を生成する。さらに、制御部143は第二の信号取得工程により取得された複数フレームの光干渉断層信号から3次元モーションコントラストデータを算出し、3次元モーションコントラスト画像を生成する。 In step S103, which is an intensity image generation step, the control unit 143 calculates the three-dimensional tomographic image data of the eye to be inspected 118 based on the optical interference tomographic signal acquired in the first signal acquisition step, and generates an intensity image. .. Further, the control unit 143 calculates the three-dimensional motion contrast data from the optical interference tomographic signals of a plurality of frames acquired in the second signal acquisition step, and generates a three-dimensional motion contrast image.

表示工程であるステップS104において、制御部143は強度画像及び3次元モーションコントラスト画像から表示情報を生成し表示する。制御部143は検者の操作に応じて、表示情報を再構成し再表示する。再構成の処理の詳細説明については、後述する。
以上のステップを実施して、本実施形態の画像形成方法の処理の手順を終了する。
In step S104, which is a display step, the control unit 143 generates and displays display information from the intensity image and the three-dimensional motion contrast image. The control unit 143 reconstructs and redisplays the display information according to the operation of the examiner. A detailed description of the reconstruction process will be described later.
By carrying out the above steps, the procedure for processing the image forming method of the present embodiment is completed.

[干渉信号取得手順]
次に、図4を用いて、上述した本実施形態の第一及び第二の信号取得ステップS101及びS102の具体的な処理の手順を説明する。
[Interference signal acquisition procedure]
Next, the specific processing procedure of the first and second signal acquisition steps S101 and S102 of the above-described embodiment will be described with reference to FIG.

ステップS109において、信号取得制御部145は図2のポジションyiのインデックスiを1に設定する。ステップS110において、OCT装置100はスキャン位置をyiに移動する。ステップS119において、信号取得制御部145は繰り返しBスキャンのインデックスjを1に設定する。ステップS120において、OCT装置100はBスキャンを実施する。 In step S109, the signal acquisition control unit 145 sets the index i of the position yi in FIG. 2 to 1. In step S110, the OCT apparatus 100 moves the scan position to yi. In step S119, the signal acquisition control unit 145 repeatedly sets the index j of the B scan to 1. In step S120, the OCT apparatus 100 performs a B scan.

ステップS130においてディテクタ141はAスキャン毎に干渉信号を検出し、不図示のA/D変換器を介して上述した干渉信号が信号処理部144に記憶される。信号処理部144はAスキャンの干渉信号をpサンプル取得することで、1Bスキャン分の干渉信号とする。 In step S130, the detector 141 detects an interference signal for each A scan, and the above-mentioned interference signal is stored in the signal processing unit 144 via an A / D converter (not shown). The signal processing unit 144 acquires the interference signal of the A scan as a p-sample to obtain the interference signal for the 1B scan.

ステップS139において、信号取得制御部145は繰り返しBスキャンのインデックスjをインクリメントする。 In step S139, the signal acquisition control unit 145 repeatedly increments the index j of the B scan.

ステップS140において信号取得制御部145はjが所定回数(m)より大きいか判断する。すなわち、ポジションyiでのBスキャンがm回繰り返されたかを判断する。繰り返されてない場合はS120に戻り、同一位置のBスキャン計測を繰り返す。所定回数繰り返された場合は、S149に進む。ステップS149において、信号取得制御部145はポジションyiのインデックスiをインクリメントする。ステップS150において信号取得制御部145はiが所定のY位置の計測回数(n)より大きいか、すなわちn箇所の全てのyポジションでBスキャンを実施したかを判断する。所定のY位置の計測回数に満たない(no)の場合はS110に戻り、次の計測ポジションで計測することを繰り返す。所定のY位置の計測回数を終了した(yes)場合は、次のステップS160へ進む。なお、ここで述べた第一の及び第二の信号取得ステップS101及びS102では、それぞれi=1、m=4とした。 In step S140, the signal acquisition control unit 145 determines whether j is larger than the predetermined number of times (m). That is, it is determined whether the B scan at the position y is repeated m times. If it is not repeated, the process returns to S120 and the B scan measurement at the same position is repeated. If it is repeated a predetermined number of times, the process proceeds to S149. In step S149, the signal acquisition control unit 145 increments the index i of the position yi. In step S150, the signal acquisition control unit 145 determines whether i is larger than the number of measurements (n) at a predetermined Y position, that is, whether the B scan is performed at all y positions at n locations. If the number of measurements at the predetermined Y position is less than (no), the process returns to S110 and the measurement at the next measurement position is repeated. When the number of measurements at the predetermined Y position is completed (yes), the process proceeds to the next step S160. In the first and second signal acquisition steps S101 and S102 described here, i = 1 and m = 4, respectively.

ステップS160においてOCT装置100はバックグラウンドデータを取得する。OCT装置100は不図示のシャッターを閉じた状態で100回のAスキャンを実行し、信号取得制御部145はこの100回のAスキャンで得られた信号を平均化して記憶する。なお、バックグラウンドの測定回数はここで例示した100回に限るものではない。 In step S160, the OCT apparatus 100 acquires background data. The OCT device 100 executes 100 A scans with the shutter (not shown) closed, and the signal acquisition control unit 145 averages and stores the signals obtained in the 100 A scans. The number of background measurements is not limited to 100 as illustrated here.

以上の各処理を実施して、本発明の干渉信号取得手順を終了することになる。 By carrying out each of the above processes, the interference signal acquisition procedure of the present invention is completed.

なお、OCTA干渉信号の取得では、測定回数やポジションをOCTA干渉信号の取得に対応した値にすることで、OCTの信号取得と同様の手順でOCTA干渉信号を取得することができる。 In the acquisition of the OCTA interference signal, the OCTA interference signal can be acquired in the same procedure as the OCTA signal acquisition by setting the number of measurements and the position to the values corresponding to the acquisition of the OCTA interference signal.

なお、本実施形態では、OCT信号を取得し、且つ3次元断層像を形成するために該OCT信号による干渉信号セットから得たデータに基づいて2次元として表示される被検体画像を生成している。前述したようにOCT信号を取得する範囲はOCTA信号を取得する範囲と同一である必要はなく、従って前述したようにこの被検体画像は被検眼118においてOCTA信号を取得する第二の範囲を含む第一の範囲の画像として生成される。 In the present embodiment, in order to acquire the OCT signal and form a three-dimensional tomographic image, a subject image displayed as two-dimensional is generated based on the data obtained from the interference signal set by the OCT signal. There is. As described above, the range for acquiring the OCTA signal does not have to be the same as the range for acquiring the OCTA signal, and therefore, as described above, this subject image includes the second range for acquiring the OCTA signal in the eye 118 to be examined. Generated as an image of the first range.

[信号処理手順]
次に、図5を用いて、本実施形態として図3に示したステップS103のOCTの3次元画像情報及びOCTAの3次元血流部位情報からなる表示情報生成の具体的な処理を説明する。本発明では、OCTA情報から3次元血流部位情報を生成するために、OCTAのモーションコントラストを計算する。
[Signal processing procedure]
Next, with reference to FIG. 5, a specific process for generating display information including the three-dimensional image information of the OCT of step S103 and the three-dimensional blood flow site information of the OCTA shown in FIG. 3 as the present embodiment will be described. In the present invention, the motion contrast of OCTA is calculated in order to generate three-dimensional blood flow site information from OCTA information.

ステップS210において、信号処理部144は、ポジションyiのインデックスiを1に設定する。ステップS220において、信号処理部144は、ポジションyi(ここではi=1)における繰り返しBスキャン干渉信号(m回分)を抜き出す。ステップS230において、信号処理部144は、繰り返しBスキャンのインデックスjを1に設定する。ステップS240において、信号処理部144はj番目(ここではj=1)のBスキャンデータを抜き出す。 In step S210, the signal processing unit 144 sets the index i of the position yi to 1. In step S220, the signal processing unit 144 extracts the repeated B scan interference signal (m times) at the position yi (here, i = 1). In step S230, the signal processing unit 144 sets the index j of the repeated B scan to 1. In step S240, the signal processing unit 144 extracts the j-th (here, j = 1) B scan data.

ステップS250において、信号処理部144は、ステップS240のBスキャンデータの干渉信号に対して、再構成処理を行うことで断層像の輝度画像を生成する。まず画像生成部147は、干渉信号からバックグラウンドデータからなる固定パターンノイズ除去を行う。固定パターンノイズ除去は、検出した複数のバックグラウンドデータのAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。次に、画像生成部147は、有限区間でフーリエ変換した場合にトレードオフの関係となる、深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。その後、FFT処理を行う事によって断層像の輝度画像を生成する。 In step S250, the signal processing unit 144 generates a luminance image of the tomographic image by performing reconstruction processing on the interference signal of the B scan data in step S240. First, the image generation unit 147 removes fixed pattern noise composed of background data from the interference signal. Fixed pattern noise removal is performed by extracting fixed pattern noise by averaging the A scan signals of a plurality of detected background data and subtracting the fixed pattern noise from the input interference signal. Next, the image generation unit 147 performs a desired window function processing in order to optimize the depth resolution and the dynamic range, which are in a trade-off relationship when the Fourier transform is performed in a finite interval. After that, a luminance image of a tomographic image is generated by performing FFT processing.

ステップS260において、信号処理部144は、繰り返しBスキャンのインデックスjをインクリメントする。ステップS270において、信号処理部144は、インクリメントされたjがmより大きいか否かを判断する。すなわち、ポジションyiでのBスキャンの輝度計算がm回繰り返されたかを判断する。noの場合はS240に戻り、同一Y位置での繰り返しBスキャンの輝度計算を繰り返す。yesの場合は、フローは次のステップへ進む。 In step S260, the signal processing unit 144 repeatedly increments the index j of the B scan. In step S270, the signal processing unit 144 determines whether or not the incremented j is greater than m. That is, it is determined whether the luminance calculation of the B scan at the position y is repeated m times. In the case of no, the process returns to S240, and the brightness calculation of the repeated B scan at the same Y position is repeated. If yes, the flow proceeds to the next step.

ステップS280において、信号処理部144は、あるyiポジションにおける繰り返しBスキャンのmフレームを位置合わせする。具体的には、まず信号処理部144は、mフレームのうち、任意の1枚をテンプレートとして選択する。テンプレートとして選択するフレームは、互いに全ての組み合わせで相関を計算し、フレーム別に相関係数の和を求め、その和が最大となるフレームを選択してもよい。次に、テンプレートでフレーム毎に照合し、各々についての位置ずれ量(δX、δY、δθ)を求める。具体的には、テンプレート画像の位置と角度を変えながら類似度を表す指標であるNormalized Cross-Correlation(NCC)を計算し、この値が最大となるときの画像位置の差を位置ずれ量として求める。 In step S280, the signal processing unit 144 aligns the m-frame of the repeated B scan at a certain y position. Specifically, first, the signal processing unit 144 selects any one of the m frames as a template. For the frames selected as the template, the correlation may be calculated for all combinations of each other, the sum of the correlation coefficients may be obtained for each frame, and the frame having the maximum sum may be selected. Next, the template is used to collate each frame, and the amount of misalignment (δX, δY, δθ) for each is obtained. Specifically, Normalized Cross-Correlation (NCC), which is an index showing the degree of similarity while changing the position and angle of the template image, is calculated, and the difference in image position when this value is maximized is calculated as the amount of misalignment. ..

なお、本発明では、類似度を表す指標は、テンプレートとフレーム内の画像の特徴の類似性を表す尺度であれば種々変更が可能である。例えばSum of Abusolute Difference(SAD)、Sum of Squared Difference(SSD)、Zero-means Normalized Cross-Correlation(ZNCC)、Phase Only Correlation(POC)、Rotation Invariant Phase Only Correlation(RIPOC)等を用いてもよい。 In the present invention, the index indicating the degree of similarity can be variously changed as long as it is a scale indicating the similarity between the features of the image in the template and the frame. For example, Sum of Abusolute Difference (SAD), Sum of Squared Difference (SSD), Zero-means Normalized Cross-Correlation (ZNCC), Phase Only Correlation (POC), Rotation Invariant Phase Only Correlation (RIPOC) and the like may be used.

次に、信号処理部144は、位置ずれ量(δX、δY、δθ)に応じて位置補正をテンプレート以外のm−1フレームに適用し、mフレームの位置合わせを行う。さらに、本実施形態のように、OCTの3次元画像情報、及びOCTAの3次元血流部位情報の取得を別々のステップで行う場合、3次元画像情報及と3次元血流部位情報の間でも位置合わせを行う。即ち、OCT強度画像を生成する目的で取得された干渉信号セットに基づいて算出された3次元断層像のデータと、モーションコントラスト画像を生成する目的で取得された干渉信号セットに基づいて算出された3次元断層像のデータと、の位置あわせが行われる。これらの位置合わせを行う事で、3次元画像情報と3次元血流部位情報の対応を取り易くなる。位置合わせは、フレーム間での位置合わせと同様の手法をとる事ができる。 Next, the signal processing unit 144 applies the position correction to the m-1 frame other than the template according to the amount of misalignment (δX, δY, δθ), and aligns the m frame. Further, when the acquisition of the OCT 3D image information and the OCTA 3D blood flow site information is performed in separate steps as in the present embodiment, even between the 3D image information and the 3D blood flow site information. Align. That is, it was calculated based on the 3D tomographic image data calculated based on the interference signal set acquired for the purpose of generating the OCT intensity image and the interference signal set acquired for the purpose of generating the motion contrast image. Alignment with the data of the 3D tomographic image is performed. By performing these alignments, it becomes easy to correspond the three-dimensional image information and the three-dimensional blood flow site information. Alignment can be performed in the same manner as alignment between frames.

ステップS290において、信号処理部144は、ステップS280で計算した位置合わせされた輝度画像を平均化し、輝度平均化画像を生成する。 In step S290, the signal processing unit 144 averages the aligned luminance images calculated in step S280 to generate a luminance averaged image.

ステップS300において、マップ生成部148は、信号処理部144がステップS290で生成した輝度平均化画像から、網膜のセグメンテーション(部位情報取得)を実行する。なお、ここで述べる第一の実施形態ではこの工程は使用しないため本工程はスキップされる。説明は第二の実施形態で行う。 In step S300, the map generation unit 148 executes retina segmentation (site information acquisition) from the luminance averaging image generated by the signal processing unit 144 in step S290. Since this step is not used in the first embodiment described here, this step is skipped. The description will be given in the second embodiment.

ステップS310において、画像生成部147は、モーションコントラストを計算する。本実施形態では、ステップS250にて信号処理部144が出力したmフレームの各断層像の輝度画像から、同じ位置のピクセルごとに分散値を計算し、その分散値をモーションコントラストとする。 In step S310, the image generation unit 147 calculates the motion contrast. In the present embodiment, the variance value is calculated for each pixel at the same position from the luminance image of each tomographic image of the m frame output by the signal processing unit 144 in step S250, and the variance value is used as the motion contrast.

なお、モーションコントラストの求め方は種々ある。例えば、本発明においてモーションコントラストとして用いる特徴量の種類は、同一Y位置での複数Bスキャン像の各ピクセルの輝度値の変化である。従ってこの輝度値の変化を表す指標であれば、モーションコントラストを求めるために適用が可能である。また、モーションコントラストはmフレームの断層像の輝度画像から同じ位置のピクセルごとに分散値の変わりに、他の手法を用いてもよい。例えば、各フレームの同ピクセルごとの平均値で正規化した変動係数を用いることも可能である。 There are various ways to obtain the motion contrast. For example, the type of feature amount used as motion contrast in the present invention is a change in the brightness value of each pixel of a plurality of B scan images at the same Y position. Therefore, any index showing the change in the brightness value can be applied to obtain the motion contrast. Further, for the motion contrast, another method may be used instead of the dispersion value for each pixel at the same position from the luminance image of the tomographic image of the m frame. For example, it is also possible to use a coefficient of variation normalized by the average value for each pixel of each frame.

ステップS320において、信号処理部144は、信号処理部144で出力したモーションコントラストの第一の閾値処理を実行する。第一閾値の値は、信号処理部144がステップS290で出力した輝度平均化画像から求める。具体的には、この輝度平均化画像からノイズフロアでランダムノイズのみが表示されているエリアを抽出し、標準偏差σを計算し、ノイズフロアの平均輝度+2σを第一の閾値として設定する。信号処理部144は、各輝度が、該第一の閾値以下の領域に対応したモーションコントラストの値を0に設定する。 In step S320, the signal processing unit 144 executes the first threshold processing of the motion contrast output by the signal processing unit 144. The value of the first threshold value is obtained from the luminance averaging image output by the signal processing unit 144 in step S290. Specifically, an area where only random noise is displayed on the noise floor is extracted from this luminance averaged image, the standard deviation σ is calculated, and the average luminance + 2σ of the noise floor is set as the first threshold value. The signal processing unit 144 sets the value of the motion contrast corresponding to the region where each brightness is equal to or less than the first threshold value to 0.

S320の第一閾値処理により、ランダムノイズによる輝度変化に由来するモーションコントラストを除去することでノイズを軽減することができる。 Noise can be reduced by removing the motion contrast caused by the change in brightness due to random noise by the first threshold processing of S320.

なお、第一閾値の値は、小さいほどモーションコントラストの検出感度は上がる一方、ノイズ成分も増す。また、大きいほどノイズは減るがモーションコントラスト検出の感度は下がる。本実施形態では閾値をノイズフロアの平均輝度+2σとして設定したが、閾値はこれに限るものではない。 The smaller the value of the first threshold value, the higher the detection sensitivity of the motion contrast, but also the noise component. Also, the larger the value, the less noise, but the lower the sensitivity of motion contrast detection. In the present embodiment, the threshold value is set as the average brightness of the noise floor + 2σ, but the threshold value is not limited to this.

ステップS330において、信号処理部144は、ポジションyiのインデックスiをインクリメントする。 In step S330, the signal processing unit 144 increments the index i at position yi.

ステップS340において、信号処理部144は、iがnより大きいか判断する。すなわち、n箇所の全てのyポジションで位置合わせ、輝度画像平均化計算、モーションコントラストの計算、及び閾値処理をしたかを判断する。 In step S340, the signal processing unit 144 determines whether i is larger than n. That is, it is determined whether or not the alignment is performed at all n y positions, the luminance image averaging calculation, the motion contrast calculation, and the threshold processing are performed.

noの場合はS220に戻る。yesの場合は、フローは次のステップS350へ進む。 In the case of no, the process returns to S220. In the case of yes, the flow proceeds to the next step S350.

S340を終了した時点で、すべてのY位置でのBスキャン像(Z深さ対X方向データ)の各ピクセルのモーションコントラストの3次元データ(3次元データ)が取得されたこととなる。ステップS350において、信号処理部144は、これら3次元画像情報から、表示情報生成処理を行う。 At the end of S340, the three-dimensional data (three-dimensional data) of the motion contrast of each pixel of the B scan image (Z depth vs. X direction data) at all Y positions has been acquired. In step S350, the signal processing unit 144 performs display information generation processing from these three-dimensional image information.

以下に、本実施形態の表示情報生成処理について説明する。図6は、ステップS350にて実行される処理の詳細をフローチャートとして示したものである。 The display information generation process of this embodiment will be described below. FIG. 6 shows the details of the process executed in step S350 as a flowchart.

表示情報の生成に際し、ステップS351において、信号処理部144は、先にもとめたモーションコントラストの3次元データを取得する。 In generating the display information, in step S351, the signal processing unit 144 acquires the three-dimensional data of the motion contrast previously determined.

ステップS352において、信号処理部144は、血流部位情報は残しつつノイズを除去するために、モーションコントラスト3次元データに対して平滑化処理を施す。モーションコントラストの性質によって最適な平滑化処理は異なるが、例えば以下のようなものが考えられる。 In step S352, the signal processing unit 144 performs smoothing processing on the motion contrast three-dimensional data in order to remove noise while leaving the blood flow site information. The optimum smoothing process differs depending on the nature of the motion contrast, but the following can be considered, for example.

注目画素の近傍nx×ny×nz個のボクセルからモーションコントラストの最大値を出力する平滑化方法。 A smoothing method that outputs the maximum value of motion contrast from nx × ny × nz voxels in the vicinity of a pixel of interest.

あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストの平均値を出力する平滑化方法。 Alternatively, a smoothing method that outputs the average value of the motion contrasts of nx × ny × nz voxels in the vicinity of the pixel of interest.

あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストの中央値を出力する平滑化方法。 Alternatively, a smoothing method that outputs the median value of the motion contrast of nx × ny × nz voxels in the vicinity of the pixel of interest.

あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストに対して、距離による重みをつける平滑化方法。 Alternatively, a smoothing method in which the motion contrast of nx × ny × nz voxels in the vicinity of the pixel of interest is weighted by a distance.

あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストに対して、距離による重みと注目画素との画素値の差に応じて重みをつける平滑化方法。 Alternatively, a smoothing method in which the motion contrast of nx × ny × nz voxels in the vicinity of the pixel of interest is weighted according to the difference between the weight due to the distance and the pixel value of the pixel of interest.

あるいは、注目画素のまわりの小領域のモーションコントラストパターンと、周辺画素のまわりの小領域のモーションコントラストのパターンの類似度に応じた重みを用いた値を出力する平滑化方法。 Alternatively, a smoothing method that outputs a value using weights according to the similarity between the motion contrast pattern of a small area around the pixel of interest and the motion contrast pattern of a small area around the peripheral pixels.

なお、その他の血流部位情報を残しつつ平滑化をおこなう手法を用いてもよい。 In addition, a method of smoothing while leaving other blood flow site information may be used.

以上の平滑化処理後、ステップS353において、信号処理部144は、表示制御部149より、ステップS354にて表示する画素を決定する際に用いる閾値及び表示する深さ方向の範囲の初期値を得る。表示範囲の初期値としては通例深さ方向の1/4程度とし、ほぼ網膜表層の範囲が含まれる位置とする。ここで表示範囲の初期値として深さ方向全範囲としないのは、表層部における主要血管・毛細血管網をまずは見やすく表示したいからである。すなわち、主要血管・毛細血管網を含む表層部と血管を有さずノイズの大きいRPE層とを同時に表示すると、表層部における主要血管・毛細血管網の判別に支障をきたす。なお、表示閾値の初期値は、健常眼等で代表的な値を事前に得ておき、設定しておけばよい。あるいは、繰返し撮影を行う場合、前回の撮影データを利用してもよい。また、後述するステップで表示閾値を調整してもよい。 After the above smoothing process, in step S353, the signal processing unit 144 obtains from the display control unit 149 the threshold value used when determining the pixel to be displayed in step S354 and the initial value of the range in the depth direction to be displayed. .. The initial value of the display range is usually about 1/4 in the depth direction, and the position includes the range of the surface layer of the retina. Here, the reason why the initial value of the display range is not the entire range in the depth direction is that the main blood vessels and the capillary network in the surface layer are to be displayed in an easy-to-see manner. That is, if the surface layer portion including the main blood vessels and the capillary network and the RPE layer having no blood vessels and having a large noise are displayed at the same time, the discrimination of the main blood vessels and the capillary network in the surface layer portion is hindered. The initial value of the display threshold value may be set by obtaining a representative value in advance for a healthy eye or the like. Alternatively, when performing repeated shooting, the previous shooting data may be used. Further, the display threshold value may be adjusted in a step described later.

次にステップ354にて、表示閾値の初期値を用い平滑化処理された3次元データに対してこれを超える画素を表示する表示閾値処理を施す。本処理によるモーションコントラストから表示用画素値への変換例を図7に示す。図7(a)では表示閾値以下の画素値をゼロ、閾値上の画素値から最大強度までの画素に比例する表示画素値を割り振る例であり、図7(b)では表示閾値以下の画素値に対しゼロをかけ、それ以上の画素値には1をかけた表示値を割り振った例となる。いずれにしろモーションコントラストが表示閾値以下のものはモーションコントラストが無効化され、表示される連結を持つモーションコントラストを持つ領域が分離した形で表示されることになる。 Next, in step 354, display threshold processing for displaying pixels exceeding the smoothed three-dimensional data using the initial value of the display threshold is performed. FIG. 7 shows an example of conversion from motion contrast to display pixel values by this processing. FIG. 7A shows an example in which the pixel value below the display threshold value is set to zero, and the display pixel value proportional to the pixels from the pixel value above the threshold value to the maximum intensity is assigned. In FIG. 7B, the pixel value below the display threshold value is assigned. Is multiplied by zero, and a display value obtained by multiplying the pixel values beyond that by 1 is assigned. In any case, if the motion contrast is less than or equal to the display threshold value, the motion contrast is invalidated, and the area having the motion contrast with the displayed connection is displayed in a separated form.

図6に示す表示制御部149において実行されるステップ355は、図7に示した表示閾値処理が施されたモーションコントラスト画像を表示する工程である。 Step 355 executed by the display control unit 149 shown in FIG. 6 is a step of displaying the motion contrast image subjected to the display threshold processing shown in FIG. 7.

次に、ステップ356は、表示条件の変更を行う工程である。変更しうる表示条件については、後述する。表示条件の変更が行われた場合、ステップ354に戻り、表示条件を変えて更新された画像を表示する。表示条件の変更が行われない場合、表示情報生成処理を終了する。 Next, step 356 is a step of changing the display conditions. The display conditions that can be changed will be described later. When the display condition is changed, the process returns to step 354, the display condition is changed, and the updated image is displayed. If the display condition is not changed, the display information generation process is terminated.

次に、本実施形態の表示情報生成処理により生成する画像の表示例を図8に示す。表示画面では、OCT信号を画像として表示した強度画像400及びモーションコントラスト画像401を並べて表示する。この表示例では、モーションコントラスト画像401のわきにはモーションコントラストの表示閾値を操作するスライダ402が設けられている。 Next, FIG. 8 shows a display example of an image generated by the display information generation process of the present embodiment. On the display screen, the intensity image 400 and the motion contrast image 401 displaying the OCT signal as an image are displayed side by side. In this display example, a slider 402 for operating the motion contrast display threshold value is provided beside the motion contrast image 401.

また、強度画像400の脇には、強度画像400の一部における断層像403を表示する。断層像はxz断面403a、yz断面403bで表示する。また、断層像の表示位置を示す線404を強度画像400やモーションコントラスト画像401に表示してもよい。表示位置を示す線404は、画像情報から特定の条件で自動的に決定してもよいし、検者が指定してもよい。例えば、特定の条件の例としては、黄斑部を中心となるような断層像403を指定すればよい。あるいは、検者が強度画像400あるいはモーションコントラスト画像401から任意の位置と長さを指定し、対応するように断層像を表示してもよい。 Further, a tomographic image 403 in a part of the intensity image 400 is displayed beside the intensity image 400. The tomographic image is displayed with xz cross section 403a and yz cross section 403b. Further, the line 404 indicating the display position of the tomographic image may be displayed on the intensity image 400 or the motion contrast image 401. The line 404 indicating the display position may be automatically determined from the image information under specific conditions, or may be specified by the examiner. For example, as an example of a specific condition, a tomographic image 403 centered on the macula may be specified. Alternatively, the examiner may specify an arbitrary position and length from the intensity image 400 or the motion contrast image 401, and display the tomographic image correspondingly.

さらに、断層像から強度画像400及び、モーションコントラスト画像401の深さ方向での表示範囲を指示するために操作されるスライダ405を設けてもよい。当該スライダ405では、深さ方向での調整可能範囲を示すバー405bにおいて強度画像400及びモーションコントラスト画像401を表示する深さ或いは深さ方向の表示範囲をスライド部405aにより指定する。また、表示位置を操作するGUI操作部406を有してもよい。なお、GUI操作部406の詳細については後述する。また、選択位置を示すカーソル407を表示してもよい。この場合、該カーソル407は、強度画像400とモーションコントラスト画像401との対応する位置を同時に指し示すように表示されることが好ましい。当該表示は表示制御部149により指示される。なお、図8の例では、2次元平面像として表示される例で示したが、3次元像や任意の断層像やその組合せであってもよい。 Further, a slider 405 operated to indicate the display range in the depth direction of the intensity image 400 and the motion contrast image 401 from the tomographic image may be provided. In the slider 405, the slide portion 405a specifies the depth at which the intensity image 400 and the motion contrast image 401 are displayed on the bar 405b indicating the adjustable range in the depth direction, or the display range in the depth direction. Further, it may have a GUI operation unit 406 that operates the display position. The details of the GUI operation unit 406 will be described later. Further, the cursor 407 indicating the selected position may be displayed. In this case, it is preferable that the cursor 407 is displayed so as to simultaneously point to the corresponding positions of the intensity image 400 and the motion contrast image 401. The display is instructed by the display control unit 149. In the example of FIG. 8, although the example displayed as a two-dimensional plane image is shown, a three-dimensional image, an arbitrary tomographic image, or a combination thereof may be used.

また、本実施形態において、図8に示す2次元平面で表示される画像は、眼底カメラ或いはレーザ走査検眼鏡を用いず、OCT強度信号より生成している。このような画像はEnface画像と呼ばれている。ここで、Enface画像の生成方法について簡単に述べる。 Further, in the present embodiment, the image displayed on the two-dimensional plane shown in FIG. 8 is generated from the OCT intensity signal without using a fundus camera or a laser scanning ophthalmoscope. Such an image is called an Enface image. Here, a method for generating an Enface image will be briefly described.

A−scanにより得られた情報を光軸方向手前側から配列し、全く信号のない位置から、最初に強い信号を得ることができる位置が眼底表層(網膜表面)の情報となる。従って、測定光を2軸で走査した際の眼底上の各測定位置(撮影位置)でのAスキャン信号についてそれぞれ最初に強い信号の反射強度をつなぎ合わせていくことにより、眼底表層を2次元的に表現する眼底表層についてのEnface画像を取得することができる。また、当該信号から特定の順位にある強度の信号の反応強度をつなぎ合わせることで、網膜における特定の層或いは深さでのEnface画像が得られる。 The information obtained by A-scan is arranged from the front side in the optical axis direction, and the position where a strong signal can be obtained first from the position where there is no signal is the information on the fundus surface layer (retinal surface). Therefore, the fundus surface layer is two-dimensionally formed by first connecting the reflection intensities of the strong signals for the A scan signals at each measurement position (imaging position) on the fundus when the measurement light is scanned in two axes. It is possible to acquire an Enface image of the surface layer of the fundus expressed in. Further, by connecting the reaction intensities of the signals having a specific intensity from the signal, an Enface image at a specific layer or depth in the retina can be obtained.

また、Bスキャンによって取得された断層画像は、A−scanによる情報を1軸方向に連続的に取得することによって構築されるものである。よって、Enface画像の一部の画像信号と、取得された断層画像の眼底表層部分の画像信号とが照合する位置を求めることにより、該A−scanがEnface画像上のどの位置の断層画像であるかを正確に検出することができる。 Further, the tomographic image acquired by the B scan is constructed by continuously acquiring the information by A-scan in the uniaxial direction. Therefore, by finding the position where a part of the image signal of the Enface image and the image signal of the surface layer of the fundus of the acquired tomographic image collate, the A-scan is the tomographic image of which position on the Enface image. Can be detected accurately.

次に表示操作について説明する。表示操作について図9に示す。図9は図8の強度画像400とモーションコントラスト画像401を示す。なお、前述したように、本実施形態ではOCT干渉信号の取得とOCTAの信号の取得とを同一の工程で行っており、表示画像の生成に際しては同一走査線におけるこれら信号の位置合わせは終了している。従って、強度画像400とモーションコントラスト画像401とにおける各画素間における対応関係は予め把握されている。 Next, the display operation will be described. The display operation is shown in FIG. FIG. 9 shows the intensity image 400 and the motion contrast image 401 of FIG. As described above, in the present embodiment, the acquisition of the OCT interference signal and the acquisition of the OCTA signal are performed in the same process, and the alignment of these signals on the same scanning line is completed when the display image is generated. ing. Therefore, the correspondence between the pixels of the intensity image 400 and the motion contrast image 401 is known in advance.

本実施形態の表示操作では、一方の画像の一部(例えば強度画像の血管部分)を選択すると、他方の画像の対応する領域(モーションコントラスト画像の対応する血管部分)を元の画像(強度画像)に重ねて表示する。図9の例では、強度画像400の血管部分450を選択すると、モーションコントラスト画像401において対応する血管及び連結する血管450aを、強度画像400の対応する位置に重ねて重畳表示する。より詳細には、まず一方の画像において血管の選択を行う。ここで、対応する他方の画像とは位置合わせによって各々の画素、或いは血管の位置情報の対応付が既になされている。この状態で、一方の画像において選択された血管の位置情報が取得される。続いて、この取得された位置情報に基づいて、他方の画像における対応する位置情報が選択される。選択された位置情報に基づいて他方の画像における血管が対応する血管として指定される。以上の手順を経て、各々の画像における対応する血管の位置情報に基づいて他方の血管画像に対して一方の画像の血管が重畳表示される。
なお、後述する領域分割処理により、各々の画像において血管の連結状態(太い血管及び該太い血管から分岐した細い血管の一群)はあらかじめ把握されていることとする。従って、血管の選択及び重畳はこの連結状態を勘案して(血管群同士を対応付ける様式で)実行される。この重畳表示は、後述するようにカーソル407からの入力等によって選択された強度画像とモーションコントラスト画像との一方の画像の情報(血管に関する情報)を他方の画像において当該情報が表示される領域に重ねるように実行される。この重畳表示は、このように重畳された画像を表示手段である表示部146に表示させる表示制御手段たる表示制御部149により実行される。
In the display operation of the present embodiment, when a part of one image (for example, the blood vessel portion of the intensity image) is selected, the corresponding area of the other image (corresponding blood vessel portion of the motion contrast image) is changed to the original image (intensity image). ) And display it. In the example of FIG. 9, when the blood vessel portion 450 of the intensity image 400 is selected, the corresponding blood vessels and the connecting blood vessels 450a in the motion contrast image 401 are superimposed and displayed on the corresponding positions of the intensity image 400. More specifically, blood vessels are first selected in one of the images. Here, the position information of each pixel or blood vessel is already associated with the other corresponding image by alignment. In this state, the position information of the blood vessel selected in one image is acquired. Subsequently, the corresponding position information in the other image is selected based on the acquired position information. Based on the selected location information, the blood vessel in the other image is designated as the corresponding blood vessel. Through the above procedure, the blood vessel of one image is superimposed and displayed on the other blood vessel image based on the position information of the corresponding blood vessel in each image.
It is assumed that the connected state of blood vessels (a thick blood vessel and a group of thin blood vessels branched from the thick blood vessel) is grasped in advance in each image by the region division processing described later. Therefore, the selection and superposition of blood vessels are carried out in consideration of this connection state (in a manner of associating blood vessel groups with each other). In this superimposed display, as will be described later, information (information about blood vessels) of one image of the intensity image and the motion contrast image selected by input from the cursor 407 or the like is displayed in the area where the information is displayed in the other image. It is executed so as to overlap. This superimposed display is executed by the display control unit 149, which is a display control means for displaying the superimposed image on the display unit 146, which is the display means.

なお、具体的な選択の仕方は、図9に示したように特定の血管を選択してもよいし、あるいは、領域を指定してもよい。指定する領域は、矩形でもよいし、カーソル407の中心から一定距離の円でもよい。また、OCTAの測定領域がOCTの測定領域よりも狭い場合、モーションコントラスト画像全体を重ねてもよい。さらに、他方の画像(モーションコントラスト画像)で重畳する元となった血管の表示色を変えて、どの血管を元の画像(強度画像)に重畳表示しているかを分かるようにしてもよい。 As a specific selection method, a specific blood vessel may be selected as shown in FIG. 9, or a region may be specified. The designated area may be a rectangle or a circle at a certain distance from the center of the cursor 407. Further, when the measurement area of OCTA is narrower than the measurement area of OCT, the entire motion contrast image may be overlapped. Further, the display color of the blood vessel that is the source of superimposition in the other image (motion contrast image) may be changed so that it can be known which blood vessel is superposed on the original image (intensity image).

強度画像にモーションコントラスト画像を重ねる例を説明したが、逆であってもよい。モーションコントラスト画像に強度画像を重ねる場合、モーションコントラスト画像401の特定の血管部分を選択すると、強度画像400においてこれに対応する血管及び連結する血管が、モーションコントラスト画像401の対応する位置に重ねて表示される。この場合、視認性を高めるために重畳して表示される血管部分に相当する部分を太線及び点線を重ねた線にて表現することが好ましい。或いは、重畳する血管の表示色を変えてもよい。一般に強度画像で判別できる血管は相対的に太い血管であり、強度画像の構造的な情報との位置的な対応が取りやすい。従って、このようにモーションコントラスト画像に強度画像を重ねることで、太い血管を目印とすることができ、血管以外の構造的な情報との比較がしやすくなる。また、強度画像400をベースとすることにより、血管に限らず、黄斑等或いは病変等、構造的な情報を合せて表示することが可能となる。 Although the example of superimposing the motion contrast image on the intensity image has been described, the reverse may be performed. When superimposing an intensity image on a motion contrast image, when a specific blood vessel portion of the motion contrast image 401 is selected, the corresponding blood vessels and the connecting blood vessels in the intensity image 400 are superimposed and displayed at the corresponding positions of the motion contrast image 401. Will be done. In this case, in order to improve visibility, it is preferable to represent the portion corresponding to the blood vessel portion that is superimposed and displayed by a line in which a thick line and a dotted line are overlapped. Alternatively, the display color of the overlapping blood vessels may be changed. Generally, the blood vessels that can be identified by the intensity image are relatively thick blood vessels, and it is easy to take a positional correspondence with the structural information of the intensity image. Therefore, by superimposing the intensity image on the motion contrast image in this way, a thick blood vessel can be used as a mark, and it becomes easy to compare with structural information other than the blood vessel. Further, by using the intensity image 400 as a base, it is possible to display not only blood vessels but also structural information such as macula or lesions.

以上述べたように、OCT強度画像とOCTAモーションコントラスト画像との一方の画像情報を他方に重ねて表示できる構成とすることで、強度画像とモーションコントラスト画像の対応がとり易くなる。従って、直感的に理解しやすい画像を提供することができる。 As described above, by configuring the configuration in which one image information of the OCT intensity image and the OCTA motion contrast image can be superimposed and displayed on the other, it becomes easy to correspond the intensity image and the motion contrast image. Therefore, it is possible to provide an image that is intuitively easy to understand.

本実施形態の表示の例として、カーソル表示について説明する。図8及び9に示すように、強度画像400とモーションコントラスト画像401の両方に、カーソル407を表示してもよい。カーソル407の形状は、例えば、図のように矢印であってもよいし、丸印や四角でもよい。また、両画像で異なる形でもよい。あるいは、X方向Y方向に交差する十字線であってもよい。カーソルは両画像の対応する位置を同時に指し示す。カーソルは、画像形成装置に付随するマウス(不図示)等の操作により自由に移動できる事が望ましい。また、カーソルの移動に伴い、断層像の切断位置を変えてもよい。対応する位置を同時に表示することで、両画像を比較しやすくできる。 A cursor display will be described as an example of the display of the present embodiment. As shown in FIGS. 8 and 9, the cursor 407 may be displayed on both the intensity image 400 and the motion contrast image 401. The shape of the cursor 407 may be, for example, an arrow as shown in the figure, or may be a circle or a square. Further, both images may have different shapes. Alternatively, it may be a cross line that intersects in the X direction and the Y direction. The cursor points to the corresponding positions in both images at the same time. It is desirable that the cursor can be freely moved by operating a mouse (not shown) attached to the image forming apparatus. Further, the cutting position of the tomographic image may be changed as the cursor moves. By displaying the corresponding positions at the same time, it is possible to easily compare both images.

次に、本実施形態の表示条件の変更の例として、表示範囲や視点の変更について説明する。両画像の表示倍率や表示位置、又は視点位置の変更を同時に行ってもよい。例えば、図8の表示画面のGUI操作部406において、表示条件の変更を行う。拡大・縮小ボタン406aにより、両画像の拡大(+)、縮小(−)を同時に行う。また、画像を拡大している際には、並進移動ボタン406bにより、両画像の表示範囲の並進移動を同時に行う。同様に、回転ボタン406cにより、両画像の表示視点の回転移動を同時に行う。回転移動は、両画像が3次元的に表示されている場合に、適用できる。即ち、これら構成により、強度画像及びモーションコントラスト画像に関して、倍率、表示する位置、及び視点位置の少なくともいずれかを、両画像において同時に変更することが可能となる。 Next, as an example of changing the display conditions of the present embodiment, the change of the display range and the viewpoint will be described. The display magnification, display position, or viewpoint position of both images may be changed at the same time. For example, the GUI operation unit 406 of the display screen of FIG. 8 changes the display conditions. The enlargement / reduction button 406a enlarges (+) and reduces (-) both images at the same time. Further, when the image is enlarged, the translation movement button 406b is used to simultaneously perform the translation movement of the display range of both images. Similarly, the rotation button 406c simultaneously rotates and moves the display viewpoints of both images. Rotational movement can be applied when both images are displayed three-dimensionally. That is, with these configurations, it is possible to change at least one of the magnification, the display position, and the viewpoint position for both the intensity image and the motion contrast image at the same time.

なお、ここではGUI操作部406が3種類のボタンの例で説明したが、ボタンの数、形状や種類は異なってもよい。あるいは他の方法であってもよい。例えば、画像形成装置に付随するマウス操作で行ってもよい。マウスのカーソルを両画像のどちらかに重ねて、マウスに付随するホイールの操作で拡大・縮小を行ったり、マウスのボタンを押しながらマウスを動かすことで、画像の移動(並進や回転)を行ったりしてもよい。マウス以外の例では、タッチパネルであれば、パネルに表示された画像を指で操作してもよい。いずれにしても、並べて表示した強度画像とモーションコントラスト画像の表示範囲や視点の変更を同時に行えるようにすればよい。本構成によれば、画像の変更が強度画像とモーションコントラスト画像の両方同時になされるので、画像の表示の仕方を変更しても、どの位置を見ているのか理解しやすくできる。 Although the GUI operation unit 406 has been described here with an example of three types of buttons, the number, shape, and type of buttons may be different. Alternatively, it may be another method. For example, it may be performed by operating the mouse attached to the image forming apparatus. Place the mouse cursor on either of the two images and operate the wheel attached to the mouse to zoom in / out, or move the mouse while holding down the mouse button to move (translate or rotate) the image. You may do it. In the example other than the mouse, if it is a touch panel, the image displayed on the panel may be operated with a finger. In any case, the display range and viewpoint of the intensity image and the motion contrast image displayed side by side may be changed at the same time. According to this configuration, since the image is changed at the same time for both the intensity image and the motion contrast image, it is possible to easily understand which position is being viewed even if the image display method is changed.

モーションコントラスト画素値の表示閾値について説明する。図8には、表示する画素の閾値を調整するスライダ402が設けられている。表示閾値の初期位置は予め、設定した代表的な値でよい。検者がこのスライダをマウスでドラッグすると、信号処理部144は図6のステップ356において、表示条件が変更された(YES)と判断する。信号処理部144は表示閾値を変更し、ステップS354へ処理を戻し表示する3次元モーションコントラスト画像を更新することになる。この時、閾値の調整は初期値に対する相対値で変更できるよう設定しておくと、異なる被検眼・部位等対象の異なるデータに対しても等価な効果が得られる。 The display threshold value of the motion contrast pixel value will be described. In FIG. 8, a slider 402 for adjusting the threshold value of the pixel to be displayed is provided. The initial position of the display threshold value may be a representative value set in advance. When the examiner drags this slider with the mouse, the signal processing unit 144 determines that the display condition has been changed (YES) in step 356 of FIG. The signal processing unit 144 changes the display threshold value, returns the processing to step S354, and updates the three-dimensional motion contrast image to be displayed. At this time, if the threshold value is set so that it can be changed by a relative value with respect to the initial value, an equivalent effect can be obtained for different data of different objects such as different eyes and parts to be examined.

次に、血管情報の表示方法の変形例について説明する。ここでは、2次元モーションコントラスト画像に対して、血管情報を取得する工程を行う。血管情報を取得する工程は、図6で説明した平滑化処理工程であるステップS352と同一タイミングで行われてもよいし、後工程として行われてもよい。具体的には、モーションコントラストデータに対して、平滑化処理を加える工程、血管に相当する領域を分割処理する工程を行う。これらの処理を行う事で、滑らかな血管領域を抽出することができる。 Next, a modified example of the method of displaying blood vessel information will be described. Here, a step of acquiring blood vessel information is performed for a two-dimensional motion contrast image. The step of acquiring blood vessel information may be performed at the same timing as step S352, which is the smoothing processing step described with reference to FIG. 6, or may be performed as a subsequent step. Specifically, the motion contrast data is subjected to a step of adding a smoothing process and a step of dividing a region corresponding to a blood vessel. By performing these treatments, a smooth blood vessel region can be extracted.

次に、領域分割処理について説明する。領域分割処理のフローの例を図13に示す。
まず、血管候補抽出工程であるステップS601において、信号処理部144は、注目画素のモーションコントラストに対応するボリュームデータを表す画素値に対し、所定閾値以上のものを血管候補の画素として抽出する処理を実行する。
Next, the area division process will be described. An example of the flow of the area division processing is shown in FIG.
First, in step S601, which is a blood vessel candidate extraction step, the signal processing unit 144 extracts a pixel value having a predetermined threshold value or more as a pixel of the blood vessel candidate with respect to the pixel value representing the volume data corresponding to the motion contrast of the pixel of interest. Run.

次に、血管連結推定工程であるステップS602において、信号処理部144は、抽出した血管候補の画素の各々に対し、これら血管間での連結関係である血管連結関係の有無を推定する処理を実行する。血管連結推定工程では、血管候補の各画素に対して、隣接する画素が所定の閾値以上の画素値を有する場合、あるいは予め隣接画素も血管候補とされている場合であれば、これら画素は連結する血管候補と判定する。このように特定の画素が連結する血管候補とされた場合、さらに隣接する画素に評価する範囲を広げる。隣接する画素が閾値より小さい場合(あるいは血管候補でない場合)は、当該の隣接画素は血管候補から外し、他の隣接画素の評価を行う。血管連結推定の操作は、全てあるいは指定した範囲の血管候補に対して行えばよい。 Next, in step S602, which is a blood vessel connection estimation step, the signal processing unit 144 executes a process of estimating the presence or absence of a blood vessel connection relationship, which is a connection relationship between these blood vessels, for each of the extracted blood vessel candidate pixels. To do. In the blood vessel connection estimation step, if the adjacent pixels have a pixel value equal to or higher than a predetermined threshold value for each pixel of the blood vessel candidate, or if the adjacent pixel is also a blood vessel candidate in advance, these pixels are connected. Judged as a blood vessel candidate. When a specific pixel is selected as a blood vessel candidate to be connected in this way, the evaluation range is further expanded to adjacent pixels. When the adjacent pixel is smaller than the threshold value (or is not a blood vessel candidate), the adjacent pixel is excluded from the blood vessel candidate, and other adjacent pixels are evaluated. The operation of estimating blood vessel connection may be performed on all or a specified range of blood vessel candidates.

血管候補の全ての隣接画素又は全画素の評価が完了したのち、信号処理部144は、連結される血管候補の大きさを元に血管認識処理工程であるステップS603の処理を行う。血管認識処理では、所定数以上の数の画素の連結を有する血管候補を同一の比較的太いあるいは主要な血管として、識別する。 After the evaluation of all the adjacent pixels or all the pixels of the blood vessel candidate is completed, the signal processing unit 144 performs the process of step S603, which is the blood vessel recognition processing step, based on the size of the connected blood vessel candidate. In the blood vessel recognition process, blood vessel candidates having a predetermined number or more of pixel connections are identified as the same relatively thick or major blood vessel.

最後に、血管連結関係データ生成工程であるステップS604において、信号処理部144は、第一の血管連結関係データを生成する処理を実行する。第一の血管連結関係データは、少なくとも連結する血管の3次元的な分布情報と、血管の連結情報とを有する。例えば、画素毎に血管の有無及び、各血管を区別する情報を有するボリュームデータであれば第一の血管連結関係データとしてもよい。 Finally, in step S604, which is the blood vessel connection data generation step, the signal processing unit 144 executes a process of generating the first blood vessel connection data. The first blood vessel connection relationship data has at least three-dimensional distribution information of blood vessels to be connected and blood vessel connection information. For example, volume data having information on the presence or absence of blood vessels for each pixel and distinguishing each blood vessel may be used as the first blood vessel connection relationship data.

前述の血管候補を抽出する閾値は、予め決めた値であってもよいし、変更してもよい。例えば、被検眼についてのOCTA信号を測定して、血管として領域分割する具合をみて検者が閾値を調整してもよい。また、代表的な値を閾値の初期値としてもよい。領域分割工程で、モーションコントラストデータに対し、血管領域とそれ以外に2値化処理がなされている場合は、2値化処理の結果を利用して血管候補を抽出してもよい。同様に、血管と判断する所定の連結数の閾値も予め決めた値で有ってもよいし、変更してもよい。例えば、複数の画素が連結する場合は血管、単独の画素の場合は候補から外すとしてもよい。このような処理を施すことで、モーションコントラスト画像から孤立した領域を除くことができ、連結している血管を抽出することができる。孤立した領域の例としては、スペックルノイズ等の局所的かつランダムな反射強度の変動が挙げられる。 The threshold value for extracting the blood vessel candidates described above may be a predetermined value or may be changed. For example, the examiner may adjust the threshold value by measuring the OCTA signal for the eye to be inspected and observing how the region is divided as a blood vessel. Further, a typical value may be used as the initial value of the threshold value. In the region division step, when the motion contrast data is binarized in the blood vessel region and other regions, the blood vessel candidates may be extracted using the result of the binarization treatment. Similarly, the threshold value of the predetermined number of connections to be determined to be a blood vessel may be a predetermined value or may be changed. For example, when a plurality of pixels are connected, the blood vessel may be excluded, and when a single pixel is used, the candidate may be excluded. By performing such processing, an isolated region can be removed from the motion contrast image, and connected blood vessels can be extracted. Examples of isolated regions include local and random variations in reflection intensity such as speckle noise.

また、強度画像とモーションコントラスト画像の大きさが同一の例で説明したが、前述したように、モーションコントラスト画像を取得する範囲が狭い領域であっても同様に表示できる。強度画像とモーションコントラスト画像の大きさが異なる例を、図14に示す。図14(a)は、同一縮尺に揃えてモーションコントラスト画像の大きさを変えた例を示す。図14(b)は、画像の大きさを揃えて縮尺を変えた例を示す。画角が広い方に他方の表示領域を示す枠線416を設けるとよい。また、図8に示した拡大・縮小ボタン406a等を用いて、強度画像とモーションコントラスト画像の拡大・縮小、視点の移動を行ったり、一方に他方の状態を重畳したりしてもよい。 Further, although the intensity image and the motion contrast image have the same size as described above, as described above, the motion contrast image can be displayed in the same manner even in a narrow range. An example in which the sizes of the intensity image and the motion contrast image are different is shown in FIG. FIG. 14A shows an example in which the size of the motion contrast image is changed so as to be aligned at the same scale. FIG. 14B shows an example in which the sizes of the images are aligned and the scale is changed. A frame line 416 indicating the other display area may be provided on the side having a wider angle of view. Further, the enlargement / reduction button 406a or the like shown in FIG. 8 may be used to enlarge / reduce the intensity image and the motion contrast image, move the viewpoint, or superimpose the other state on one of them.

次に、強度画像で得られる血管とモーションコントラスト画像で得られる血管とを比較する例について説明する。この場合に行われる操作について図15で示すフローチャートを用いて説明する。 Next, an example of comparing the blood vessels obtained by the intensity image and the blood vessels obtained by the motion contrast image will be described. The operation performed in this case will be described with reference to the flowchart shown in FIG.

まず、第一血管連結推定工程であるステップS651において、信号処理部144は、2次元モーションコントラスト画像から第一の血管連結関係を推定する処理を実行する。なお、このステップS651では、前述したステップS602で行った血管の連結関係を推定した際の方法と同様の手法でこの第一の血管連結関係を推定することができる。 First, in step S651, which is the first blood vessel connection estimation step, the signal processing unit 144 executes a process of estimating the first blood vessel connection relationship from the two-dimensional motion contrast image. In this step S651, the first blood vessel connection relationship can be estimated by the same method as the method for estimating the blood vessel connection relationship performed in step S602 described above.

次に、第二血管連結推定工程であるステップS652において、信号処理部144は、3次元断層像のデータから第二の血管連結関係を推定する処理を実行する。第二の血管連結関係の推定は特定の層に対して行えばよい。例えば、3次元断層像のデータの内、網膜層に相当する深さの3次元断層像データから2次元強度画像(例えば強度画像400)を生成し、さらに第二の血管連結関係を推定すればよい。強度画像において、血管より得られる信号の強度は、血液による吸収等により周囲よりも相対的に弱くなる。この場合、網膜層を選択することで、網膜動静脈血管に相当する画素を血管として抽出することが容易になる。 Next, in step S652, which is the second blood vessel connection estimation step, the signal processing unit 144 executes a process of estimating the second blood vessel connection relationship from the data of the three-dimensional tomographic image. The second estimation of the vascular connection relationship may be performed for a specific layer. For example, if a two-dimensional intensity image (for example, intensity image 400) is generated from the three-dimensional tomographic image data at a depth corresponding to the retinal layer from the three-dimensional tomographic image data, and the second vascular connection relationship is estimated. Good. In the intensity image, the intensity of the signal obtained from the blood vessel becomes relatively weaker than that of the surroundings due to absorption by blood or the like. In this case, by selecting the retinal layer, it becomes easy to extract the pixels corresponding to the retinal arteriovenous blood vessels as blood vessels.

血管に相当する領域の分割は、モーションコントラストデータと同様の手法で行えばよい。また、血管として画素を抽出する際の画素の閾値は、強度画像に対応した値を設定すればよい。第二の血管連結関係の推定により得られる血管は、モーションコントラストデータから得られる血管の連結関係(第一の血管連結関係)よりも抽出できる血管の分解能は劣るが、血管構造に由来する情報である。 The region corresponding to the blood vessel may be divided by the same method as the motion contrast data. Further, the threshold value of the pixel when extracting the pixel as a blood vessel may be set to a value corresponding to the intensity image. The blood vessels obtained by estimating the second blood vessel connection relationship are inferior in the resolution of the blood vessels that can be extracted than the blood vessel connection relationship (first blood vessel connection relationship) obtained from the motion contrast data, but the information is derived from the blood vessel structure. is there.

次に、血管連結状態比較工程であるステップS653において、信号処理部144は、第二の血管連結関係と第一の血管連結関係の血管の連結状態を比較する処理を実行する。血管の連結状態の比較は対応する位置での第一と第二の血管連結関係に対し、血管の有無を比較すればよい。 Next, in step S653, which is a step of comparing the blood vessel connection state, the signal processing unit 144 executes a process of comparing the connection state of the blood vessels of the second blood vessel connection relationship and the first blood vessel connection relationship. To compare the state of blood vessel connection, the presence or absence of blood vessels may be compared with respect to the first and second blood vessel connection relationships at the corresponding positions.

次に、比較結果表示工程(表示工程)であるステップS654において、制御部143は、表示部146に対して、血管の連結状態を比較した結果の少なくとも一部を強度画像及び/又はモーションコントラスト画像に重ねて表示させる。例えば、他方では血管と推定されていない部分を表示する。反対に、両方で血管と推定されている部分を表示してもよい。比較は画像全体であってもよいし、特定の領域のみであってもよい。 Next, in step S654, which is a comparison result display step (display step), the control unit 143 displays at least a part of the result of comparing the connected state of the blood vessels with the display unit 146 as an intensity image and / or a motion contrast image. It is displayed overlaid on. For example, on the other hand, the part that is not presumed to be a blood vessel is displayed. Conversely, both may display presumed blood vessels. The comparison may be the entire image or only a specific area.

強度画像にモーションコントラスト画像の血管像を重ねる場合は、強度画像では得られない毛細血管の情報を、強度画像に重畳表示することに相当する。反対に、モーションコントラスト画像に強度画像の血管像を重ねる場合は、血流が滞っている領域を表示することに相当する。血流が滞っている領域は、血流がある領域に対しモーションコントラストの画素値が小さくなる。画素値が閾値以下になると、血管が無いと判定される。血流が滞っている領域とは、例えば、血管瘤により淀みが生じている部分や、途中経路に内径が狭い部位がある部位、閉塞している領域が挙げられる。 When the blood vessel image of the motion contrast image is superimposed on the intensity image, it corresponds to superimposing and displaying the information of the capillaries that cannot be obtained on the intensity image on the intensity image. On the contrary, when the blood vessel image of the intensity image is superimposed on the motion contrast image, it corresponds to displaying the region where the blood flow is stagnant. In the region where the blood flow is stagnant, the pixel value of the motion contrast is smaller than that in the region where the blood flow is present. When the pixel value is equal to or less than the threshold value, it is determined that there is no blood vessel. Examples of the region where blood flow is stagnant include a region where stagnation is caused by a hemangioma, a region where an inner diameter is narrow in the middle route, and a region where the blood flow is blocked.

以上のように一方の血管の連結状態の情報を他方に重ねることで、両画像をより比較しやすくできる。 By superimposing the information on the connection state of one blood vessel on the other as described above, it is possible to make it easier to compare both images.

さらに、血管の表示においては、特定の血管を選択し強調してもよい。この場合、比較結果表示工程であるステップS654の後に、特定の血管の近傍の画素を選択する工程をさらに設けることとなる。具体的には、例えば表示画像から、任意の画素をマウス等で選択する。この選択の操作に対し、信号処理部144は選択した画素の直近の血管を選択する。ここで、選択される血管は、前述した第一及び第二の血管連結関係の情報を有している。選択した血管に対し、強度画像とモーションコントラスト画像で得られる血管とを比較した結果を表示する。比較結果の表示の仕方は、例えば表示色を変えた半透明の血管の画像を重畳表示すればよい。特定の血管を選択し、強度画像にモーションコントラストの血管画像を重畳した例は図9に示される。 Further, in the display of blood vessels, a specific blood vessel may be selected and emphasized. In this case, after step S654, which is a comparison result display step, a step of selecting pixels in the vicinity of a specific blood vessel is further provided. Specifically, for example, an arbitrary pixel is selected from a display image with a mouse or the like. In response to this selection operation, the signal processing unit 144 selects the blood vessel closest to the selected pixel. Here, the selected blood vessel has the above-mentioned information on the first and second blood vessel connection relationships. The result of comparing the intensity image and the blood vessel obtained by the motion contrast image with respect to the selected blood vessel is displayed. As a method of displaying the comparison result, for example, an image of a translucent blood vessel having a different display color may be superimposed and displayed. An example in which a specific blood vessel is selected and a motion contrast blood vessel image is superimposed on the intensity image is shown in FIG.

なお、重畳する際の血管の選択様式として、複数のモードを有する態様とすることも考えられる。この場合のモードとして、例えばカーソル407によって指定した血管について当該血管の乳頭から端部までを強度画像400に重畳する様式が考えられる。また、カーソル407によって指定した血管について、指定位置から端部までを強度画像に重畳する様式を含めてもよい。また、カーソル407によって領域指定を行い、当該領域に含まれる血管を強度画像400に重畳する様式を含めてもよい。さらに、後述する血管径の推定を実行し、重畳時に所定の血管径以下と推定される血管を重畳しない様式を含めてもよい。さらにこれら様式を組み合わせてもよい。 In addition, as a selection mode of blood vessels at the time of superimposition, it is also conceivable to have a mode having a plurality of modes. As a mode in this case, for example, for a blood vessel designated by the cursor 407, a mode in which the papilla to the end of the blood vessel is superimposed on the intensity image 400 can be considered. Further, for the blood vessel designated by the cursor 407, a mode in which the intensity image is superimposed from the designated position to the end portion may be included. Further, the region may be designated by the cursor 407, and a mode in which the blood vessels included in the region are superimposed on the intensity image 400 may be included. Further, the blood vessel diameter estimation described later may be performed, and a mode in which blood vessels estimated to be smaller than a predetermined blood vessel diameter at the time of superposition are not superposed may be included. Further, these styles may be combined.

このような構成とする事で、特定の血管に着目した比較結果を得られる。例えば、網膜動静脈血管の一つを選択し、当該血管に連なる血管の状態を抽出し、表示することができる。あるいは特定の血管を選択する代わりに、視神経乳頭からの走行毎に、予め色分けしてもよい。例えば、視神経乳頭の中心から広がる方向を基準として色分けしてもよい。 With such a configuration, a comparison result focusing on a specific blood vessel can be obtained. For example, one of the retinal arteriovenous blood vessels can be selected, and the state of the blood vessels connected to the blood vessels can be extracted and displayed. Alternatively, instead of selecting a specific blood vessel, it may be color-coded in advance for each run from the optic disc. For example, color coding may be performed based on the direction in which the optic nerve head spreads from the center.

また、モーションコントラスト画像から抽出した血管に対し、血管情報を取得する工程をさらに設けてもよい。例えば、血管領域に対し、少なくとも血管径を検出してもよい。血管径は、抽出した血管に対し、円筒と近似した時の軸方向と径方向を推定し、血管径を得る。血管径のデータは、例えば第一の血管連結関係データ(血管の3次元的な分布情報と、血管の連結情報)のボリュームデータにさらに付加してもよい。このような構成とする事で、モーションコントラスト画像から血管の形態の情報を得られる。 Further, a step of acquiring blood vessel information may be further provided for the blood vessels extracted from the motion contrast image. For example, at least the blood vessel diameter may be detected in the blood vessel region. For the blood vessel diameter, the axial direction and the radial direction when approximated to a cylinder are estimated with respect to the extracted blood vessel, and the blood vessel diameter is obtained. The blood vessel diameter data may be further added to the volume data of, for example, the first blood vessel connection-related data (three-dimensional distribution information of blood vessels and blood vessel connection information). With such a configuration, information on the morphology of blood vessels can be obtained from the motion contrast image.

さらに、算出された血管径に基づいて、血管を分類してもよい。はじめに所定の径よりも細い血管を抽出する。所定の径は例えば、毛細血管に相当する径とすればよい。さらにモーションコントラスト画像の所定の領域において、当該血管(例えば毛細血管)として抽出された画素と、その他の画素の存在比率を計算する。さらに存在比率を2次元のマップ化して表示する。このようなマップ化する構成とすることで、血管の粗密を定量的に可視化することができる。所定の領域は、例えば黄斑(あるいは視神経乳頭)を基準に領域を分割すればよい。図16にマップ化する例を示す。図16の例では、黄斑部を中心に複数の領域に分割したマップ408を2次元モーションコントラスト画像に重ねている。複数領域に分けることで、毛細血管の粗密の定性的な評価がしやすくなる。また、マップ化した情報は、モーションコントラスト画像だけでなく、2次元強度画像に重畳表示してもよいし、別の画面で表示してもよい。 Furthermore, blood vessels may be classified based on the calculated blood vessel diameter. First, blood vessels smaller than a predetermined diameter are extracted. The predetermined diameter may be, for example, a diameter corresponding to a capillary vessel. Further, in a predetermined region of the motion contrast image, the abundance ratio of the pixels extracted as the blood vessel (for example, capillaries) and the other pixels is calculated. Furthermore, the abundance ratio is displayed as a two-dimensional map. With such a mapping configuration, it is possible to quantitatively visualize the density of blood vessels. The predetermined region may be divided based on, for example, the macula (or the optic disc). FIG. 16 shows an example of mapping. In the example of FIG. 16, the map 408 divided into a plurality of regions centered on the macula is superimposed on the two-dimensional motion contrast image. By dividing into a plurality of regions, it becomes easy to qualitatively evaluate the density of capillaries. Further, the mapped information may be superimposed and displayed not only on the motion contrast image but also on the two-dimensional intensity image, or may be displayed on another screen.

このような構成とすることで、モーションコントラスト画像から血管の形態の情報を強度画像と対応づけて可視化することができる。 With such a configuration, it is possible to visualize the information on the morphology of the blood vessel from the motion contrast image in association with the intensity image.

(第二の実施形態)
次に、本発明の第二の実施形態として、深さ方向の表示範囲の変更について説明する。
図8のスライダ405を操作することで、強度画像とモーションコントラスト画像の表示する深さ方向の表示範囲を変更する。スライダ405は、前述したように表示する深さ範囲を表すスライド部405aと網膜の深さ方向における調整可能範囲を示すバー405bからなる。スライド部405aは画像として表示する深さ方向での幅及び位置を変更可能とし、深さ方向の表示範囲を選択するために用いられる。このスライド部405aの操作による表示範囲の変更に応じて、表示する強度画像400とモーションコントラスト画像401とを同時に更新する。本実施形態とすることにより、深さ方向の変更が同時になされるので、画像の表示深さの範囲を変更しても、どの位置を見ているのか理解しやすくできる。
(Second embodiment)
Next, as a second embodiment of the present invention, changing the display range in the depth direction will be described.
By operating the slider 405 of FIG. 8, the display range in the depth direction in which the intensity image and the motion contrast image are displayed is changed. The slider 405 includes a slide portion 405a indicating the depth range to be displayed and a bar 405b indicating the adjustable range in the depth direction of the retina as described above. The slide portion 405a can change the width and position in the depth direction to be displayed as an image, and is used to select the display range in the depth direction. The intensity image 400 and the motion contrast image 401 to be displayed are updated at the same time according to the change of the display range by the operation of the slide unit 405a. According to this embodiment, since the depth direction is changed at the same time, it is possible to easily understand which position is being viewed even if the range of the display depth of the image is changed.

なお、ここでは深さ範囲の変更の仕方として、スライダを用いた例について説明したが、他の方法であってもよい。例えば、被検眼の層構造毎に表示することで実質的に表示する深さを変更する様式としてもよい。本実施形態では、3次元断層像のデータから被検眼の断層像の層構造を検出する工程(図5のステップ300に相当)を有する。表示深さを設定する工程は、スライダの代わりに、被検眼の層構造情報を元に選択可能とする。ヒトの眼の層構成は既知であり、例えば次の6層が挙げられる。6層の内訳は、(1)神経線維層(NFL)、(2)神経節細胞層(GCL)+内網状層(IPL)を合わせた層、(3)内顆粒層(INL)+外網状層(OPL)を合わせた層、(4)外顆粒層(ONL)+外境界膜(ELM)を合わせた層、(5)Ellipsoid Zone(EZ)+Interdigitation Zone(IZ)+網膜色素上皮(RPE)を合わせた層、及び(6)脈絡膜(Choroid)である。 Although an example using a slider has been described here as a method of changing the depth range, other methods may be used. For example, the display depth may be substantially changed by displaying each layer structure of the eye to be inspected. The present embodiment includes a step (corresponding to step 300 in FIG. 5) of detecting the layer structure of the tomographic image of the eye to be inspected from the data of the three-dimensional tomographic image. The process of setting the display depth can be selected based on the layer structure information of the eye to be inspected instead of the slider. The layer structure of the human eye is known, and examples thereof include the following six layers. The breakdown of the 6 layers is (1) nerve fiber layer (NFL), (2) ganglion cell layer (GCL) + inner plexiform layer (IPL) combined layer, and (3) inner granular layer (INL) + outer plexiform. Layer (OPL) combined, (4) Outer plexiform layer (ONL) + Outer plexiform membrane (ELM) combined layer, (5) Ellipsoid Zone (EZ) + Interdigitation Zone (IZ) + Retinal pigment epithelium (RPE) And (6) Choroid.

網膜におけるこれら各層のセグメンテーションについて説明する。マップ生成部148は、強度画像から抜き出した処理の対象とする断層像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、それぞれメディアン画像、Sobel画像ともいう)。次に、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では輝度勾配のプロファイルとなる。そして、Sobel画像から作成したプロファイル内のピークを検出する。検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を抽出する。抽出した境界情報を元に画素と層の対応を行う。 The segmentation of each of these layers in the retina will be described. The map generation unit 148 creates an image by applying a median filter and a Sobel filter to the tomographic image to be processed extracted from the intensity image (hereinafter, also referred to as a median image and a Sobel image, respectively). Next, a profile is created for each A scan from the created median image and Sobel image. The median image has a brightness value profile, and the Sobel image has a brightness gradient profile. Then, the peak in the profile created from the Sobel image is detected. By referring to the profile of the median image corresponding to before and after the detected peak and between the peaks, the boundary of each region of the retinal layer is extracted. Pixels and layers are associated with each other based on the extracted boundary information.

図10にセグメンテーション後に表示する層の選択方法の例を示す。本例では、該断層像中における各層に対応させた選択ボタン410を設ける。選択ボタン410を選択することで、画像の表示範囲あるいは表示させる層を選択的に指示させる。選択ボタン410は同図に例示するように一層毎であってもよいし、複数層をまとめたものでもよい。例えば、網膜上部層や、網膜下部層に分けた選択ボタンであってもよい。あるいは、境界単位で選択できるようにボタンを設ける様にしてもよい。さらにはこれらを組み合わせ、図10に示すように層単位で選択するか境界単位で選択するかを切り替えるラジオボタン411を設けてもよい。また、相当の対応を分かり易くするため、断層像412をこれら選択ボタン410等と並べて表示してもよい。 FIG. 10 shows an example of a layer selection method to be displayed after segmentation. In this example, a selection button 410 corresponding to each layer in the tomographic image is provided. By selecting the selection button 410, the display range of the image or the layer to be displayed is selectively indicated. The selection button 410 may be layer-by-layer as illustrated in the figure, or may be a combination of a plurality of layers. For example, it may be a selection button divided into an upper retina layer and a lower retina layer. Alternatively, a button may be provided so that selection can be made in units of boundaries. Further, these may be combined to provide a radio button 411 for switching between layer-based selection and boundary-based selection as shown in FIG. Further, in order to make it easier to understand the corresponding correspondence, the tomographic image 412 may be displayed side by side with these selection buttons 410 and the like.

表示する層の選択処理に応じて、強度画像とモーションコントラスト画像を更新する。なお、層毎にモーションコントラスト画像の表示閾値を調整するスライダ413を設けて、画像更新時に表示閾値を再調整することとしてもよい。以上の構成とすることで、強度画像とモーションコントラスト画像とで、表示する層の変更が同時になされるので、表示する層を変更しても、どの層を見ているのか理解しやすくできる。また、層構造を元に深さ範囲を変えることで、特定の層に注目した情報を表示することができる。 The intensity image and the motion contrast image are updated according to the selection process of the layer to be displayed. A slider 413 for adjusting the display threshold value of the motion contrast image may be provided for each layer, and the display threshold value may be readjusted when the image is updated. With the above configuration, the display layer is changed at the same time for the intensity image and the motion contrast image, so that it is easy to understand which layer is being viewed even if the display layer is changed. In addition, by changing the depth range based on the layer structure, it is possible to display information focusing on a specific layer.

なお、被検眼の層構造に基づいて画像を表示する場合、強度画像とモーションコントラスト画像は2次元画像であってもよい。ここで、2次元画像の生成工程について説明する。2次元画像の生成工程では、指定した深さあるいは選択した層にもとづいて、3次元断層像データを対応する範囲で深さ方向に投影・積算して2次元強度画像を生成する。投影方法の例を図11により説明する。 When the image is displayed based on the layer structure of the eye to be inspected, the intensity image and the motion contrast image may be two-dimensional images. Here, the process of generating a two-dimensional image will be described. In the two-dimensional image generation step, the three-dimensional tomographic image data is projected and integrated in the depth direction within the corresponding range based on the specified depth or the selected layer to generate a two-dimensional intensity image. An example of the projection method will be described with reference to FIG.

図11(a)は断層像を表し、それぞれ深さ方向のZ1、Z2の間が選択された範囲に対応する。図11(b)は、3次元のボリュームデータ500と深さ表示バー501を表す。深さ表示バー501において深さZ1とZ2の間として指示されるボリューム領域502が選択した範囲である。当該ボリューム領域502内のボクセル(3次元断層画像のボリュームデータ)を各々深さ方向に投影・積算することにより2次元強度画像を生成することができる。3次元モーションコントラストについても同様に、同じ領域内の各ボクセルを深さ方向に投影及び積算、或いは投影又は積算して2次元モーションコントラスト画像を生成する。 FIG. 11A represents a tomographic image, and the area between Z1 and Z2 in the depth direction corresponds to the selected range, respectively. FIG. 11B shows the three-dimensional volume data 500 and the depth display bar 501. The volume area 502 designated as between the depths Z1 and Z2 in the depth display bar 501 is the selected range. A two-dimensional intensity image can be generated by projecting and integrating voxels (volume data of a three-dimensional tomographic image) in the volume region 502 in the depth direction. Similarly, for 3D motion contrast, each voxel in the same area is projected and integrated in the depth direction, or projected or integrated to generate a 2D motion contrast image.

2次元画像を生成するには対応する画素の画素値を積算する他、最大値等の代表値を抽出し投影することでも可能である。生成した2次元画像を、強度画像とモーションコントラスト画像として、表示する。また、これら表示の処理は同時ではなく、2次元画像化して表示状態を確認してからモーションコントラスト画像の表示閾値を変更するように順次行うこととしてもよい。2次元画像化して、並列表示することで、特定の層に着目した情報の全体を一度に把握しやすくできる。 In order to generate a two-dimensional image, it is possible not only to integrate the pixel values of the corresponding pixels, but also to extract and project a representative value such as the maximum value. The generated two-dimensional image is displayed as an intensity image and a motion contrast image. Further, these display processes may not be performed simultaneously, but may be sequentially performed so as to change the display threshold value of the motion contrast image after confirming the display state by forming a two-dimensional image. By creating a two-dimensional image and displaying it in parallel, it is possible to easily grasp the entire information focusing on a specific layer at once.

なお、図11に示した例では、指定した一定の深さ範囲でボクセルの投影・積算を実行したが、層構造に対応した深さ範囲でこれを行ってもよい。つまり、場所ごとに選択した層に対応した深さ範囲を選択し、この範囲でのボクセルの投影・積算を行ってもよい。このようにする事で、より層構造を反映した2次元画像を生成することができる。 In the example shown in FIG. 11, the voxels are projected and integrated in a specified fixed depth range, but this may be performed in a depth range corresponding to the layer structure. That is, a depth range corresponding to the layer selected for each location may be selected, and voxels may be projected / integrated in this range. By doing so, it is possible to generate a two-dimensional image that more reflects the layered structure.

さらに上述した2次元画像を表示する際に、図8と同様に断層像も並列して表示してもよい。この場合、断層像の切断面の位置は、2次元強度画像と2次元モーションコントラスト画像のいずれか一方で指定する。また、表示される断層像は、3次元断層像データ及び/又は3次元モーションコントラストから指定した位置又は対応した位置での断層像が選択(又は生成)される。表示する断層像の位置を指定する元画像及び表示する断層像は、適宜組合せ可能である。また、強度画像の断層像に対して、モーションコントラスト画像の断層像を重ねて表示してもよい。また、図8に示すように断層像の断面を示す表示線404を両画像に設けてもよい。強度画像とモーションコントラスト画像のいずれかの2次元画像から、断層像の位置を指定し、表示できることで、見たい位置の断層像を容易に表示することができる。 Further, when displaying the above-mentioned two-dimensional image, a tomographic image may be displayed in parallel as in FIG. In this case, the position of the cut surface of the tomographic image is specified by either the two-dimensional intensity image or the two-dimensional motion contrast image. Further, as the tomographic image to be displayed, a tomographic image at a designated position or a corresponding position is selected (or generated) from the 3D tomographic image data and / or the 3D motion contrast. The original image that specifies the position of the tomographic image to be displayed and the tomographic image to be displayed can be appropriately combined. Further, the tomographic image of the motion contrast image may be superimposed on the tomographic image of the intensity image. Further, as shown in FIG. 8, a display line 404 showing a cross section of the tomographic image may be provided on both images. By designating and displaying the position of the tomographic image from either the intensity image or the motion contrast image, the tomographic image at the desired position can be easily displayed.

また、上述した断層像は、さらに層構造の情報を表示してもよい。この場合、3次元断層像のデータから被検眼の断層像の層構造を検出した情報を元に、層構造を断層像に重ねて表示する。表示の仕方は、層構造を識別できるようにすればよい。例えば、層境界毎に線を表示してもよいし、層毎に着色してもよい。層毎に分けて断層像を表示する例を図12に示す。図12の例では、断層像に対して検出された層に基づいた境界線422(点線)を重ねて表示している。選択した層の境界線422aは太い点線とし、さらに選択した層領域423を灰色としている。検出した層構造の情報を重ねることで、より分かりやすい表示とすることができる。 Further, the above-mentioned tomographic image may further display information on the layer structure. In this case, the layer structure is superimposed on the tomographic image and displayed based on the information obtained by detecting the layer structure of the tomographic image of the eye to be inspected from the data of the three-dimensional tomographic image. The display method may be such that the layer structure can be identified. For example, a line may be displayed for each layer boundary, or a line may be colored for each layer. An example of displaying the tomographic image separately for each layer is shown in FIG. In the example of FIG. 12, the boundary line 422 (dotted line) based on the detected layer is superimposed on the tomographic image. The boundary line 422a of the selected layer is a thick dotted line, and the selected layer area 423 is gray. By superimposing the detected layer structure information, the display can be made easier to understand.

(第三の実施形態)
次に、本発明の第三の実施形態について説明する。本実施形態では、OCTによるモーションコントラスト画像の取得とは、別に眼底像の取得を行う。眼底像の取得手段としては、眼底カメラ、走査型レーザ検眼鏡(SLO)、あるいは蛍光造影による血管像が挙げられる。これら構成は、第一の実施形態におけるOCTからなる強度画像を生成する構成と同様に、被検眼118の第一の所定範囲における被検体画像を取得する被検体画像取得手段を構成する。OCTによる強度画像と同様に、これらにより得られた眼底像からも第三の血管連結関係を算出する。算出した血管連結関係と、モーションコントラスト画像による第一の血管連結関係に対し、血管の特徴量を元に位置合わせを行う。位置合わせには既知の位置合わせアルゴリズムを用いることができる。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the present embodiment, the fundus image is acquired separately from the motion contrast image acquisition by OCT. Examples of the fundus image acquisition means include a fundus camera, a scanning laser ophthalmoscope (SLO), and a blood vessel image by fluorescence contrast. These configurations constitute a subject image acquisition means for acquiring a subject image in a first predetermined range of the eye 118 to be inspected, similar to the configuration for generating an intensity image composed of OCT in the first embodiment. Similar to the intensity images obtained by OCT, the third vascular connection relationship is calculated from the fundus images obtained by these. The calculated blood vessel connection relationship and the first blood vessel connection relationship based on the motion contrast image are aligned based on the feature amount of the blood vessel. A known alignment algorithm can be used for alignment.

位置合わせを行ったのち、両画像を並べて表示する。図17に表示例を示す。図17の例では、モーションコントラスト画像(OCTA像)401と眼底像420を並べて表示する。ラジオスイッチ部421により、表示する眼底像の切り替えを行う。例えば、切り替え操作により、例えばOCTの積算による2次元強度画像、眼底カメラによる眼底像、或いはSLOによる眼底像の切り替えを行う。第一の実施形態と同様に、両画像には、対応する位置にカーソル407を設ける。 After aligning, both images are displayed side by side. A display example is shown in FIG. In the example of FIG. 17, the motion contrast image (OCTA image) 401 and the fundus image 420 are displayed side by side. The radio switch unit 421 switches the fundus image to be displayed. For example, by switching operation, for example, a two-dimensional intensity image by integrating OCT, a fundus image by a fundus camera, or a fundus image by SLO is switched. Similar to the first embodiment, both images are provided with cursors 407 at corresponding positions.

また、第一の実施形態(図8に示した表示例)と同様に、両画像の拡大や移動を同時に行えるようにすればよい。このような構成とする事で、他の観察装置で得た像に対しても、モーションコントラスト画像との対比が容易に行う事ができる。例えば、カラーの眼底カメラから得られる像と並べて表示することで、カラーで見た血管写真とモーションコントラスト画像を容易に対比できる。 Further, as in the first embodiment (display example shown in FIG. 8), both images may be enlarged or moved at the same time. With such a configuration, it is possible to easily compare an image obtained by another observation device with a motion contrast image. For example, by displaying it side by side with an image obtained from a color fundus camera, it is possible to easily compare a blood vessel photograph viewed in color with a motion contrast image.

(第四の実施形態)
次に、本発明の第四の実施形態について説明する。本実施形態では、測定されたモーションコントラスト画像による血管の連結関係と他のモーションコントラスト画像による血管の連結関係とを並べて表示する。他のモーションコントラスト画像は、以前に撮影した像とすればよい。第四の実施形態の表示例を図18に示す。図18の例では、過去に撮影した右側のモーションコントラスト画像430に対し、左側のモーションコントラスト画像401の比較を行っている。これら画像間では第三の実施形態同様にそれぞれの血管の連結関係に基づき、位置合わせを行う。また、両画像の拡大や移動を同時に行えるようにすればよい。なお、この場合、上述した実施形態において被検体画像を取得する工程において実行された操作は、測定時である信号取得工程時のモーションコントラスト画像とは異なる時間において他のモーションコントラスト画像を取得する工程に置き換えられる。
(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described. In the present embodiment, the blood vessel connection relationship based on the measured motion contrast image and the blood vessel connection relationship based on other motion contrast images are displayed side by side. The other motion contrast image may be a previously captured image. A display example of the fourth embodiment is shown in FIG. In the example of FIG. 18, the motion contrast image 401 on the left side is compared with the motion contrast image 430 on the right side taken in the past. Alignment is performed between these images based on the connection relationship of each blood vessel as in the third embodiment. In addition, both images may be enlarged or moved at the same time. In this case, the operation executed in the step of acquiring the subject image in the above-described embodiment is a step of acquiring another motion contrast image at a time different from the motion contrast image in the signal acquisition step at the time of measurement. Is replaced by.

図18(a)の例では、モーションコントラスト画像401の破線で囲った領域431の血管の信号が無くなった場合に得られる画像を模式図として示す。表示された両画像の連結状態は比較され、比較結果の少なくとも一部がいずれかの画像に重ねて表示される。図18(b)に、領域431の比較結果(血管)を点線で重畳表示する例を示す。このような構成とする事で、血管の連結関係の経時的な変化を容易に把握することができる。 In the example of FIG. 18A, an image obtained when the signal of the blood vessel in the region 431 surrounded by the broken line of the motion contrast image 401 disappears is shown as a schematic diagram. The connected states of both displayed images are compared, and at least a part of the comparison result is displayed overlaid on one of the images. FIG. 18B shows an example in which the comparison result (blood vessel) of the region 431 is superimposed and displayed by a dotted line. With such a configuration, it is possible to easily grasp the change over time in the connection relationship of blood vessels.

なお、ここで実行した比較の処理は、一対の画像との比較であってもよいし、複数枚の画像間での比較であってもよい。複数枚の画像に対し比較する場合、表示色を分けてもよい。あるいは、比較対象を逐次切り替えてもよい。 The comparison process executed here may be a comparison with a pair of images or a comparison between a plurality of images. When comparing a plurality of images, the display colors may be separated. Alternatively, the comparison target may be sequentially switched.

以上、上述した各実施形態によれば、OCTAで得られるモーションコントラスト画像とOCTで得られる強度画像に対し、一方の画像から得られる情報を他方の画像に表示する事で、より直感的に理解しやすい画像を提供することができる。すなわち、OCTAで得られるモーションコントラスト画像とOCTで得られる強度画像との対応を容易にすることができる。また、両画像を並べて表示する際に、対応する画素を示すカーソルを表示することで、より比較しやすい画像を提供することができる。 As described above, according to each of the above-described embodiments, the motion contrast image obtained by OCTA and the intensity image obtained by OCT can be more intuitively understood by displaying the information obtained from one image on the other image. It is possible to provide an image that is easy to use. That is, it is possible to facilitate the correspondence between the motion contrast image obtained by OCTA and the intensity image obtained by OCT. Further, when displaying both images side by side, it is possible to provide an image that is easier to compare by displaying a cursor indicating the corresponding pixel.

さらに、両画像の倍率や表示位置、視点位置を同時に変更できる工程を設けることで、画像の表示の仕方を変更しても、どの位置を見ているのか理解しやすい画像を提供することができる。 Furthermore, by providing a process that can change the magnification, display position, and viewpoint position of both images at the same time, it is possible to provide an image that makes it easy to understand which position is being viewed even if the image display method is changed. ..

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、画像の表示の位置関係やGUIの形状は変更可能である。また、3Dディスプレイによる立体視による表示でもよい。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications are made within the scope of the gist of the present invention described in the claims.・ Can be changed. For example, the positional relationship of image display and the shape of GUI can be changed. Further, the display may be stereoscopically displayed by a 3D display.

(その他の実施形態)
なお、本発明は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、種々の変形、変更して実施することができる。例えば、実施形態として、被検体が眼の場合について述べているが、眼以外の皮膚や臓器等の被検体に本発明を適用することも可能である。この場合、本発明は眼科装置以外の、例えば内視鏡等の医療機器より得られるデータに基づいて画像を形成する画像形成方法あるいは装置としての態様を有する。また、上述したOCT装置は眼科装置に例示される検査装置として把握され、被検眼は被検査物の一態様として把握されることが望ましい。
(Other embodiments)
The present invention is not limited to the above-described embodiment, and can be modified or modified in various ways within a range that does not deviate from the gist of the present invention. For example, although the case where the subject is an eye is described as an embodiment, the present invention can be applied to a subject such as skin or an organ other than the eye. In this case, the present invention has an aspect as an image forming method or device other than an ophthalmic device, which forms an image based on data obtained from a medical device such as an endoscope. Further, it is desirable that the OCT device described above is grasped as an inspection device exemplified by an ophthalmic device, and the eye to be inspected is grasped as an aspect of an object to be inspected.

さらに、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device can program the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 光干渉断層取得部
143 制御部
144 信号処理部
145 信号取得制御部
146 表示部
147 画像生成部
148 マップ生成部
149 表示制御部
100 Optical interference fault acquisition unit 143 Control unit 144 Signal processing unit 145 Signal acquisition control unit 146 Display unit 147 Image generation unit 148 Map generation unit 149 Display control unit

Claims (19)

異なる時間に被検眼を撮影して得た複数の3次元モーションコントラストデータのそれぞれのデータを用いて少なくとも1つの血管に関する計測情報を取得する情報取得手段と、
前記取得された計測情報を用いて前記少なくとも1つの血管を分類する分類手段と、
前記被検眼の深さ方向における前記複数の3次元モーションコントラストデータのそれぞれのデータの少なくとも一部の範囲を用いて生成されたモーションコントラストEnface画像であって、前記複数の3次元モーションコントラストデータに対応する複数のモーションコントラストEnface画像を並べて表示手段に表示させ、前記複数のモーションコントラストEnface画像において互いに対応する位置を示す表示情報を表示手段に表示させる表示制御手段と、
を備える情報処理装置。
Using each of the data of a plurality of 3-dimensional motion contrast data obtained by photographing a subject's eye at different times, information acquisition means for acquiring measurement information for at least one blood vessel,
A classification means for classifying at least one blood vessel using the acquired measurement information, and
It is a motion contrast Enface image generated by using at least a part range of each data of the plurality of three-dimensional motion contrast data in the depth direction of the eye to be inspected, and corresponds to the plurality of three-dimensional motion contrast data. A display control means for displaying a plurality of motion contrast Enface images side by side on a display means, and displaying display information indicating positions corresponding to each other in the plurality of motion contrast Enface images on the display means.
Information processing device equipped with.
前記分類手段は、前記取得された計測情報を用いて、所定の径よりも小さい径を有する血管を毛細血管として分類し、
前記情報取得手段は、更に、前記複数の3次元モーションコントラストデータのそれぞれのデータを用いて、前記分類された毛細血管の粗密を示す情報を取得する請求項1に記載の情報処理装置。
The classification means classifies blood vessels having a diameter smaller than a predetermined diameter as capillaries by using the acquired measurement information.
The information processing apparatus according to claim 1, wherein the information acquisition means further acquires information indicating the density of the classified capillaries by using the respective data of the plurality of three-dimensional motion contrast data.
前記被検眼の眼底の正面画像を取得する画像取得手段と、
前記毛細血管の粗密を示す情報を前記取得された正面画像に重ねて表示手段に表示させる表示制御手段と、
を更に備える請求項2に記載の情報処理装置。
An image acquisition means for acquiring a frontal image of the fundus of the eye to be inspected, and
A display control means for displaying information indicating the density of the capillaries on the acquired front image and displaying it on the display means.
The information processing apparatus according to claim 2, further comprising.
前記表示制御手段は、前記毛細血管の粗密を示す情報を、前記取得された正面画像における前記被検眼の所定の領域を略中心とする複数の領域に対して識別可能に前記表示手段に表示させる請求項3に記載の情報処理装置。 The display control means causes the display means to identifiable information indicating the density of the capillaries in a plurality of regions centered on a predetermined region of the eye to be inspected in the acquired front image. The information processing apparatus according to claim 3. 前記情報取得手段は、前記少なくとも1つの血管の分布に関する情報と、前記少なくとも1つの血管の前記被検眼の眼底の各部位における血管径に関する情報とを取得する請求項1乃至4のいずれか1項に記載の情報処理装置。 The information acquisition means is any one of claims 1 to 4, wherein the information acquisition means acquires information on the distribution of the at least one blood vessel and information on the blood vessel diameter of the at least one blood vessel at each site of the fundus of the eye to be inspected. The information processing device described in. 前記複数の3次元モーションコントラストデータのそれぞれのデータに基づく血管に関する計測情報と、前記被検眼の3次元断層情報を用いて抽出された血管の分布に関する情報と、を比較する比較手段を更に備える請求項1乃至5のいずれか1項に記載の情報処理装置。 A claim further comprising a comparison means for comparing measurement information on blood vessels based on each of the plurality of three-dimensional motion contrast data and information on distribution of blood vessels extracted using the three-dimensional tomographic information of the eye to be inspected. Item 2. The information processing apparatus according to any one of Items 1 to 5. 前記複数の3次元モーションコントラストデータのそれぞれのデータの平滑処理を行う平滑手段と、
前記平滑処理された3次元モーションコントラストデータにおける所定の閾値以上の画素値を有する画素を血管候補の画素として抽出する画素抽出手段と、
前記抽出された血管候補の画素の連結状態を推定し、所定の閾値以上の数が繋がる画素を、血管を示す画素として推定する推定手段と、
を更に備える請求項1乃至のいずれか1項に記載の情報処理装置。
A smoothing means for smoothing each of the plurality of three-dimensional motion contrast data,
A pixel extraction means for extracting pixels having a pixel value equal to or higher than a predetermined threshold value in the smoothed three-dimensional motion contrast data as blood vessel candidate pixels.
An estimation means for estimating the connection state of the extracted pixels of the blood vessel candidate and estimating the pixels in which the number of connected pixels equal to or larger than a predetermined threshold value is used as the pixel indicating the blood vessel.
The information processing apparatus according to any one of claims 1 to 6, further comprising.
前記情報取得手段は、前記複数の3次元モーションコントラストデータのそれぞれのデータを用いて抽出された前記少なくとも1つの血管の径を前記計測情報として取得する請求項1乃至のいずれか1項に記載の情報処理装置。 The information acquisition means according to any one of claims 1 to 7 , wherein the diameter of at least one blood vessel extracted by using the respective data of the plurality of three-dimensional motion contrast data is acquired as the measurement information. Information processing equipment. 者からの指示に応じて前記少なくとも部の範囲が変更可能に構成され、前記少なくとも部の範囲の変更に応じて前記表示される複数のモーションコントラストEnface画像が連動して更新される請求項1乃至のいずれか1項に記載の情報処理装置。 Claims a range of at least part in response to an instruction from the examiner is configured to be changed, a plurality of motion contrast Enface image the displayed depending on the change in the scope of at least a part is updated in conjunction Item 2. The information processing apparatus according to any one of Items 1 to 8. 検者からの指示に応じて表示閾値が変更可能に構成され、前記表示閾値の変更に応じて前記表示される複数のモーションコントラストEnface画像が連動して更新される請求項1乃至9のいずれか1項に記載の情報処理装置。 In response to an instruction from the examiner Table示閾value is configured to be changed, any of claims 1 to 9 multiple motion contrast Enface image the display in accordance with a change in the display threshold is updated in conjunction The information processing apparatus according to item 1. 被検眼の3次元モーションコントラストデータを用いて、少なくとも1つの血管に関する計測情報を取得する情報取得手段と、An information acquisition means for acquiring measurement information on at least one blood vessel using the three-dimensional motion contrast data of the eye to be inspected, and
前記取得された計測情報と、前記被検眼の深さ方向における前記3次元モーションコントラストデータの少なくとも一部の範囲を用いて生成されたモーションコントラストEnface画像とを表示手段に表示させる表示制御手段と、を備え、A display control means for causing the display means to display the acquired measurement information and a motion contrast Enface image generated by using at least a part of the range of the three-dimensional motion contrast data in the depth direction of the eye to be inspected. With
検者からの指示に応じて前記モーションコントラストEnface画像の表示閾値が変更可能に構成され、前記表示閾値の変更に応じて前記表示されるモーションコントラストEnface画像が更新される情報処理装置。An information processing device that is configured so that the display threshold value of the motion contrast Enface image can be changed according to an instruction from an examiner, and the displayed motion contrast Enface image is updated according to the change of the display threshold value.
前記表示制御手段は、前記取得された計測情報として血管の粗密を示す情報を前記モーションコントラストEnface画像に重ねて前記表示手段に表示させ、前記血管の粗密を示す情報を前記被検眼の正面画像に重ねて前記表示手段に表示させる請求項11に記載の情報処理装置。The display control means superimposes the information indicating the density of blood vessels as the acquired measurement information on the motion contrast Enface image and displays it on the display means, and displays the information indicating the density of the blood vessels on the front image of the eye to be inspected. The information processing device according to claim 11, which is displayed on the display means in an overlapping manner. 被検体の第一の所定範囲に含まれる第二の所定範囲において同一断面を意図して取得される複数フレーム分の干渉信号セットを、3次元断層像を形成するために異なる複数の断面について取得する信号取得手段と、
前記同一断面を意図して取得された複数フレーム分の干渉信号セットにおいて各フレームの間で対応する画素データを用いてモーションコントラスト画像を生成するモーションコントラスト画像生成手段と、
前記第一の所定範囲における被検体画像及び前記モーションコントラスト画像の一方の画像における選択された一部の領域に関する情報を、他方の画像における前記選択された一部の領域に対応する領域に重ねて表示手段に表示させる表示制御手段と、
を備える情報処理装置。
Interference signal sets for multiple frames acquired with the intention of having the same cross section in the second predetermined range included in the first predetermined range of the subject are acquired for different cross sections in order to form a three-dimensional tomographic image. Signal acquisition means and
A motion contrast image generation means for generating a motion contrast image using pixel data corresponding to each frame in an interference signal set for a plurality of frames acquired with the intention of the same cross section.
Information about a selected part of the subject image and one of the motion contrast images in the first predetermined range is superimposed on the area corresponding to the selected part of the other image. Display control means to be displayed on the display means and
Information processing device equipped with.
前記表示制御手段は、検者からの指示に応じて前記一方の画像において選択された一部の領域であって、前記選択された一部の領域に関する情報を前記他方の画像における前記選択された一部の領域に対応する領域に重ねて前記表示手段に表示させる請求項13に記載の情報処理装置。 The display control means is a part of the area selected in the one image in response to an instruction from the examiner, and the information about the selected part of the area is selected in the other image. The information processing apparatus according to claim 13 , wherein the display means displays the image on the area corresponding to a part of the area. 前記表示制御手段は、検者からの指示に応じて前記一方の画像において選択された一部の領域であって、前記選択された一部の領域から得られる前記被検体の血管に関する情報を前記表示手段に表示させる請求項13又は14に記載の情報処理装置。 The display control means is a part of the region selected in the one image in response to an instruction from the examiner, and the information about the blood vessel of the subject obtained from the selected part of the image is described. The information processing device according to claim 13 or 14 , which is displayed on the display means. 異なる時間に被検眼を撮影して得た複数の3次元モーションコントラストデータのそれぞれのデータを用いて少なくとも1つの血管に関する計測情報を取得する工程と、
前記取得された計測情報を用いて前記少なくとも1つの血管を分類する工程と、
前記被検眼の深さ方向における前記複数の3次元モーションコントラストデータのそれぞれのデータの少なくとも一部の範囲を用いて生成されたモーションコントラストEnface画像であって、前記複数の3次元モーションコントラストデータに対応する複数のモーションコントラストEnface画像を並べて表示手段に表示させ、前記複数のモーションコントラストEnface画像において互いに対応する位置を示す表示情報を表示手段に表示させる工程と、
を含む情報処理方法。
Using each of the data of a plurality of 3-dimensional motion contrast data obtained by photographing a subject's eye at different times, a step of acquiring the measurement information for at least one blood vessel,
The step of classifying the at least one blood vessel using the acquired measurement information, and
It is a motion contrast Enface image generated by using at least a part range of each data of the plurality of three-dimensional motion contrast data in the depth direction of the eye to be inspected, and corresponds to the plurality of three-dimensional motion contrast data. A step of displaying a plurality of motion contrast Enface images side by side on a display means and displaying display information indicating positions corresponding to each other in the plurality of motion contrast Enface images on the display means.
Information processing methods including.
被検眼の3次元モーションコントラストデータを用いて、少なくとも1つの血管に関する計測情報を取得する工程と、The process of acquiring measurement information on at least one blood vessel using the 3D motion contrast data of the eye to be inspected, and
前記取得された計測情報と、前記被検眼の深さ方向における前記3次元モーションコントラストデータの少なくとも一部の範囲を用いて生成されたモーションコントラストEnface画像とを表示手段に表示させる工程と、を含み、A step of displaying the acquired measurement information and a motion contrast Enface image generated by using at least a part of the range of the three-dimensional motion contrast data in the depth direction of the eye to be inspected on a display means. ,
検者からの指示に応じて前記モーションコントラストEnface画像の表示閾値が変更可能に構成され、前記表示閾値の変更に応じて前記表示されるモーションコントラストEnface画像が更新される情報処理方法。An information processing method in which the display threshold value of the motion contrast Enface image can be changed according to an instruction from an examiner, and the displayed motion contrast Enface image is updated according to the change of the display threshold value.
被検体の第一の所定範囲に含まれる第二の所定範囲において同一断面を意図して取得される複数フレーム分の干渉信号セットを、3次元断層像を形成するために異なる複数の断面について取得する工程と、
前記同一断面を意図して取得された複数フレーム分の干渉信号セットにおいて各フレームの間で対応する画素データを用いてモーションコントラスト画像を生成する工程と、
前記第一の所定範囲における被検体画像及び前記モーションコントラスト画像の一方の画像における選択された一部の領域に関する情報を、他方の画像における前記選択された一部の領域に対応する領域に重ねて表示手段に表示させる工程と、
を含む情報処理方法。
Interference signal sets for multiple frames that are intentionally acquired in the second predetermined range included in the first predetermined range of the subject with the same cross section are acquired for different cross sections in order to form a three-dimensional tomographic image. And the process to do
A step of generating a motion contrast image using the corresponding pixel data between each frame in the interference signal set for a plurality of frames acquired with the intention of the same cross section.
Information about a selected part of the subject image and one of the motion contrast images in the first predetermined range is superimposed on the area corresponding to the selected part of the other image. The process of displaying on the display means and
Information processing methods including.
請求項16乃至18のいずれか1項に記載の情報処理方法の各工程をコンピュータに実行させるプログラム。 A program for causing a computer to execute each step of the information processing method according to any one of claims 16 to 18.
JP2019214043A 2019-11-27 2019-11-27 Information processing device and information processing method Active JP6849776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019214043A JP6849776B2 (en) 2019-11-27 2019-11-27 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019214043A JP6849776B2 (en) 2019-11-27 2019-11-27 Information processing device and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016009544A Division JP6624945B2 (en) 2016-01-21 2016-01-21 Image forming method and apparatus

Publications (2)

Publication Number Publication Date
JP2020049231A JP2020049231A (en) 2020-04-02
JP6849776B2 true JP6849776B2 (en) 2021-03-31

Family

ID=69994875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019214043A Active JP6849776B2 (en) 2019-11-27 2019-11-27 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP6849776B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017641A1 (en) * 2021-08-13 2023-02-16 ソニーグループ株式会社 Bioparticle sorting device, bioparticle sorting system, and information processing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5792967B2 (en) * 2011-02-25 2015-10-14 キヤノン株式会社 Image processing apparatus and image processing system
US9357916B2 (en) * 2012-05-10 2016-06-07 Carl Zeiss Meditec, Inc. Analysis and visualization of OCT angiography data
JP6278295B2 (en) * 2013-06-13 2018-02-14 国立大学法人 筑波大学 Optical coherence tomography device for selectively visualizing and analyzing choroidal vascular network and its image processing program
US11071452B2 (en) * 2014-06-30 2021-07-27 Nidek Co., Ltd. Optical coherence tomography device, optical coherence tomography calculation method, and optical coherence tomography calculation program
JP6922152B2 (en) * 2015-10-21 2021-08-18 株式会社ニデック Ophthalmology analyzer, ophthalmology analysis program

Also Published As

Publication number Publication date
JP2020049231A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
JP6702764B2 (en) Optical coherence tomographic data processing method, program for executing the method, and processing apparatus
JP6598502B2 (en) Image generating apparatus, image generating method, and program
JP6632267B2 (en) Ophthalmic apparatus, display control method and program
JP6843521B2 (en) Image processing device and image processing method
JP6598466B2 (en) Tomographic imaging apparatus, tomographic imaging method, and program
JP6602108B2 (en) Ophthalmic apparatus, information processing method, and program
JP2018038611A (en) Ophthalmologic analyzer and ophthalmologic analysis program
JP6682291B2 (en) Image processing apparatus, image processing method and program
JP6849776B2 (en) Information processing device and information processing method
JP2018191761A (en) Information processing device, information processing method, and program
JP7204345B2 (en) Image processing device, image processing method and program
JP6992030B2 (en) Image generator, image generation method and program
JP6849780B2 (en) Ophthalmic equipment, display control methods and programs
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP7386950B2 (en) Ophthalmology information processing device
JP2018047084A (en) Ophthalmologic examination apparatus
JP2023128334A (en) Information processor, optical coherence tomography device, information processing method, and program
JP2021087817A (en) Image processing apparatus and image processing method
JP2019092921A (en) Ophthalmic information processing apparatus, ophthalmic system, ophthalmic information processing method, and program
JP2017144047A (en) Imaging apparatus and driving method therefor, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R151 Written notification of patent or utility model registration

Ref document number: 6849776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151