WO2019198629A1 - Image processing device and control method for same - Google Patents

Image processing device and control method for same Download PDF

Info

Publication number
WO2019198629A1
WO2019198629A1 PCT/JP2019/015080 JP2019015080W WO2019198629A1 WO 2019198629 A1 WO2019198629 A1 WO 2019198629A1 JP 2019015080 W JP2019015080 W JP 2019015080W WO 2019198629 A1 WO2019198629 A1 WO 2019198629A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
blood flow
image processing
light
motion contrast
Prior art date
Application number
PCT/JP2019/015080
Other languages
French (fr)
Japanese (ja)
Inventor
宏治 野里
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2019198629A1 publication Critical patent/WO2019198629A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Abstract

An image processing device that processes a plurality of cross-sectional images and a plurality of planar images of a photographed area of an object of examination. The image processing device has: a first generation means that generates a motion contrast image from the plurality of cross-sectional images; a second generation means that generates blood flow information from the plurality of planar images; and a control means that displays the blood flow information on the motion contrast image.

Description

画像処理装置およびその制御方法Image processing apparatus and control method thereof
 本発明は、画像処理装置およびその制御方法に関し、特に、被検眼の画像を処理する画像処理装置およびその制御方法に関する。 The present invention relates to an image processing apparatus and a control method therefor, and more particularly, to an image processing apparatus that processes an image of an eye to be examined and a control method therefor.
 近年、眼科用の撮影装置として、眼底に2次元的にレーザ光を照射してその反射光を受光して平面画像を取得するSLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)や、低コヒーレンス光の干渉を利用したイメージング装置が開発されている。低コヒーレンス光の干渉を利用したイメージング装置は、OCT(Optical Coherence Tomography:光干渉断層装置あるいは光干渉断層法)と呼ばれ、特に、眼底あるいはその近傍の断層画像を得る目的で用いられている。OCTの種類としては、TD-OCT(Time Domain OCT:タイムドメイン法)や、SD-OCT(Spectral Domain OCT:スペクトラルドメイン法)等を含め、種々のものが開発されてきている。 In recent years, as an ophthalmologic photographing apparatus, an SLO (Scanning Laser Ophthalmoscope) that irradiates a laser beam two-dimensionally on the fundus and receives the reflected light to obtain a planar image, or a low-coherence light. Imaging devices using interference have been developed. An imaging apparatus using interference of low-coherence light is called OCT (Optical Coherence Tomography), and is used particularly for the purpose of obtaining a tomographic image of the fundus or its vicinity. Various types of OCT have been developed, including TD-OCT (Time Domain OCT: Time Domain Method) and SD-OCT (Spectral Domain OCT: Spectral Domain Method).
 特に、このような眼科用の撮影装置は、近年において、照射レーザの高NA化等によってさらなる高解像度化が進められている。しかしながら、眼底を撮影する場合には、角膜や水晶体等の眼の光学組織を通して撮影をしなければならない。そのため、高解像度化が進むに連れて、これら角膜や水晶体の収差が撮影画像の画質に大きく影響するようになってきた。 In particular, in such an ophthalmologic photographing apparatus, in recent years, higher resolution has been promoted by increasing the NA of the irradiation laser. However, when photographing the fundus, the photograph must be taken through the optical tissue of the eye such as the cornea and the crystalline lens. For this reason, as the resolution increases, the aberrations of the cornea and the crystalline lens greatly affect the image quality of the captured image.
 そこで、眼の収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだ、AOSLOやAOOCTの研究が進められている。例えば、非特許文献1に、AOOCTが開示されている。これらAOSLOやAOOCTは、一般的にはシャックハルトマン波面センサー方式によって眼の波面を測定する。シャックハルトマン波面センサー方式とは、眼に測定光を入射し、その反射光を、マイクロレンズアレイを通してCCDカメラに受光することによって波面を測定するものである。測定した波面を補正するように可変形状ミラーや、空間位相変調器を駆動し、それらを通して眼底の撮影を行うことにより、AOSLOやAOOCTは高分解能な撮影が可能となる。 Therefore, research on AOSLO and AOOCT, in which an adaptive optics (AO) function for measuring aberrations of the eye and correcting the aberrations is incorporated in the optical system, is underway. For example, Non-Patent Document 1 discloses AOOCT. These AOSLO and AOOCT generally measure the wavefront of the eye using the Shack-Hartmann wavefront sensor method. In the Shack-Hartmann wavefront sensor system, measurement light is incident on the eye and the reflected light is received by a CCD camera through a microlens array to measure the wavefront. AOSLO and AOOCT can be imaged with high resolution by driving a deformable mirror and a spatial phase modulator to correct the measured wavefront and imaging the fundus oculi through them.
 また最近、造影剤を用いずに網膜の血管等の構造を撮影する方法として、OCTを用いた血管造影法(OCT Angiography:OCTA)が利用されている。OCTAでは、OCTにより取得した三次元のモーションコントラストデータを二次元平面に投影することで、血管画像(以下、OCTA画像という。)を生成する。ここで、モーションコントラストデータとは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータである。モーションコントラストデータは、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる(特許文献1)。 Recently, an angiographic method using OCT (OCT Angiography: OCTA) has been used as a method for imaging structures such as blood vessels of the retina without using a contrast agent. In OCTA, a blood vessel image (hereinafter referred to as an OCTA image) is generated by projecting three-dimensional motion contrast data acquired by OCT onto a two-dimensional plane. Here, the motion contrast data is data obtained by repeatedly photographing the same cross section of the measurement object by OCT and detecting a temporal change of the measurement object during the imaging. The motion contrast data is obtained, for example, by calculating a temporal change in the phase, vector, and intensity of the complex OCT signal from a difference, a ratio, or a correlation (Patent Document 1).
 同様に、SLOやAOSLOにおいては、画像から血管領域を特定し、その時空間画像を解析することで血管内の粒子の動作や血流を解析することが可能である。AOSLOでは焦点深度が浅いために、撮影される層の範囲は数十μmに限定され、ほぼ網膜の1層のみの血流が解析可能である。 Similarly, in SLO and AOSLO, it is possible to identify the blood vessel region from the image and analyze the spatiotemporal image to analyze the movement of the particles in the blood vessel and the blood flow. Since the depth of focus is shallow in AOSLO, the range of the imaged layer is limited to several tens of μm, and the blood flow of only one layer of the retina can be analyzed.
 また、OCTAと同様に、SLOやAOSLOにおいても、その平面画像のモーションコントラストデータから血管画像(以下SLOA、AOSLOA画像)を生成する方法も研究されている。SLOのモーションコントラストデータもOCTAのモーションコントラストデータと同じく、測定対象の同撮影位置における時間的な変化を検出したデータである。しかしながら、SLO画像とは特定平面の連続動画であるため、OCTAのような特定断層の切り出しや、平面への投射といった処理をすることなく、モーションコントラストデータを作成することが可能である。 Also, as in OCTA, in SLO and AOSLO, methods for generating blood vessel images (hereinafter referred to as SLOA and AOSLOA images) from the motion contrast data of the planar images have been studied. Similar to the OCTA motion contrast data, the SLO motion contrast data is data obtained by detecting temporal changes at the same imaging position of the measurement target. However, since the SLO image is a continuous moving image of a specific plane, it is possible to create motion contrast data without performing processing such as cutting out a specific slice like OCTA and projecting onto a plane.
特開2015-131107JP2015-131107A
 OCTAにおいては、その元データとなるOCT画像を撮像したOCTの性能により、描出できる変化が限定される。例えば、一般的なOCTでは20μm程度の水平方向解像度しかないため、その解像度以下の画像上の構造物や変化をとらえることができない。また、OCTAは断層画像間の変化量を画像化するため、網膜の血管構造を描出することが可能であるが、血管内の血流の方向や速度などの情報を取得することができない。血管の微細な構造も血流の方向もわからないため、描出している血管が動脈なのか静脈なのかも判別困難である。 In OCTA, changes that can be drawn are limited by the performance of the OCT that captured the OCT image that is the original data. For example, in general OCT, since there is only a horizontal resolution of about 20 μm, structures and changes on the image below that resolution cannot be captured. In addition, since OCTA images the amount of change between tomographic images, the vascular structure of the retina can be depicted, but information such as the direction and velocity of blood flow in the blood vessel cannot be acquired. Since the fine structure of blood vessels and the direction of blood flow are unknown, it is difficult to determine whether the blood vessel being drawn is an artery or a vein.
 一方でAOSLOでは横解像度が非常に高く、細胞レベルの非常に微細な変化も捉えることが可能で、血管であれば内部の血球レベルの変化まで捉えることが可能である。しかし、AOSLOは横解像度が高い反面、一般的な眼底撮影装置に対して相対的に撮影画角が狭くなり、全体像を把握することが困難であった。また、AOSLOを含むSLOは平面撮影のため、特定のフォーカス位置のみ撮影可能で、フォーカス深度外の情報がなく、上下方向の構造物との構造的関連性を把握しにくかった。 On the other hand, AOSLO has a very high lateral resolution and can capture very minute changes in the cell level. If it is a blood vessel, it can also capture changes in the internal blood cell level. However, while AOSLO has a high lateral resolution, the field angle of view is relatively narrow with respect to a general fundus photographing apparatus, and it is difficult to grasp the entire image. In addition, since the SLO including the AOSLO is a plane imaging, it is possible to capture only a specific focus position, there is no information outside the focus depth, and it is difficult to grasp the structural relationship with the structure in the vertical direction.
 本発明は、上記問題を鑑み、OCTやOCTAで描出可能な網膜上の血管構造と、SLOやAOSLOで撮影可能な血流情報を解析し、単独の画像では取得できない情報を提供する画像処理装置を提供することを目的とする。 In view of the above problems, the present invention analyzes a blood vessel structure on the retina that can be rendered with OCT or OCTA and blood flow information that can be captured with SLO or AOSLO, and provides information that cannot be acquired with a single image The purpose is to provide.
 上記課題を解決するために本発明の画像処理装置は、被検査物の撮影領域の複数の断層画像と複数の平面画像を処理する画像処理装置であって、前記複数の断層画像からモーションコントラスト画像を生成する第1の生成手段と、前記複数の平面画像から血流情報を生成する第2の生成手段と、前記モーションコントラスト画像に前記血流情報を表示する制御手段とを有する。 In order to solve the above problems, an image processing apparatus of the present invention is an image processing apparatus that processes a plurality of tomographic images and a plurality of planar images of an imaging region of an object to be inspected. First generation means for generating blood flow, second generation means for generating blood flow information from the plurality of planar images, and control means for displaying the blood flow information on the motion contrast image.
本発明の実施形態1におけるOCT装置の構成例の模式図である。It is a schematic diagram of the structural example of the OCT apparatus in Embodiment 1 of this invention. 本発明の実施形態1におけるAOSLO装置の構成例の模式図である。It is a schematic diagram of the structural example of the AOSLO apparatus in Embodiment 1 of this invention. 本発明の実施形態3におけるAOOCT-SLO装置の構成例の模式図である。It is a schematic diagram of the structural example of the AOOCT-SLO apparatus in Embodiment 3 of this invention. 実施形態1における標準的な制御ステップを示すフローチャートである。3 is a flowchart showing standard control steps in the first embodiment. 実施形態1のスキャンパターン例である。4 is a scan pattern example according to the first embodiment. 実施形態1のスキャンパターン例である。4 is a scan pattern example according to the first embodiment. OCTの画像例である。It is an example of an image of OCT. OCTの画像例である。It is an example of an image of OCT. OCTの画像例である。It is an example of an image of OCT. AOSLOの画像例である。It is an example of an image of AOSLO. AOSLOの画像例である。It is an example of an image of AOSLO. AOSLOの画像例である。It is an example of an image of AOSLO. AOSLOの画像例である。It is an example of an image of AOSLO. AOSLOの画像例である。It is an example of an image of AOSLO. AOSLOの画像例である。It is an example of an image of AOSLO. AOSLOの視細胞画像および血流解析例である。It is an example of a photoreceptor cell image and blood flow analysis of AOSLO. AOSLOの視細胞画像および血流解析例である。It is an example of a photoreceptor cell image and blood flow analysis of AOSLO. AOSLOの視細胞画像および血流解析例である。It is an example of a photoreceptor cell image and blood flow analysis of AOSLO. 実施形態1の画像処理ユニット構成の模式図である。FIG. 2 is a schematic diagram of an image processing unit configuration according to the first embodiment. 実施形態1の画像処理ユニットの制御ステップを示すフローチャートである。4 is a flowchart illustrating control steps of the image processing unit according to the first embodiment. 実施形態1の解析結果表示画面の一例である。3 is an example of an analysis result display screen according to the first embodiment. 実施形態1の解析結果表示画面の一例である。3 is an example of an analysis result display screen according to the first embodiment. 実施形態1の解析結果表示画面の一例である。3 is an example of an analysis result display screen according to the first embodiment. 実施形態2の画像処理ユニットの制御ステップを示すフローチャートである。10 is a flowchart illustrating control steps of the image processing unit according to the second embodiment. 実施形態3の画像処理ユニットの制御ステップを示すフローチャートである。10 is a flowchart illustrating control steps of the image processing unit according to the third embodiment.
 以下、本発明の一実施形態を、図面を用いて詳細に説明する。以下の説明は本質的に、説明的及び例示的なものにすぎず、いかなる形でも、本開示及びその用途又は使用を限定することを意図していない。実施形態において示されるコンポーネントの相対的構成、並びに、ステップ、数値表現及び数値は、別段の具体的な指示がない限り、本開示の範囲を限定しない。当業者によってよく知られている技法、方法及びデバイスは、以下で論考する実施形態を可能にするために当業者がこれらの詳細を知る必要がないので、詳細に論考されていない場合がある。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. The following description is merely illustrative and exemplary in nature and is not intended to limit the present disclosure and its application or uses in any way. The relative configurations of components shown in the embodiments, and the steps, numerical expressions, and numerical values do not limit the scope of the present disclosure unless specifically indicated otherwise. Techniques, methods and devices well known by those skilled in the art may not have been discussed in detail because those skilled in the art do not need to know these details to enable the embodiments discussed below.
 [実施形態1]
 実施形態1として、本発明を適用した眼底画像を撮影する撮影装置および画像処理ユニットの構成について図1、図2、図9を用いて説明する。
[Embodiment 1]
As Embodiment 1, a configuration of an imaging apparatus and an image processing unit that captures a fundus image to which the present invention is applied will be described with reference to FIGS. 1, 2, and 9.
 なお、本実施形態においては、測定対象である被検査物を眼とし、OCT装置と眼で発生する収差を補償光学系で補正して眼底を撮影するAOSLOの装置との組み合わせによる一例について説明する。 In the present embodiment, an example will be described in which an OCT apparatus and an AOSLO apparatus that captures the fundus by correcting an aberration generated in the eye with an adaptive optical system using an object to be measured as an eye. .
 図1がOCTの構成を示す図であり、図2がAOSLOの構成を示す図であり、図9がこれらの装置で得られたデータを解析する画像処理ユニット他の構成との関係を示した構成図である。 FIG. 1 is a diagram showing a configuration of OCT, FIG. 2 is a diagram showing a configuration of AOSLO, and FIG. 9 shows a relationship with other configurations of an image processing unit that analyzes data obtained by these apparatuses. It is a block diagram.
 図1において、110がOCTユニットである。OCTユニット110の主要なユニットとして、光源101、ファイバーカプラー102、参照光学系111、検出光学系112および接眼光学系から構成されている。 In FIG. 1, 110 is an OCT unit. The main unit of the OCT unit 110 includes a light source 101, a fiber coupler 102, a reference optical system 111, a detection optical system 112, and an eyepiece optical system.
 101は光源であり、波長840nmのSLD(Super LuminescentDiode)光源を用いた。光源101は低干渉性のものであれば良く、波長幅30nm以上のSLDが好適に用いられる。また、チタンサファイアレーザなどの超短パルスレーザなどを光源に用いることもできる。 101 is a light source, and an SLD (Super Luminescent Diode) light source having a wavelength of 840 nm was used. The light source 101 only needs to have a low interference property, and an SLD having a wavelength width of 30 nm or more is preferably used. Further, an ultrashort pulse laser such as a titanium sapphire laser can be used as a light source.
 光源101から照射された光は、単一モード光ファイバーを通って、ファイバーカプラー102まで導光される。ファイバーカプラー102によって、測定光経路103と参照光経路113に分岐される。ファイバーカプラーは10:90の分岐比のものを使用し、投入光量の10%が測定光経路103に行くように構成した。 The light emitted from the light source 101 is guided to the fiber coupler 102 through the single mode optical fiber. The measurement light path 103 and the reference light path 113 are branched by the fiber coupler 102. A fiber coupler having a branching ratio of 10:90 was used so that 10% of the input light amount went to the measurement light path 103.
 測定光経路103を通った光は、コリメータ104により、測定光105が平行光線として照射される。照射される光の偏光は、単一モード光ファイバー103の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ104から出射された後の光路に偏光を調整する光学部品を配置する構成がある。また、光路中に測定光の分散特性を調整する光学素子や色収差特性を調整する光学素子を具備する場合もある。 The light that has passed through the measurement light path 103 is irradiated by the collimator 104 as parallel light with the measurement light 105. The polarization of the irradiated light is adjusted by a polarization adjuster (not shown) provided in the path of the single mode optical fiber 103. As another configuration, there is a configuration in which an optical component for adjusting polarization is arranged in the optical path after being emitted from the collimator 104. In some cases, an optical element for adjusting the dispersion characteristic of the measurement light and an optical element for adjusting the chromatic aberration characteristic are provided in the optical path.
 測定光105は反射ミラー106-1~3や不図示のレンズ等でリレーされ、走査光学系107-1によって、1次元もしくは2次元に走査される。本実施形態では走査光学系107-1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として二つのガルバノスキャナーを用いた。走査光学系107-1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる装置構成の場合もある。本実施形態では、走査光学系にさらにトラッキングミラー107-2を持つ。トラッキングミラー107-2は2つのガルバノスキャナーから構成され、眼109の眼底に設定される撮影領域をさらに2方向に移動させることが可能である。別の構成では、走査光学系107-1がトラッキングミラー107-2を兼ねる構成もある。また、107-1と107-2を光学的に共役関係とするために、不図示のリレー光学系が用いられることが多い。 The measuring beam 105 is relayed by reflecting mirrors 106-1 to 106-3, a lens (not shown), etc., and scanned one-dimensionally or two-dimensionally by the scanning optical system 107-1. In the present embodiment, two galvano scanners are used for the scanning optical system 107-1 for main scanning (fundus horizontal direction) and sub-scanning (fundus vertical direction). In order to bring each scanner in the scanning optical system 107-1 into an optically conjugate state, there may be an apparatus configuration that uses an optical element such as a mirror or a lens between the scanners. In this embodiment, the scanning optical system further includes a tracking mirror 107-2. The tracking mirror 107-2 is composed of two galvano scanners, and can further move the imaging region set on the fundus of the eye 109 in two directions. In another configuration, there is a configuration in which the scanning optical system 107-1 also serves as the tracking mirror 107-2. Further, in order to optically conjugate the 107-1 and 107-2, a relay optical system (not shown) is often used.
 走査光学系107-1および107-2で走査された測定光105は、接眼レンズ108-1および108-2を通して眼109に照射される。眼109に照射された測定光105は、眼底の網膜で反射もしくは散乱される。接眼レンズ108-1および108-2の位置を調整することによって、眼109の視度にあわせて最適な照射を行うことが可能となる。ここでは、接眼部にレンズを用いたが、球面ミラー等で構成しても良い。 The measuring beam 105 scanned by the scanning optical systems 107-1 and 107-2 is irradiated to the eye 109 through the eyepieces 108-1 and 108-2. The measurement light 105 applied to the eye 109 is reflected or scattered by the retina of the fundus. By adjusting the positions of the eyepieces 108-1 and 108-2, it is possible to perform optimal irradiation in accordance with the diopter of the eye 109. Here, a lens is used for the eyepiece, but a spherical mirror or the like may be used.
 眼109の眼底の網膜から反射もしくは散乱された反射光は、入射した時の経路を逆向きに進行し、コリメータ104を通して光ファイバー103に入り、ファイバーカプラー102に戻る。 Reflected light reflected or scattered from the retina of the fundus of the eye 109 travels in the reverse direction when entering, enters the optical fiber 103 through the collimator 104, and returns to the fiber coupler 102.
 一方、参照光経路113を通った参照光はコリメータ114で出射され、光路長可変部116で反射して再度ファイバーカプラー102に戻る。 On the other hand, the reference light that has passed through the reference light path 113 is emitted by the collimator 114, reflected by the optical path length variable unit 116, and returned to the fiber coupler 102 again.
 ファイバーカプラー102に到達した反射光と参照光は合波されて干渉光となり、光ファイバー117を通して検出光学系112に導光される。検出光学系112に入った干渉光はコリメータ118で出射され、グレーティング119により波長ごとに分光される。分光された光はレンズ系120を通してラインセンサー121に照射される。ラインセンサー121はCCDセンサーで構成される場合もあるし、CMOSセンサーで構成される場合もある。 The reflected light and the reference light that have reached the fiber coupler 102 are combined to form interference light, which is guided to the detection optical system 112 through the optical fiber 117. The interference light that has entered the detection optical system 112 is emitted from the collimator 118 and is split by the grating 119 for each wavelength. The split light is applied to the line sensor 121 through the lens system 120. The line sensor 121 may be composed of a CCD sensor or a CMOS sensor.
 検出光学系112によって分光された干渉光をもとに、制御部122によって眼底の断層画像が構成される。制御部122は光路長可変部116を制御し、所望の深さ位置の画像を取得できる。また、制御部122は走査部107-1、107-2も同時に制御しており、任意の位置の干渉信号が取得可能である。一般的には、走査部107-1、107-2によって眼底上に設定される撮影領域をラスタースキャンし、その各々の位置での干渉信号が位置情報と同時に記録される。得られた干渉信号から断層画像を作成することにより、3次元ボリュームデータが取得される。 Based on the interference light dispersed by the detection optical system 112, a tomographic image of the fundus is formed by the control unit 122. The control unit 122 can control the optical path length variable unit 116 and acquire an image at a desired depth position. The control unit 122 also controls the scanning units 107-1 and 107-2 at the same time, and can acquire an interference signal at an arbitrary position. In general, a scanning region set on the fundus is scanned by the scanning units 107-1 and 107-2, and an interference signal at each position is recorded simultaneously with the position information. Three-dimensional volume data is acquired by creating a tomographic image from the obtained interference signal.
 次に、図5A、Bを用いて本実施形態のスキャンパターンの一例を説明する。図5Aは任意のスキャンについて、図5Bは本実施形態で具体的に実行した数値を反映させた図である。OCTAでは血流によるOCT干渉信号の時間変化を計測するため、同じ場所で複数回の計測が必要となる。本実施形態ではOCT装置は同じ場所でのBスキャンをm回繰り返しつつ、n箇所のyポジションに移動するスキャンを行う。具体的なスキャンパターンを図5Aに示す。眼底平面上でy1~ynのn箇所のyポジションについて、Bスキャンをm回繰り返す。mが大きいと同じ場所での計測回数が増えるため、血流の検出精度が向上する。その一方でスキャン時間が長くなり、スキャン中の眼の動き(固視微動)によりOCTA画像にモーションアーチファクトが発生する問題と被検者の負担が増える。本実施形態では両者のバランスを考慮してm=4(図5B)として実施した。なお、OCT装置のAスキャン速度、被検体の眼底表面画像の運動解析に応じて、繰り返し数mを変更してもよい。図5Aにおいてpは1つのBスキャンにおけるAスキャンのサンプリング数を示している。すなわち、p×nにより平面画像サイズが決定される。p×nが大きいと、同じ計測ピッチであれば広範囲がスキャンできるが、スキャン時間が長くなり、上述のモーションアーチファクトおよび患者負担の問題が生じる。本実施形態では両者のバランスを考慮してn=p=300として実施した。なお、上記n,pは適宜自由に変更が可能である。また、図5AにおけるΔxは隣り合うxポジションの間隔(xピッチ)であり、Δyは隣り合うyポジションの間隔(yピッチ)である。本実施形態ではxピッチ、yピッチは眼底における照射光のビームスポット径の1/2として決定し、本実施形態では、10μm(図5B)とする。xピッチ、yピッチを眼底上ビームスポット径の1/2とすることで生成する画像を高精細に形成することができる。xピッチ、yピッチを眼底ビームスポット径の1/2より小さくしても生成する画像の精細度をそれ以上高くする効果は小さい。逆にxピッチ、yピッチを眼底ビームスポット径の1/2より大きくすると精細度は悪化するが、小さなデータ容量で広い範囲の画像を取得することができる。臨床上の要求に応じてxピッチ、yピッチを自由に変更してもよい。本実施形態の撮影範囲は、x方向がp×Δx=3mm、y方向がn×Δy=3mmである(図5B参照)。 Next, an example of the scan pattern of this embodiment will be described with reference to FIGS. 5A and 5B. FIG. 5A is a diagram reflecting an arbitrary scan, and FIG. 5B is a diagram reflecting numerical values specifically executed in the present embodiment. In OCTA, since the time change of the OCT interference signal due to blood flow is measured, multiple measurements are required at the same place. In the present embodiment, the OCT apparatus performs a scan that moves to n y positions while repeating the B scan at the same location m times. A specific scan pattern is shown in FIG. 5A. The B scan is repeated m times for n positions y1 to yn on the fundus plane. If m is large, the number of times of measurement at the same place increases, so that blood flow detection accuracy is improved. On the other hand, the scan time becomes longer, and the problem of motion artifacts occurring in the OCTA image due to eye movement (fixation fine movement) during scanning increases the burden on the subject. In this embodiment, m = 4 (FIG. 5B) was implemented in consideration of the balance between the two. Note that the repetition number m may be changed according to the A-scan speed of the OCT apparatus and the motion analysis of the fundus surface image of the subject. In FIG. 5A, p indicates the sampling number of A scan in one B scan. That is, the plane image size is determined by p × n. When p × n is large, a wide range can be scanned at the same measurement pitch, but the scan time becomes long, and the above-mentioned motion artifact and patient burden problem occur. In the present embodiment, n = p = 300 was implemented in consideration of the balance between the two. The above n and p can be freely changed as appropriate. Further, Δx in FIG. 5A is an interval between adjacent x positions (x pitch), and Δy is an interval between adjacent y positions (y pitch). In this embodiment, the x pitch and the y pitch are determined as ½ of the beam spot diameter of the irradiation light on the fundus, and in this embodiment, 10 μm (FIG. 5B). An image to be generated can be formed with high definition by setting the x pitch and the y pitch to ½ of the beam spot diameter on the fundus. Even if the x pitch and the y pitch are smaller than ½ of the fundus beam spot diameter, the effect of further increasing the definition of the generated image is small. Conversely, if the x pitch and y pitch are made larger than ½ of the fundus beam spot diameter, the definition deteriorates, but a wide range of images can be acquired with a small data capacity. The x pitch and y pitch may be freely changed according to clinical requirements. The imaging range of the present embodiment is p × Δx = 3 mm in the x direction and n × Δy = 3 mm in the y direction (see FIG. 5B).
 図6A~CがOCTA画像の例である。図6AがOCT断層画像であり、OCTA画像構築のために同じ位置の断層画像が複数枚撮影され、それぞれ601~604となっている。各断層画像601~604のそれぞれの画像間の差異を計算することにより、モーションコントラスト画像が生成される。それを3次元方向に位置合わせスタックし、任意の層範囲のモーションコントラストデータを抜き出して深さ方向に投影することにより、OCTA画像(図6B)が生成される。図6Bの範囲605を拡大したものが図6Cである。 6A to 6C are examples of OCTA images. FIG. 6A shows an OCT tomographic image, and a plurality of tomographic images at the same position are taken for the construction of an OCTA image, which are 601 to 604, respectively. By calculating the difference between the respective tomographic images 601 to 604, a motion contrast image is generated. The OCTA image (FIG. 6B) is generated by aligning and stacking them in the three-dimensional direction, extracting motion contrast data of an arbitrary layer range, and projecting it in the depth direction. 6C is an enlarged view of the range 605 in FIG. 6B.
 次に、図6Bの様なOCTA画像を生成する方法について、図4を用いて説明する。 Next, a method for generating an OCTA image as shown in FIG. 6B will be described with reference to FIG.
 ステップS101において、画像処理ユニット901(図9参照)はポジションyにおける繰り返しBスキャン干渉信号(m枚分)を抜き出す。ステップS102において、画像処理ユニット901はj番目のBスキャン干渉信号を抜き出す。 In step S101, (see FIG. 9) The image processing unit 901 extract the repeated B-scan interfering signal at the position y k (m sheets). In step S102, the image processing unit 901 extracts the j-th B scan interference signal.
 ステップS103において、画像処理ユニット901は取得したバックグラウンドデータを当該干渉信号から減算する。 In step S103, the image processing unit 901 subtracts the acquired background data from the interference signal.
 ステップS104において、画像処理ユニット901は、バックグラウンドを減算した干渉信号に対して波数関数に変換処理を施し、フーリエ変換を行う。本実施形態では高速フーリエ変換(FFT:Fast Fourier Transform)を適用する。尚、フーリエ変換前にゼロパディング処理を施し、干渉信号を増長させても良い。ゼロパディング処理を施すことでフーリエ変換後の階調性が増し、後述するステップ109において位置合わせ精度を向上させることが出来る。 In step S104, the image processing unit 901 converts the interference signal obtained by subtracting the background into a wave number function, and performs a Fourier transform. In the present embodiment, fast Fourier transform (FFT) is applied. Note that zero padding processing may be performed before Fourier transform to increase the interference signal. By performing the zero padding process, the gradation after Fourier transform is increased, and the alignment accuracy can be improved in step 109 described later.
 ステップS105において、画像処理ユニット901は、ステップS104にて実行したフーリエ変換によって得られる複素信号の絶対値を計算する。この値が当該スキャンの断層画像のIntensityとなる。 In step S105, the image processing unit 901 calculates the absolute value of the complex signal obtained by the Fourier transform executed in step S104. This value becomes the intensity of the tomographic image of the scan.
 ステップS106において、画像処理ユニット901はインデックスjが、所定数(m)に到達したかを判断する。すなわち、ポジションykでの断層画像のIntensity計算がm回繰り返されたかを判断する。所定数に満たない場合はステップS102に戻り、同一Y位置における断層画像のIntensity計算を繰り返す。所定数に達した場合は、次ステップへ進む。 In step S106, the image processing unit 901 determines whether the index j has reached a predetermined number (m). That is, it is determined whether the intensity calculation of the tomographic image at the position yk has been repeated m times. When the predetermined number is not reached, the process returns to step S102, and the intensity calculation of the tomographic image at the same Y position is repeated. When the predetermined number is reached, the process proceeds to the next step.
 ステップS107において、画像処理ユニット901はあるyポジションにおけるmフレームの同一撮影位置の断層画像の間で、画像の類似度を計算する。具体的には、画像処理ユニット901はmフレームの断層画像の内、任意の一枚をテンプレートとして選択し、残りのm-1フレームの画像との相関値を算出する。 In step S107, the image processing unit 901 calculates image similarity between tomographic images at the same photographing position of m frames at a certain y k position. Specifically, the image processing unit 901 selects any one of m frame tomographic images as a template, and calculates a correlation value with the remaining m−1 frame images.
 ステップS108において、画像処理ユニット901はステップS107で算出した相関値の中で、他の画像との相関が一定の閾値以上である相関が最も高い画像を選択する。閾値は任意に設定が可能であり、被検者の瞬きや固視微動によって画像としての相関が低下したフレームを排除することができるように設定する。前述したように、OCTAでは、被検体組織のうち流れのある組織(例えば血液)と流れのない組織の間の対比を、画像間の相関値に基づき区別する技術である。即ち、流れの無い組織は画像間で相関が高いという前提の上で流れのある組織を抽出するため、画像として相関が低い場合、モーションコントラストを計算する際に誤検出となり、あたかも画像全体が流れのある組織であるかのように判定してしまう。このステップではそうした誤検出を回避するために、予め画像として相関の低い断層画像を排除し、相関の高い画像のみを選択する。画像選択の結果、同一ポジションyで取得されたmフレームの画像は適宜取捨選択され、qフレームの画像となる。ここで、qの取りうる値は、1≦q≦mである。 In step S <b> 108, the image processing unit 901 selects an image having the highest correlation that has a correlation with another image that is equal to or greater than a certain threshold among the correlation values calculated in step S <b> 107. The threshold value can be arbitrarily set, and is set so as to exclude frames in which the correlation as an image has decreased due to blinking of the subject or slight eye movement. As described above, OCTA is a technique for discriminating the contrast between a flowing tissue (for example, blood) and a non-flowing tissue among subject tissues based on a correlation value between images. In other words, tissue with no flow is extracted based on the premise that the correlation between images is high, so if the correlation is low as an image, it will be erroneously detected when calculating the motion contrast, and the entire image will flow. It will be judged as if it is a certain organization. In this step, in order to avoid such erroneous detection, tomographic images with low correlation are excluded in advance as images, and only images with high correlation are selected. As a result of image selection, images of m frames acquired at the same position y k are appropriately selected and become q frame images. Here, a possible value of q is 1 ≦ q ≦ m.
 ステップS109において、画像処理ユニット901は、ステップS108にて選択されたqフレームの断層画像の位置合わせを行う。テンプレートとして選択するフレームは、互いに全ての組み合わせで相関を計算し、フレーム別に相関係数の和を求め、その和が最大となるフレームを選択してもよい。次に、テンプレートでフレーム毎に照合し位置ずれ量(δX、δY、δθ)を求める。具体的にはテンプレート画像の位置と角度を変えながら類似度を表す指標であるNormalized Cross-Correlation(NCC)を計算し、この値が最大となるときの画像位置の差を位置ずれ量として求める。 In step S109, the image processing unit 901 aligns the tomographic image of the q frame selected in step S108. For the frames to be selected as templates, correlations may be calculated for all combinations with each other, a sum of correlation coefficients may be obtained for each frame, and a frame having the maximum sum may be selected. Next, the position deviation amounts (δX, δY, δθ) are obtained by matching each frame with a template. Specifically, Normalized Cross-Correlation (NCC), which is an index representing similarity while changing the position and angle of the template image, is calculated, and the difference between the image positions when this value is maximized is obtained as the amount of positional deviation.
 本実施形態では、類似度を表す指標は、テンプレートとフレーム内の画像の特徴の類似性を表す尺度であれば種々変更が可能である。例えばSum of Absolute Difference(SAD)、Sum of Squared Difference(SSD)、Zero-means Normalized Cross‐Correlation(ZNCC)、Phase Only Correlation(POC)、Rotation Invariant Phase Only Correlation(RIPOC)等を用いてもよい。 In the present embodiment, the index indicating the degree of similarity can be variously changed as long as it is a scale representing the similarity between the template and the image feature in the frame. For example, Sum of Absolute Difference (SAD), Sum of Squared Difference (SSD), Zero-means Normalized Cross-Correlation (ZNCC), Phase Only Correlation (POC), and Relative Correlation (POC).
 次に画像処理ユニット901は位置ずれ量(δX、δY、δθ)に応じて位置補正をテンプレート以外の(q-1)フレームに適用し、フレームの位置合わせを行う。qが1である場合はこのステップは実行されない。 Next, the image processing unit 901 applies position correction to (q−1) frames other than the template in accordance with the positional deviation amounts (δX, δY, δθ), and aligns the frames. If q is 1, this step is not executed.
 ステップS110において、画像処理ユニット901はモーションコントラストを計算する。本実施形態では、ステップS108で選択し、ステップS109で位置合わせを行ったqフレームのIntensity画像間において、同じ位置のピクセルごとに分散値を計算し、その分散値をモーションコントラストとする。モーションコントラストの求め方は種々あり、本発明においてモーションコントラストは同一Y位置での複数の断層画像の各ピクセルのモーションコントラスト値の変化を表す指標であれば適用が可能である。尚、q=1の時、即ち、瞬きや固視微動の影響のために画像として相関が低く、同一ポジションyの位置においてモーションコントラストの計算が不可能な場合は異なる処理を行う。例えば、特徴量を0としてステップを終了しても良いし、前後yk-1、yk+1の画像におけるモーションコントラストが得られる場合、前後の分散値から値を補間しても良い。この場合、正しく計算できなかった特徴量は補完値であるとして異常を通知しても良い。また、特徴量の計算が出来なかったY位置を記憶しておき、自動で再スキャンを行っても良い。或いは、自動の再スキャンを行うことをせず、再測定を促す警告を通知しても良い。 In step S110, the image processing unit 901 calculates a motion contrast. In the present embodiment, a variance value is calculated for each pixel at the same position between q Intensity images selected in step S108 and aligned in step S109, and the variance value is used as a motion contrast. There are various ways of obtaining the motion contrast, and in the present invention, the motion contrast can be applied as long as it is an index representing a change in the motion contrast value of each pixel of a plurality of tomographic images at the same Y position. When q = 1, that is, when the correlation is low as an image due to the effect of blinking or fixation micromotion, and the motion contrast cannot be calculated at the same position y k , different processing is performed. For example, the feature amount may be set to 0 and the step may be terminated, or when motion contrast in images before and after y k−1 and y k + 1 is obtained, a value may be interpolated from the previous and next variance values. In this case, the abnormality may be notified that the feature quantity that could not be calculated correctly is a complementary value. Alternatively, the Y position where the feature amount could not be calculated may be stored, and rescanning may be performed automatically. Alternatively, a warning prompting remeasurement may be sent without performing automatic rescanning.
 ステップS111において、画像処理ユニット901はステップS109にて位置合わせを行ったIntensity画像を平均化し、Intensity平均化画像を生成する。 In step S111, the image processing unit 901 averages the intensity image that has been aligned in step S109, and generates an intensity averaged image.
 ステップS112において画像処理ユニット901は、ステップS110で出力したモーションコントラストの閾値処理をする。閾値の値は画像処理ユニット901がステップS111で出力したIntensity平均化画像から、ノイズフロアでランダムノイズのみが表示されているエリアを抽出し、標準偏差σを計算し、ノイズフロアの平均モーションコントラスト値+2σと設定する。 In step S112, the image processing unit 901 performs the threshold processing for the motion contrast output in step S110. The threshold value is calculated by extracting an area where only random noise is displayed on the noise floor from the intensity averaged image output by the image processing unit 901 in step S111, calculating the standard deviation σ, and calculating the average motion contrast value of the noise floor. Set to + 2σ.
 画像処理ユニット901は、各Intensityが、上記閾値以下の領域に対応したモーションコントラストの値を0に設定する。この閾値処理により、ランダムノイズに由来するモーションコントラストを除去することでノイズを軽減することができる。閾値の値は小さいほどモーションコントラストの検出感度は上がる一方、ノイズ成分も増す。また、大きいほどノイズは減るがMCモーションコントラスト検出の感度は下がる。 The image processing unit 901 sets the value of motion contrast corresponding to the area where each intensity is equal to or less than the threshold value to 0. By this threshold processing, noise can be reduced by removing motion contrast derived from random noise. As the threshold value is smaller, the motion contrast detection sensitivity increases, but the noise component also increases. Also, the larger the noise, the less noise, but the sensitivity of MC motion contrast detection decreases.
 本実施形態では閾値をノイズフロアの平均モーションコントラスト値+2σとして設定したが、閾値はこれに限るものではない。 In this embodiment, the threshold is set as the average motion contrast value of the noise floor + 2σ, but the threshold is not limited to this.
 ステップS113において、画像処理ユニット901はインデックスkが、所定数(n)に到達したかを判断する。すなわち、n箇所の全てのY位置において、画像相関度計算、画像選択、位置合わせ、Intensity画像平均化計算、モーションコントラストの計算、及び閾値処理を行ったかを判断する。所定数に満たない場合はステップS101に戻り、所定数に到達した場合は、次のステップS114へ進む。ステップS113を終了した時点で、すべてのY位置での断層画像におけるIntensity平均画像とモーションコントラストの3次元ボリュームデータ(3次元OCTAデータ)が生成されたことになる。 In step S113, the image processing unit 901 determines whether the index k has reached a predetermined number (n). That is, it is determined whether image correlation calculation, image selection, alignment, intensity image averaging calculation, motion contrast calculation, and threshold processing have been performed at all the n Y positions. When the predetermined number is not reached, the process returns to step S101, and when the predetermined number is reached, the process proceeds to the next step S114. At the end of step S113, the intensity average image and motion contrast three-dimensional volume data (three-dimensional OCTA data) in the tomographic images at all the Y positions are generated.
 ステップS114では生成された3次元のOCTAデータに対し、深さ方向に積算したモーションコントラスト正面画像を生成する。この時、モーションコントラスト正面画像の生成にあたり、積算する画像深さ範囲は任意に設定して良い。例えば、ステップS111にて生成されたIntensityの平均化画像を元に眼底網膜の層境界を抽出し、所望の層を含むようにモーションコントラスト正面画像を生成する。モーションコントラスト正面画像を生成した後、画像処理ユニット901は信号処理フローを終了する。 In step S114, a motion contrast front image integrated in the depth direction is generated for the generated three-dimensional OCTA data. At this time, in generating the motion contrast front image, the image depth range to be integrated may be arbitrarily set. For example, the layer boundary of the fundus retina is extracted based on the intensity averaged image generated in step S111, and a motion contrast front image is generated so as to include a desired layer. After generating the motion contrast front image, the image processing unit 901 ends the signal processing flow.
 以上説明した装置構成、撮影方法、信号処理手順を用いることにより、所望領域においてOCTAの撮影と、OCTA画像生成を行うことが可能となる。本実施形態では、m=4の条件下でOCTA画像を取得している。 By using the apparatus configuration, imaging method, and signal processing procedure described above, OCTA imaging and OCTA image generation can be performed in a desired area. In the present embodiment, the OCTA image is acquired under the condition of m = 4.
 図6Aのような黄斑部を撮影したOCT断層画像より作成した3次元のOCTAデータに対して、積算する深さ範囲を網膜表層側数層(内境界膜からINL中心部)に限定すると図6Bの如くの網膜表層(Superficial Capillary)のモーションコントラスト画像が得られ黄斑中心の眼底血管画像が抽出できる。 When the depth range to be integrated is limited to several layers on the retina surface layer side (from the inner boundary film to the center of the INL) with respect to the three-dimensional OCTA data created from the OCT tomographic image obtained by photographing the macular region as shown in FIG. 6A, FIG. As described above, a motion contrast image of the surface layer of the retina (Superficial Capillary) is obtained, and a fundus blood vessel image at the center of the macula can be extracted.
 次に図2を用いて、本実施形態のAOSLOの構成を説明する。本実施形態のAOSLOは、照射ビームの焦点位置からの反射散乱光のみにほぼ限定される共焦点撮影機能と、それ以外の多重散乱等による反射散乱光も画像化する暗視野撮影機能の両方を有する構成とした。 Next, the configuration of the AOSLO of this embodiment will be described with reference to FIG. The AOSLO of this embodiment has both a confocal imaging function that is almost limited to only reflected and scattered light from the focal position of the irradiation beam and a dark field imaging function that also images reflected and scattered light due to multiple scattering other than that. It was set as the structure which has.
 図2において、201は光源であり、波長760nmのSLD光源(Super Luminescent Diode)を用いた。光源201の波長は特に制限されるものではないが、眼底撮影用としては被検者の眩しさの軽減と分解能維持のために、750~1500nm程度が好適に用いられる。本実施形態においてはSLD光源を用いたが、その他にレーザ等も用いられる。本実施形態では眼底撮影と波面測定のための光源を共用しているが、それぞれを別光源とし、光路の途中で合波する構成としても良い。 In FIG. 2, 201 is a light source, and an SLD light source (Super Luminescent Diode) having a wavelength of 760 nm was used. Although the wavelength of the light source 201 is not particularly limited, about 750 to 1500 nm is preferably used for fundus imaging in order to reduce glare and maintain resolution of the subject. In this embodiment, an SLD light source is used, but a laser or the like is also used. In the present embodiment, light sources for fundus photographing and wavefront measurement are shared, but each may be a separate light source and combined in the middle of the optical path.
 光源201から照射された光は、単一モード光ファイバー202を通って、コリメータ203により、平行光線(測定光205)として照射される。照射される光の偏光は、単一モード光ファイバー202の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ203から出射された後の光路に偏光を調整する光学部品を配置する構成がある。 The light irradiated from the light source 201 passes through the single mode optical fiber 202 and is irradiated as a parallel light beam (measurement light 205) by the collimator 203. The polarization of the irradiated light is adjusted by a polarization adjuster (not shown) provided in the path of the single mode optical fiber 202. As another configuration, there is a configuration in which an optical component for adjusting polarization is arranged in the optical path after being emitted from the collimator 203.
 照射された測定光205はビームスプリッターからなる光分割部204を透過し、補償光学の光学系に導光される。 The irradiated measurement light 205 is transmitted through a light splitting unit 204 formed of a beam splitter and guided to an optical system of adaptive optics.
 補償光学系は、光分割部206、波面センサー215、波面補正デバイス208および、それらに導光するための反射ミラー207-1~4から構成される。 The compensation optical system includes a light dividing unit 206, a wavefront sensor 215, a wavefront correction device 208, and reflection mirrors 207-1 to 20-4 for guiding them.
 ここで、反射ミラー207-1~4は、少なくとも眼211の瞳と波面センサー215、波面補正デバイス208とが光学的に共役関係になるように設置されている。また、光分割部206として、本実施形態ではビームスプリッターを用いた。 Here, the reflection mirrors 207-1 to 20-4 are installed so that at least the pupil of the eye 211, the wavefront sensor 215, and the wavefront correction device 208 are optically conjugate. In addition, a beam splitter is used as the light dividing unit 206 in the present embodiment.
 光分割部206を透過した測定光205は、反射ミラー207-1と207-2で反射されて波面補正デバイス208に入射する。波面補正デバイス208で反射された測定光205は、さらに反射ミラー207-3と207-4で反射され、走査光学系に導光される。 The measurement light 205 transmitted through the light splitting unit 206 is reflected by the reflection mirrors 207-1 and 207-2 and enters the wavefront correction device 208. The measurement light 205 reflected by the wavefront correction device 208 is further reflected by the reflection mirrors 207-3 and 207-4 and guided to the scanning optical system.
 本実施形態では、波面補正デバイス208として可変形状ミラーを用いた。可変形状ミラーは反射面が複数領域に分割されており、各領域の角度を変えることにより、反射光の波面を変化させることができるミラーである。波面補正デバイスとしては、可変形状ミラーの代わりに液晶素子を用いた空間位相変調器を用いることも可能である。その場合、被検眼からの光の両偏光を補正するために、2つの空間位相変調器を用いる場合もある。 In this embodiment, a deformable mirror is used as the wavefront correction device 208. The deformable mirror is a mirror in which the reflection surface is divided into a plurality of regions, and the wavefront of the reflected light can be changed by changing the angle of each region. As the wavefront correction device, a spatial phase modulator using a liquid crystal element instead of the deformable mirror can be used. In that case, two spatial phase modulators may be used to correct both polarizations of light from the eye to be examined.
 図2において、反射ミラー207-3、4で反射された光は、走査光学系209-1によって、1次元もしくは2次元に走査される。本実施形態では走査光学系209-1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として一つの共振スキャナーと一つのガルバノスキャナーを用いた。別の構成では、走査光学系209-1に二つのガルバノスキャナーを用いることもある。走査光学系209-1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる装置構成の場合もある。 In FIG. 2, the light reflected by the reflection mirrors 207-3 and 4 is scanned one-dimensionally or two-dimensionally by the scanning optical system 209-1. In the present embodiment, one resonance scanner and one galvano scanner are used for the main scanning (horizontal direction of the fundus) and the sub-scanning (vertical direction of the fundus) in the scanning optical system 209-1. In another configuration, two galvano scanners may be used for the scanning optical system 209-1. In order to bring each scanner in the scanning optical system 209-1 into an optically conjugate state, there may be an apparatus configuration that uses an optical element such as a mirror or a lens between the scanners.
 本実施形態では、走査光学系にさらにトラッキングミラー209-2を持つ。トラッキングミラー209-2は2つのガルバノスキャナーから構成され、撮影領域をさらに2方向に移動させることが可能である。別の構成では、走査光学系209-1がトラッキングミラー209-2を兼ねる構成、トラッキングミラー209-2が走査光学系209-1の共振スキャナー方向のみの構成、トラッキングミラー209-2が2次元ミラーである構成もある。また、209-1と209-2を光学的に共役関係とするために、不図示のリレー光学系が用いられることが多い。 In this embodiment, the scanning optical system further includes a tracking mirror 209-2. The tracking mirror 209-2 is composed of two galvanometer scanners, and can move the imaging region in two directions. In another configuration, the scanning optical system 209-1 also serves as the tracking mirror 209-2, the tracking mirror 209-2 is configured only in the resonance scanner direction of the scanning optical system 209-1, and the tracking mirror 209-2 is a two-dimensional mirror. There is also the structure which is. Further, in order to optically conjugate 209-1 and 209-2, a relay optical system (not shown) is often used.
 走査光学系209-1および209-2で走査された測定光205は、接眼レンズ210-1および210-2を通して眼211に照射される。眼211に照射された測定光は眼底で反射もしくは散乱される。接眼レンズ210-1および210-2の位置を調整することによって、眼211の視度にあわせて最適な照射を行うことが可能となる。ここでは、接眼部にレンズを用いたが、球面ミラー等で構成しても良い。 The measuring light 205 scanned by the scanning optical systems 209-1 and 209-2 is irradiated to the eye 211 through the eyepiece lenses 210-1 and 210-2. The measurement light applied to the eye 211 is reflected or scattered by the fundus. By adjusting the positions of the eyepieces 210-1 and 210-2, it is possible to perform optimal irradiation in accordance with the diopter of the eye 211. Here, a lens is used for the eyepiece, but a spherical mirror or the like may be used.
 眼211の網膜から反射もしくは散乱された反射光は、入射した時の経路を逆向きに進行し、光分割部206によって一部は波面センサー215に反射され、光線の波面を測定するために用いられる。光分割部206で波面センサー215に向けて反射された光線は、リレー光学系219-1、219-2を通り、波面センサー215に入射する。リレー光学系219-1と219-2の間にはアパーチャー220が設置されており、レンズ等からの不要な反射散乱光を波面センサーに入射させないようにする。本実施形態では、波面センサー215としてシャックハルトマンセンサーを用いた。 The reflected light reflected or scattered from the retina of the eye 211 travels in the opposite direction along the incident path, and part of the reflected light is reflected by the wavefront sensor 215 by the light splitting unit 206 and used to measure the wavefront of the light beam. It is done. The light beam reflected by the light splitting unit 206 toward the wavefront sensor 215 passes through the relay optical systems 219-1 and 219-2 and enters the wavefront sensor 215. An aperture 220 is installed between the relay optical systems 219-1 and 219-2 so that unnecessary reflected and scattered light from a lens or the like is not incident on the wavefront sensor. In this embodiment, a Shack-Hartmann sensor is used as the wavefront sensor 215.
 波面センサー215は補償光学制御部217に接続され、受光した波面を補償光学制御部217に伝える。波面補正デバイス208も補償光学制御部217に接続されており、補償光学制御部217から指示された変調を行う。補償光学制御部217は波面センサー215の測定結果により取得された波面情報を基に、収差のない波面へと補正するような波面補正デバイスの画素ごとの変調量(補正量)を計算し、波面補正デバイス208に対してそのように変調するように指令する。波面の測定と波面補正デバイスへの指示は繰り返し処理され、常に最適な波面となるようにフィードバック制御が行われる。 The wavefront sensor 215 is connected to the adaptive optics controller 217 and transmits the received wavefront to the adaptive optics controller 217. The wavefront correction device 208 is also connected to the adaptive optics controller 217, and performs modulation instructed by the adaptive optics controller 217. The adaptive optics control unit 217 calculates a modulation amount (correction amount) for each pixel of the wavefront correction device that corrects to a wavefront having no aberration based on the wavefront information acquired from the measurement result of the wavefront sensor 215, and the wavefront Commands the correction device 208 to do so. The measurement of the wavefront and the instruction to the wavefront correction device are repeatedly processed, and feedback control is performed so that the optimum wavefront is always obtained.
 図2において、光分割部206を透過した反射光は光分割部204によって一部が反射され、集光レンズ212によって穴あきミラー213の穴付近に集光させる。穴あきミラー213の穴は、共焦点効果を得るために、測定光205の回折限界付近の径に調整されることが多い。径が大きいと感度は向上するが分解能は低下し、径が小さいと分解能は高いが感度は低下する傾向となる。穴あきミラー213の穴を通過した光は光センサー214-1に入射し、光強度に応じた電気信号に変換される。 In FIG. 2, a part of the reflected light transmitted through the light dividing unit 206 is reflected by the light dividing unit 204, and is condensed near the hole of the perforated mirror 213 by the condenser lens 212. The hole of the perforated mirror 213 is often adjusted to a diameter in the vicinity of the diffraction limit of the measurement light 205 in order to obtain a confocal effect. When the diameter is large, the sensitivity is improved but the resolution is lowered. When the diameter is small, the resolution is high but the sensitivity tends to be lowered. The light that has passed through the hole of the perforated mirror 213 enters the optical sensor 214-1 and is converted into an electrical signal corresponding to the light intensity.
 光センサー214-1は制御部218に接続され、制御部218は得られた電気信号と光走査の位置を基に平面画像を構築し、共焦点画像としてディスプレー219に表示する。 The optical sensor 214-1 is connected to the control unit 218. The control unit 218 constructs a planar image based on the obtained electrical signal and the position of optical scanning, and displays it on the display 219 as a confocal image.
 穴あきミラー213の穴以外のミラー部分で反射された光はリレー光学系215を通して再度ナイフエッジ216のエッジ付近に集光し、ナイフエッジ216によって略半分に分割される。分割された光は光センサー214-2と214-3に入射する。光センサー214-2と214-3では光強度に応じた電気信号に変換され、制御部218に出力されて、暗視野撮影画像として画像化される。ナイフエッジ216は、集光光をどのように分割しても良く、紙面と水平方向や垂直方向の分割方向や、分割する比率に関しても半々ではなく40:60等の非均等分割も可能である。さらに2分割ではなく、より多くの成分に分割させることも可能である。また、このような分割方法を撮影中に動的に変更することも可能である。 The light reflected by the mirror portion other than the hole of the perforated mirror 213 is condensed again in the vicinity of the edge of the knife edge 216 through the relay optical system 215, and is divided into approximately half by the knife edge 216. The divided light enters the optical sensors 214-2 and 214-3. The optical sensors 214-2 and 214-3 are converted into electrical signals corresponding to the light intensity, output to the control unit 218, and imaged as a dark field photographed image. The knife edge 216 may divide the condensed light in any way, and the division direction in the horizontal direction and the vertical direction with respect to the paper surface and the division ratio are not half and non-uniform division such as 40:60 is also possible. . Further, it is possible to divide into more components instead of two. It is also possible to dynamically change such a division method during shooting.
 トラッキングミラー209-2は不図示のトラッキング制御ユニットによる制御される。トラッキング制御ユニットは、制御部218から撮影部の画像信号を取得し、眼211の眼底に設定される撮影領域の固視微動によるズレ量を計算し、トラッキングミラー209-2を制御することにより、撮影領域を常に所定の位置に保つように制御を行う。 The tracking mirror 209-2 is controlled by a tracking control unit (not shown). The tracking control unit obtains the image signal of the imaging unit from the control unit 218, calculates the amount of deviation due to fixation fixation in the imaging region set on the fundus of the eye 211, and controls the tracking mirror 209-2. Control is performed so that the photographing area is always kept at a predetermined position.
 本実施形態のAOSLOで撮影した撮影画像例を図7A1~C2に示す。 7A1 to C2 show examples of captured images taken with the AOSLO of this embodiment.
 図7A1が共焦点画像(平面動画像)である。血管層にフォーカスしているため、血管内の血球のみ一部高輝度で観察される。図7B1と図7C1が暗視野撮影の画像(平面動画像)であり、ナイフエッジの右側と左側で検出した信号を基に生成した画像である。これらの画像は眼底からの反射光を異なる方法で同時に取得しているのであり、厳密に同じ撮影位置由来の信号から構築した画像となる。AOSLOではこのような画像を連続で撮影し、それぞれの平面動画像が取得される。 FIG. 7A1 is a confocal image (planar moving image). Since the blood vessel layer is focused, only blood cells in the blood vessel are partially observed with high brightness. FIG. 7B1 and FIG. 7C1 are dark-field images (planar moving images), which are generated based on signals detected on the right and left sides of the knife edge. Since these images simultaneously acquire the reflected light from the fundus using different methods, the images are constructed from signals derived from exactly the same shooting position. In AOSLO, such images are taken continuously, and each plane moving image is acquired.
 OCTAと同様に、画像処理ユニット901が、AOSLOの連続で撮影された各画像間での輝度変化を解析することにより、モーションコントラスト画像を作成する。共焦点画像(図7A1)よりモーションコントラスト画像(図7A2)、図7B1からは図7B2、図7C1からは図7C2の様なモーションコントラスト画像が得られる。 As in OCTA, the image processing unit 901 creates a motion contrast image by analyzing the luminance change between each image captured continuously in AOSLO. A motion contrast image (FIG. 7A2) is obtained from the confocal image (FIG. 7A1), a motion contrast image as shown in FIG. 7B2 is obtained from FIG. 7B1, and a motion contrast image is obtained from FIG. 7C1.
 また、図7A1~C2は血管層にフォーカスしている画像であるが、それよりも下層の視細胞層にフォーカスしていても血球の動態を撮影することが可能である。図8A~Cは視細胞層を撮影した例である。図8Aは共焦点画像であり、白い輝点が視細胞であり、その中に黒い血管の影が映っている。血管に特定の種類の血球が通った場合、その部分は光が透過し、影がなくなり輝点として撮影される。図8Bはその際の撮影例を示している。801が共焦点画像であり、802が視細胞層の共焦点画像上の血管の影である。803が血球の位置だけ光が透過することで見える輝点を示しており、血球が動くことによりこの輝点も804の様な軌跡を描きながら移動する。この輝点の時空間画像解析により血流の方向と速度が解析される。図8Cが血管802の時空間画像である。時空間画像805は、血管802にそった画素列Ptに関して、時間Tに関して並べたものであり、806が血球の軌跡(時空間画像内の白い輝線)を示している。この傾きから、血球動作の方向と速度といった血流情報を算出する。視細胞画像から時空間画像を作成して血流情報を生成するのと同様に、血管層にフォーカスした共焦点画像や、非共焦点画像からも同様の方法で血流情報を生成してもよい。 7A1 and C2 are images focused on the blood vessel layer, but it is possible to photograph the dynamics of blood cells even when focused on the lower photoreceptor layer. FIGS. 8A to 8C are examples in which the photoreceptor layer is photographed. FIG. 8A is a confocal image, in which a white bright spot is a photoreceptor cell, in which a shadow of a black blood vessel is reflected. When a specific type of blood cell passes through the blood vessel, light is transmitted through that part, and the shadow disappears and is photographed as a bright spot. FIG. 8B shows an example of photographing at that time. Reference numeral 801 denotes a confocal image, and reference numeral 802 denotes a blood vessel shadow on the confocal image of the photoreceptor layer. Reference numeral 803 indicates a bright spot that is visible when light passes through only the position of the blood cell. When the blood cell moves, the bright spot moves while drawing a locus like 804. The direction and velocity of the blood flow are analyzed by spatiotemporal image analysis of the bright spot. FIG. 8C is a spatiotemporal image of the blood vessel 802. The spatiotemporal image 805 is arranged with respect to the time T with respect to the pixel row Pt along the blood vessel 802, and reference numeral 806 indicates a blood cell trajectory (white bright line in the spatiotemporal image). From this inclination, blood flow information such as the direction and speed of blood cell movement is calculated. Similar to creating spatiotemporal images from photoreceptor cell images and generating blood flow information, blood flow information can also be generated from confocal images focused on blood vessel layers and non-confocal images in the same way. Good.
 なお、図8Aの様な視細胞層の画像であっても、動画の各画像間の輝度変化を解析することにより、モーションコントラスト画像を作成することが可能である。この場合、視細胞層に影を形成する血管が描出されるため、血管にフォーカスしたモーションコントラスト画像よりも多くの層の情報が含まれたモーションコントラスト画像となることが多い。一方で影の変化が必要であるため、血球の通過によっても影の状態が変わらないような血管は描出が難しい。 Note that even in the case of an image of the photoreceptor cell layer as shown in FIG. 8A, it is possible to create a motion contrast image by analyzing the luminance change between each image of the moving image. In this case, since a blood vessel that forms a shadow in the photoreceptor cell layer is drawn, the motion contrast image often includes more layers of information than the motion contrast image focused on the blood vessel. On the other hand, since it is necessary to change the shadow, it is difficult to depict blood vessels whose shadow state does not change even when blood cells pass.
 次に図9を用いて画像処理ユニットに関して説明する。画像処理ユニット901はOCT装置903とAOSLO装置904と接続され、それぞれのデータを取得することが可能である。解析されたデータはディスプレー902に表示される。図9は画像処理ユニット901がOCT装置903やAOSLO装置904と別個に記載されているが、OCT装置内903やAOSLO装置904の一つの機能として実装することも可能である。 Next, the image processing unit will be described with reference to FIG. The image processing unit 901 is connected to the OCT apparatus 903 and the AOSLO apparatus 904, and can acquire respective data. The analyzed data is displayed on the display 902. Although the image processing unit 901 is described separately from the OCT apparatus 903 and the AOSLO apparatus 904 in FIG. 9, it can be implemented as one function of the OCT apparatus 903 and the AOSLO apparatus 904.
 次に画像処理ユニット901の処理を、図10を用いて説明する。本実施形態は、操作者がOCTA画像を選択することにより、合致するAOSLO画像が選択され、AOSLO画像を解析した結果の血流情報をOCTA画像と併せて表示するものである。 Next, the processing of the image processing unit 901 will be described with reference to FIG. In the present embodiment, when an operator selects an OCTA image, a matching AOSLO image is selected, and blood flow information as a result of analyzing the AOSLO image is displayed together with the OCTA image.
 ステップS201において、操作者により解析する層の指示に応じて、解析対象の層を選択する。ステップS202において、選択された層に該当するOCTA画像を取得する。このステップでは、すでに生成されているOCTA画像から取得しても良いし、この時点で当該層のOCTデータを用いてOCTA画像を生成しても良い。次にステップS203において、解析する平面方向の位置を特定する。平面方向の位置は、OCTデータに付随するSLO画像情報を基にしても良いし、OCTのEnface画像を基にし、ある特徴を持つ基準点からの距離として算出しても良い。一般的にOCTよりもAOSLOの画角は小さいので、取得したOCTA画像からさらに平面方向の範囲を限定してOCTA画像を生成する場合が多い。ステップS204において、解析層の深さ情報から、相当するAOSLO装置におけるフォーカス位置を算出する。得られたフォーカス情報、位置情報を基に、ステップS205で当該AOSLO動画を取得する。取得するAOSLO動画は、共焦点画像でもよいし、暗視野撮影画像、またそれらを演算した画像でもよい。 In step S201, an analysis target layer is selected in accordance with an instruction of the layer to be analyzed by the operator. In step S202, an OCTA image corresponding to the selected layer is acquired. In this step, an OCTA image may be acquired from an already generated OCTA image, or an OCTA image may be generated using the OCT data of the layer at this time. In step S203, the position in the plane direction to be analyzed is specified. The position in the plane direction may be based on SLO image information attached to the OCT data, or may be calculated as a distance from a reference point having a certain feature based on an OCT Enface image. In general, since the angle of view of AOSLO is smaller than that of OCT, an OCTA image is often generated by limiting the range in the plane direction from the acquired OCTA image. In step S204, the focus position in the corresponding AOSLO device is calculated from the depth information of the analysis layer. Based on the obtained focus information and position information, the AOSLO moving image is acquired in step S205. The acquired AOSLO moving image may be a confocal image, a dark-field captured image, or an image obtained by calculating them.
 ステップS206において、OCTA画像とAOSLO画像の位置合わせを行う。この位置合わせは、OCTA画像とAOSLO動画と比較することで行っても良いし、AOSLO画像から作成したモーションコントラスト画像を用いて行っても良い。 In step S206, the OCTA image and the AOSLO image are aligned. This alignment may be performed by comparing the OCTA image and the AOSLO moving image, or may be performed using a motion contrast image created from the AOSLO image.
 ステップS207において、OCTA画像から血管領域を抽出し、ステップS208において前記血管領域に応じた時空間画像をAOSLO動画から作成する。得られた時空間画像はステップS209において解析されて、血球の動作方向や速度といった血流情報を得る。 In step S207, a blood vessel region is extracted from the OCTA image, and in step S208, a spatiotemporal image corresponding to the blood vessel region is created from the AOSLO moving image. The obtained spatiotemporal image is analyzed in step S209 to obtain blood flow information such as the moving direction and speed of the blood cells.
 ステップS210において、OCTA画像を表示する。ステップS211において、操作者の指示に基づき血流情報の表示方法を選択し、ステップS215において、OCTA画像に血流情報を併せて表示する。表示方法の例としては、ステップS212のように血流を線として血管領域上に、血流条件によって線幅や色や線形を変化させて表示したり、ステップS213のように血流速や血流の方向によって血管領域を色付けしたり、ステップS214のように血管領域近傍に血流情報を文字として表示する。 In step S210, an OCTA image is displayed. In step S211, a blood flow information display method is selected based on the operator's instruction, and in step S215, the blood flow information is displayed together with the OCTA image. Examples of the display method include displaying blood flow as a line on the blood vessel region as in step S212, changing the line width, color, and linearity according to the blood flow condition, or displaying the blood flow rate and blood as in step S213. The blood vessel region is colored according to the flow direction, or blood flow information is displayed as characters in the vicinity of the blood vessel region as in step S214.
 図11Aが各画像の表示例である。本実施形態では、同一箇所のAOSLO動画1101、それを基に作成したAOSLOのモーションコントラスト画像1102(AOSLO angio)、当該位置のOCTA画像1103を表示している。 FIG. 11A is a display example of each image. In this embodiment, an AOSLO moving image 1101 at the same location, an AOSLO motion contrast image 1102 (AOSLO angio) created based on the AOSLO moving image 1101, and an OCTA image 1103 at the position are displayed.
 OCTA画像に対して、血流の方向を表示した例が図11Bである。OCTAの血管領域に血流の方向を示す線1104を重合して表示する。 FIG. 11B shows an example in which the direction of blood flow is displayed on the OCTA image. A line 1104 indicating the direction of blood flow is superimposed on the blood vessel region of OCTA and displayed.
 OCTA画像に対して、血流の方向および血流速を表示した例が図11Cである。血流を示す線が1105であり、血流速に応じて表示色を変えたり、線幅を変えたりする。また、血管領域近傍に血流情報を文字1106として重合表示する。血流を示すものとして矢印を例示したが、これに限定されるものではなく、血球を表す白い輝点などの記号が血流の方向/血流に応じて血管に沿って移動する動画表示(アニメーション表示)としてもよい。更に、AOSLOの血管領域を抽出し、OCTA画像に動画像として対応する血管に重畳表示するようにしてもよい。 FIG. 11C shows an example in which the direction of blood flow and the blood flow velocity are displayed on the OCTA image. A line indicating the blood flow is 1105, and the display color is changed or the line width is changed according to the blood flow velocity. In addition, blood flow information is superimposed and displayed as characters 1106 in the vicinity of the blood vessel region. An arrow is shown as an example of blood flow, but the present invention is not limited to this, and a moving image display in which symbols such as white bright spots representing blood cells move along blood vessels according to the direction of blood flow / blood flow ( Animation display). Furthermore, a blood vessel region of AOSLO may be extracted and superimposed on a blood vessel corresponding to the OCTA image as a moving image.
 また、OCT断層画像やAOSLO平面画像を解析することで、視神経乳頭の位置および解析対象である血管の位置関係が分かるので、その位置情報と血流の方向を元に、解析している血管が動脈か静脈かを推定し、血流情報として識別可能に表示しても良い。 Further, by analyzing the OCT tomographic image and the AOSLO plane image, the positional relationship between the position of the optic nerve head and the blood vessel to be analyzed can be understood, so that the blood vessel being analyzed based on the positional information and the direction of blood flow Whether it is an artery or a vein may be estimated and displayed as blood flow information in an identifiable manner.
 本実施形態ではAOSLOの静止画像やOCT断層画像は表示しなかったが、これらを表示して、その上に血流情報を表示しても良い。また、血流情報表示を強調するために、当該領域の画像や動画を拡大・縮小表示することも可能である。 In this embodiment, the AOSLO still image and the OCT tomographic image are not displayed, but these may be displayed and blood flow information may be displayed thereon. Further, in order to emphasize the blood flow information display, it is also possible to enlarge / reduce the image or moving image of the area.
 このように、OCTAと血流情報を解析表示することにより、操作者は被検者の血管血流状態を複合的に把握することが可能で、各血管・血流の特性を判断することが可能となる。 Thus, by analyzing and displaying OCTA and blood flow information, the operator can comprehend the vascular blood flow state of the subject in a composite manner, and can determine the characteristics of each blood vessel and blood flow. It becomes possible.
 [実施形態2]
 図12のフローチャートを用いて、本発明を適用した実施形態1とは異なる形態の眼底撮影装置の制御方法の例について説明する。本実施形態において、基本的な装置構成は実施形態1と同様である。また、撮影の基本的なフローも実施形態1と同様であり、画像処理ユニット901の処理のみが異なる。
[Embodiment 2]
An example of a method for controlling the fundus imaging apparatus having a different form from the first embodiment to which the present invention is applied will be described with reference to the flowchart of FIG. In this embodiment, the basic apparatus configuration is the same as that of the first embodiment. The basic flow of shooting is the same as that of the first embodiment, and only the processing of the image processing unit 901 is different.
 ステップS301において、操作者の指示に基づいてAOSLO画像を指定する。選択したAOSLO画像に関して、ステップS302においてフォーカス位置、ステップS303においてXY位置を特定する。AOSLOの画像データには、その時点でのAO状態が付加情報として保存されており、AO状態から撮影したフォーカス位置が分かるようになっている。一般的にAOは最高輝度層である視細胞層がフォーカス原点となる場合が多いため、それからどれくらいの光学パワーを与えたかが分かり、フォーカス移動量が分かる。より厳密には被検者の視度や撮影時の瞳位置等のパラメータを利用することで、厳密な移動量が分かる。しかし、AOSLOは一定の被写界深度を有するため、それほどの厳密性は求められない場合が多い。ステップS304において、当該フォーカス情報から網膜での層を特定する。 In step S301, an AOSLO image is designated based on an instruction from the operator. For the selected AOSLO image, the focus position is specified in step S302, and the XY position is specified in step S303. In the AOSLO image data, the AO state at that time is stored as additional information, and the focus position taken from the AO state can be known. In general, in AO, the visual cell layer, which is the highest luminance layer, is often the focus origin, so that it is possible to know how much optical power has been applied and to know the amount of focus movement. More precisely, the exact amount of movement can be determined by using parameters such as the diopter of the subject and the pupil position at the time of imaging. However, since AOSLO has a certain depth of field, there is often no need for such strictness. In step S304, the layer in the retina is specified from the focus information.
 ステップS305において、当該層のOCTA画像を取得する。一般的にOCTA画像はAOSLO画像よりも撮影範囲が大きいので、ステップS306でAOSLO撮影範囲に該当する範囲のOCTA画像領域を特定する。 In step S305, an OCTA image of the layer is acquired. In general, since the OCTA image has a larger imaging range than the AOSLO image, an OCTA image region in a range corresponding to the AOSLO imaging range is specified in step S306.
 ステップS307において、OCTAとAOSLOの位置合わせを行う。 In step S307, OCTA and AOSLO are aligned.
 ステップS308において、OCTA画像から血管領域を抽出し、ステップS309において前記血管領域に応じた時空間画像をAOSLO動画から作成する。得られた時空間画像はステップS310において解析されて、血球の動作方向や速度といった血流情報を得る。 In step S308, a blood vessel region is extracted from the OCTA image, and in step S309, a spatiotemporal image corresponding to the blood vessel region is created from the AOSLO moving image. The obtained spatiotemporal image is analyzed in step S310 to obtain blood flow information such as blood cell movement direction and velocity.
 ステップS311において、OCTA画像を表示する。ステップS312で血流情報の表示方法を選択し、ステップS316でOCTA画像に血流情報を併せて表示する。表示方法の例としては、実施形態1と同様である。GUIの表示例も実施形態と同じく、図11A~Cの様な構成である。 In step S311, an OCTA image is displayed. In step S312, a blood flow information display method is selected, and in step S316, blood flow information is displayed together with the OCTA image. An example of the display method is the same as in the first embodiment. Similar to the embodiment, the GUI display example has a configuration as shown in FIGS. 11A to 11C.
 このように、AOSLO画像から解析領域を選択することにより、より詳細な位置指定が可能となり、操作者は被検者の血管血流状態を複合的に把握することが可能で、各血管・血流の特性を判断することが可能となる。 As described above, by selecting the analysis region from the AOSLO image, more detailed position designation is possible, and the operator can comprehend the vascular blood flow state of the subject in a composite manner. It is possible to determine the characteristics of the flow.
 [実施形態3]
 次に、実施形態3として、本発明を適用した眼底撮影装置の構成について図3を用いて説明する。本実施形態においては、測定対象である被検査物を眼とし、同一装置内にAOSLOとAOOCTの両機能を有する、補償光学OCT-SLOの一例について説明する。
[Embodiment 3]
Next, as Embodiment 3, the configuration of a fundus imaging apparatus to which the present invention is applied will be described with reference to FIG. In the present embodiment, an example of adaptive optics OCT-SLO will be described in which an object to be measured is an eye and both functions of AOSLO and AOOCT are provided in the same apparatus.
 図3において、318がAOSLOユニットであり、324がAOOCTユニットである。 In FIG. 3, 318 is an AOSLO unit, and 324 is an AOOCT unit.
 まず、AOSLOユニットに関して説明する。図3において、301は光源であり、波長760nmのSLD光源(Super Luminescent Diode)を用いた。光源301の波長は特に制限されるものではないが、眼底撮影用としては被検者の眩しさの軽減と分解能維持のために、750~1500nm程度が好適に用いられる。本実施形態においてはSLD光源を用いたが、その他にレーザ等も用いられる。本実施形態では眼底撮影と波面測定のための光源を共用しているが、それぞれを別光源とし、光路の途中で合波する構成としても良い。また、本実施形態ではOCTと一部の光学系を共用するため、OCTとの光路と分岐するために、OCT光源の波長とは異なる波長を選択し、ダイクロイックミラーで光路を分岐する構成としている。 First, the AOSLO unit will be described. In FIG. 3, 301 is a light source, and an SLD light source (Super Luminescent Diode) having a wavelength of 760 nm was used. Although the wavelength of the light source 301 is not particularly limited, about 750 to 1500 nm is preferably used for fundus imaging in order to reduce the glare of the subject and maintain the resolution. In this embodiment, an SLD light source is used, but a laser or the like is also used. In the present embodiment, light sources for fundus photographing and wavefront measurement are shared, but each may be a separate light source and combined in the middle of the optical path. In this embodiment, since a part of the optical system is shared with the OCT, a wavelength different from the wavelength of the OCT light source is selected in order to branch from the optical path to the OCT, and the optical path is branched by the dichroic mirror. .
 光源301から照射された光は、単一モード光ファイバー302を通って、コリメータ303により、平行光線(測定光305)として照射される。照射される光の偏光は、単一モード光ファイバー302の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ303から出射された後の光路に偏光を調整する光学部品を配置する構成がある。 The light irradiated from the light source 301 passes through the single mode optical fiber 302 and is irradiated as a parallel light beam (measurement light 305) by the collimator 303. The polarization of the irradiated light is adjusted by a polarization adjuster (not shown) provided in the path of the single mode optical fiber 302. As another configuration, there is a configuration in which an optical component for adjusting polarization is arranged in the optical path after being emitted from the collimator 303.
 照射された測定光305はビームスプリッターからなる光分割部304を通過し、さらにOCTとの光分岐用ビームスプリッター319を通過し、補償光学の光学系に導光される。 The irradiated measurement light 305 passes through a light splitter 304 formed of a beam splitter, and further passes through a beam splitter 319 for splitting with OCT, and is guided to an optical system of adaptive optics.
 補償光学系は、光分割部306、波面センサー314、波面補正デバイス308および、それらに導光するための反射ミラー307-1~4から構成される。ここで、反射ミラー307-1~4は、少なくとも眼311の瞳と波面センサー314、波面補正デバイス308とが光学的に共役関係になるように設置されている。また、光分割部306として、本実施形態ではビームスプリッターを用いた。 The compensation optical system includes a light splitting unit 306, a wavefront sensor 314, a wavefront correction device 308, and reflection mirrors 307-1 to 307-1 for guiding them. Here, the reflection mirrors 307-1 to 307-1 are installed so that at least the pupil of the eye 311 and the wavefront sensor 314 and the wavefront correction device 308 are optically conjugate. In addition, a beam splitter is used as the light splitting unit 306 in the present embodiment.
 光分割部306を透過した測定光305は、反射ミラー307-1と307-2で反射されて波面補正デバイス308に入射する。波面補正デバイス308で反射された測定光305は、さらに反射ミラー307-3と307-4で反射され、走査光学系に導光される。 The measurement light 305 transmitted through the light splitting unit 306 is reflected by the reflection mirrors 307-1 and 307-2 and enters the wavefront correction device 308. The measurement light 305 reflected by the wavefront correction device 308 is further reflected by the reflection mirrors 307-3 and 307-4 and guided to the scanning optical system.
 本実施形態では、波面補正デバイス308として可変形状ミラーを用いた。可変形状ミラーは反射面が複数領域に分割されており、各領域の角度を変えることにより、反射光の波面を変化させることができるミラーである。波面補正デバイスとしては、可変形状ミラーの代わりに液晶素子を用いた空間位相変調器を用いることも可能である。その場合、被検眼からの光の両偏光を補正するために、2つの空間位相変調器を用いる場合もある。 In this embodiment, a deformable mirror is used as the wavefront correction device 308. The deformable mirror is a mirror in which the reflection surface is divided into a plurality of regions, and the wavefront of the reflected light can be changed by changing the angle of each region. As the wavefront correction device, a spatial phase modulator using a liquid crystal element instead of the deformable mirror can be used. In that case, two spatial phase modulators may be used to correct both polarizations of light from the eye to be examined.
 反射ミラー307-3、4で反射された光は、走査光学系309-1によって、1次元もしくは2次元に走査される。本実施形態では走査光学系309-1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として一つの共振スキャナーと一つのガルバノスキャナーを用いた。別の構成では、走査光学系309-1に二つのガルバノスキャナーを用いることもある。走査光学系309-1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる装置構成の場合もある。本実施形態では、走査光学系にさらにトラッキングミラー309-2を持つ。トラッキングミラー309-2は2つのガルバノスキャナーから構成され、撮影領域をさらに2方向に移動させることが可能である。別の構成では、走査光学系309-1がトラッキングミラー309-2を兼ねる構成、トラッキングミラー309-2が走査光学系309-1の共振スキャナー方向のみの構成、トラッキングミラー309-2が2次元ミラーである構成もある。また、309-1と309-2を光学的に共役関係とするために、不図示のリレー光学系が用いられることが多い。 The light reflected by the reflection mirrors 307-3 and 4 is scanned one-dimensionally or two-dimensionally by the scanning optical system 309-1. In this embodiment, one resonance scanner and one galvano scanner are used for the main scanning (horizontal direction of the fundus) and the sub-scanning (vertical direction of the fundus) in the scanning optical system 309-1. In another configuration, two galvano scanners may be used for the scanning optical system 309-1. In order to bring each scanner in the scanning optical system 309-1 into an optically conjugate state, there may be an apparatus configuration that uses an optical element such as a mirror or a lens between the scanners. In this embodiment, the scanning optical system further has a tracking mirror 309-2. The tracking mirror 309-2 is composed of two galvanometer scanners, and can move the imaging region in two directions. In another configuration, the scanning optical system 309-1 also serves as the tracking mirror 309-2, the tracking mirror 309-2 is configured only in the resonance scanner direction of the scanning optical system 309-1, and the tracking mirror 309-2 is a two-dimensional mirror. There is also the structure which is. Further, in order to optically conjugate 309-1 and 309-2, a relay optical system (not shown) is often used.
 走査光学系309-1および309-2で走査された測定光305は、接眼レンズ310-1および310-2を通して眼311に照射される。眼311に照射された測定光は眼底で反射もしくは散乱される。接眼レンズ310-1および310-2の位置を調整することによって、眼311の視度にあわせて最適な照射を行うことが可能となる。ここでは、接眼部にレンズを用いたが、球面ミラー等で構成しても良い。 The measuring light 305 scanned by the scanning optical systems 309-1 and 309-2 is irradiated to the eye 311 through the eyepieces 310-1 and 310-2. The measurement light applied to the eye 311 is reflected or scattered by the fundus. By adjusting the positions of the eyepieces 310-1 and 310-2, it is possible to perform optimal irradiation in accordance with the diopter of the eye 311. Here, a lens is used for the eyepiece, but a spherical mirror or the like may be used.
 眼311の網膜から反射もしくは散乱された反射光は、入射した時の経路を逆向きに進行し、光分割部306によって一部は波面センサー314に反射され、光線の波面を測定するために用いられる。光分割部306で波面センサー314に向けて反射された光線は、リレー光学系316-1、316-2を通り、波面センサー314に入射する。リレー光学系316-1と316-2の間にはアパーチャー317が設置されており、レンズ等からの不要な反射散乱光を波面センサーに入射させないようにする。本実施形態では、波面センサー314としてシャックハルトマンセンサーを用いた。 Reflected light reflected or scattered from the retina of the eye 311 travels in the reverse direction when incident, and is partially reflected by the light splitting unit 306 to the wavefront sensor 314 and used to measure the wavefront of the light beam. It is done. The light beam reflected by the light splitting unit 306 toward the wavefront sensor 314 passes through the relay optical systems 316-1 and 316-2 and enters the wavefront sensor 314. An aperture 317 is installed between the relay optical systems 316-1 and 316-2 so that unnecessary reflected and scattered light from a lens or the like is not incident on the wavefront sensor. In this embodiment, a Shack-Hartmann sensor is used as the wavefront sensor 314.
 波面センサー314は補償光学制御部315に接続され、受光した波面を補償光学制御部315に伝える。波面補正デバイス308も補償光学制御部315に接続されており、補償光学制御部315から指示された変調を行う。補償光学制御部315は波面センサー314の測定結果による取得された波面を基に、収差のない波面へと補正するような波面補正デバイスの画素ごとの変調量(補正量)を計算し、波面補正デバイス308にそのように変調するように指令する。波面の測定と波面補正デバイスへの指示は繰り返し処理され、常に最適な波面となるようにフィードバック制御が行われる。 The wavefront sensor 314 is connected to the adaptive optics controller 315 and transmits the received wavefront to the adaptive optics controller 315. The wavefront correction device 308 is also connected to the adaptive optics controller 315 and performs modulation instructed by the adaptive optics controller 315. The adaptive optics control unit 315 calculates a modulation amount (correction amount) for each pixel of the wavefront correction device that corrects to a wavefront having no aberration based on the wavefront acquired from the measurement result of the wavefront sensor 314, and corrects the wavefront. Commands device 308 to do so. The measurement of the wavefront and the instruction to the wavefront correction device are repeatedly processed, and feedback control is performed so that the optimum wavefront is always obtained.
 光分割部306を透過した反射光は光分割部304によって一部が反射され、集光レンズ312によってピンホールを有する光センサー313に集光され、光強度に応じた電気信号に変換される。 The reflected light that has passed through the light splitting unit 306 is partly reflected by the light splitting unit 304, collected by the condensing lens 312 on the optical sensor 313 having a pinhole, and converted into an electrical signal corresponding to the light intensity.
 光センサー313は制御部334に接続され、制御部334は得られた電気信号と光走査の位置を基に平面画像を構築し、SLO画像としてディスプレー335に表示する。 The optical sensor 313 is connected to the control unit 334, and the control unit 334 constructs a planar image based on the obtained electrical signal and the position of optical scanning, and displays it on the display 335 as an SLO image.
 次にAOOCTユニット324に関して説明する。 Next, the AOOCT unit 324 will be described.
 324がAOOCTユニットであり、主要なユニットとして、光源320、ファイバーカプラー321、参照光路325、分光器326から構成されている。 324 is an AOOCT unit, which includes a light source 320, a fiber coupler 321, a reference optical path 325, and a spectrometer 326 as main units.
 320は光源であり、波長840nmのSLD光源を用いた。光源320は低干渉性のものであれば良く、波長幅30nm以上のSLDが好適に用いられる。また、チタンサファイアレーザなどの超短パルスレーザなどを光源に用いることもできる。本実施形態では、SLOと一部の光学系を共用するため、SLOの光源と異なる波長とし、ダイクロイックミラー等で分岐する構成が望ましい。 320 is a light source, and an SLD light source having a wavelength of 840 nm was used. The light source 320 only needs to have a low interference property, and an SLD having a wavelength width of 30 nm or more is preferably used. Further, an ultrashort pulse laser such as a titanium sapphire laser can be used as a light source. In this embodiment, in order to share a part of the optical system with the SLO, it is desirable that the wavelength is different from that of the light source of the SLO and the light is branched by a dichroic mirror or the like.
 光源320から照射された光は、単一モード光ファイバーを通って、ファイバーカプラー321まで導光される。ファイバーカプラー321によって、信号光経路322と参照光経路に分岐される。ファイバーカプラーは10:90の分岐比のものを使用し、投入光量の10%が信号光経路322に行くように構成した。 The light emitted from the light source 320 is guided to the fiber coupler 321 through the single mode optical fiber. The fiber coupler 321 branches the signal light path 322 and the reference light path. A fiber coupler having a branching ratio of 10:90 was used, and 10% of the input light amount went to the signal light path 322.
 信号光経路322を通った光は、コリメータ323により、測定光が平行光線として照射される。照射される光の偏光は、単一モード光ファイバー322の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ323から出射された後の光路に偏光を調整する光学部品を配置する構成がある。また、光路中に測定光の分散特性を調整する光学素子や色収差特性を調整する光学素子を具備する場合もある。 The light that has passed through the signal light path 322 is irradiated with measurement light as parallel light by the collimator 323. The polarization of the irradiated light is adjusted by a polarization adjuster (not shown) provided in the path of the single mode optical fiber 322. As another configuration, there is a configuration in which an optical component for adjusting polarization is arranged in the optical path after being emitted from the collimator 323. In some cases, an optical element for adjusting the dispersion characteristic of the measurement light and an optical element for adjusting the chromatic aberration characteristic are provided in the optical path.
 測定光は光分岐用ビームスプリッター319でSLO測定光と合波され、測定光305としてSLOと同様の光路をたどり、被検眼311を照射する。被検眼311から散乱反射された光はSLOと同様に往路と同じ経路を逆向きに進んで光分岐用ビームスプリッター319で反射され、光ファイバー322を通してファイバーカプラー321に戻る。 The measurement light is combined with the SLO measurement light by the beam splitter 319 for light branching, and follows the same optical path as the SLO as the measurement light 305 to irradiate the eye 311 to be examined. Similar to SLO, the light scattered and reflected from the eye 311 travels in the same direction as the forward path in the opposite direction, is reflected by the beam splitter 319, and returns to the fiber coupler 321 through the optical fiber 322.
 OCTの光も波面センサー314で波面が測定され、波面補正デバイス308で補正される。波面補正の方法はこのような方式に限定されるわけではなく、OCT光の波面のみを測定する場合や、SLO光の波面のみを測定する場合には、波面センサー314の前に光学フィルターを追加する構成とされる。また、光学フィルターを動的に抜差ししたり、変更したりすることで、測定する光を切り替える制御も可能である。 The wavefront of the OCT light is also measured by the wavefront sensor 314 and corrected by the wavefront correction device 308. The wavefront correction method is not limited to such a method, and an optical filter is added in front of the wavefront sensor 314 when measuring only the wavefront of OCT light or measuring only the wavefront of SLO light. It is supposed to be configured. Also, it is possible to control to switch the light to be measured by dynamically inserting and removing or changing the optical filter.
 一方、参照光経路を通った参照光はコリメータ327で出射され、光路長可変部329で反射して再度ファイバーカプラー321に戻る。 On the other hand, the reference light that has passed through the reference light path is emitted by the collimator 327, reflected by the optical path length variable unit 329, and returned to the fiber coupler 321 again.
 ファイバーカプラー321に到達した信号光と参照光は合波され、光ファイバーを通して分光器326に導光される。分光器326に入った光はコリメータ330で出射され、グレーティング331により波長ごとに分光される。分光された光はレンズ系332を通してラインセンサー333に照射される。ラインセンサー333はCCDセンサーで構成される場合もあるし、CMOSセンサーで構成される場合もある。分光器326によって分光された干渉光情報をもとに、制御部334によって眼底の断層画像が構成される。制御部334は光路長可変部329を制御し、所望の深さ位置の画像を取得できる。また、制御部334は走査部309-1、309-2も同時に制御しており、任意の位置の干渉信号が取得可能である。得られた干渉信号から断層画像を作成することにより、3次元ボリュームデータが取得される。 The signal light and the reference light that have reached the fiber coupler 321 are combined and guided to the spectroscope 326 through the optical fiber. The light that enters the spectroscope 326 is emitted from the collimator 330 and is split by the grating 331 for each wavelength. The split light is applied to the line sensor 333 through the lens system 332. The line sensor 333 may be composed of a CCD sensor or a CMOS sensor. Based on the interference light information spectrally separated by the spectroscope 326, a tomographic image of the fundus is constructed by the control unit 334. The control unit 334 controls the optical path length variable unit 329 and can acquire an image at a desired depth position. The control unit 334 also controls the scanning units 309-1 and 309-2 at the same time, and can acquire an interference signal at an arbitrary position. Three-dimensional volume data is acquired by creating a tomographic image from the obtained interference signal.
 OCTのスキャンパターン制御や、OCTA画像の構築方法は実施形態1と同様である。 The OCT scan pattern control and the OCTA image construction method are the same as those in the first embodiment.
 次に図13を用いて、本実施形態での画像処理ユニットの制御方法を説明する。 Next, the control method of the image processing unit in this embodiment will be described with reference to FIG.
 本実施形態は、AOOCTとAOSLOが組み合わされた装置であり、両画像が同時に取得される。両画像の撮影位置も、フォーカス位置も同じであり、AOOCT撮影では一般的に注目層にフォーカスを指定するので、フォーカス位置と解析対象である層の位置も該同一となる。故に、AOOCT画像もしくは、AOSLOどちらかを指定することで、解析対象となる位置および層が決定し、対象となるAOOCTおよびAOSLOデータが決定される。 This embodiment is an apparatus in which AOOCT and AOSLO are combined, and both images are acquired simultaneously. The shooting position of both images is the same as the focus position, and in AOOCT shooting, since the focus is generally designated for the layer of interest, the focus position and the position of the layer to be analyzed are also the same. Therefore, by specifying either the AOOCT image or AOSLO, the position and layer to be analyzed are determined, and the target AOOCT and AOSLO data are determined.
 ステップS401において、操作者の指示に基づいて解析するAOOCT画像が選択される。ステップS402において、選択された層に該当するAOSLO画像を取得する。本ステップでは、同じタイミングで記録されたAOSLO画像を取得すればよい。 In step S401, an AOOCT image to be analyzed is selected based on an instruction from the operator. In step S402, an AOSLO image corresponding to the selected layer is acquired. In this step, an AOSLO image recorded at the same timing may be acquired.
 次にステップS403において、OCTA画像から血管領域を抽出する。 Next, in step S403, a blood vessel region is extracted from the OCTA image.
 ステップS404において、血管領域に応じた時空間画像をAOSLO動画から作成する。得られた時空間画像はステップS405において解析されて、血球の動作方向や速度といった血流情報を得る。 In step S404, a spatiotemporal image corresponding to the blood vessel region is created from the AOSLO moving image. The obtained spatiotemporal image is analyzed in step S405 to obtain blood flow information such as the direction and speed of blood cells.
 ステップS406において、OCTA画像を表示する。ステップS407において血流情報の表示方法を選択し、ステップS411においてOCTA画像に血流情報を併せて表示する。表示方法の例としては、実施形態1のステップS212、S213、S214と同様に、ステップS408、S409、S410において選択される。GUIの表示例も実施形態1と同じく、図11A~Cの様な構成である。 In step S406, an OCTA image is displayed. In step S407, a blood flow information display method is selected, and in step S411, the blood flow information is displayed together with the OCTA image. An example of the display method is selected in steps S408, S409, and S410 as in steps S212, S213, and S214 of the first embodiment. Similar to the first embodiment, the GUI display example has a configuration as shown in FIGS. 11A to 11C.
 このように、操作者が注目するAOOCTかAOSLO画像を指定するだけで、自動的に複数画像が解析され、操作者は被検者の血管血流状態を複合的に把握することが可能で、各血管・血流の特性を判断することが可能となる。 In this way, simply by specifying the AOOCT or AOSLO image that the operator is interested in, a plurality of images are automatically analyzed, and the operator can comprehend the subject's vascular blood flow state in a complex manner. It is possible to determine the characteristics of each blood vessel and blood flow.
 [その他の実施例]
 なお、上述した実施形態では、被検査物が眼の場合について述べているが、眼以外の皮膚や臓器等の被検査物に本発明を適用することも可能である。この場合、本発明は眼科撮影装置以外の、例えば内視鏡等の医療機器としての態様を有する。従って、本発明は眼科撮影装置に例示される画像処理装置として把握され、被検眼は被検査物の一態様として把握されることが好ましい。
[Other Examples]
In the above-described embodiment, the case where the object to be inspected is an eye is described. However, the present invention can also be applied to an object to be inspected other than the eye, such as skin or organ. In this case, the present invention has an aspect as a medical device such as an endoscope other than the ophthalmologic photographing apparatus. Therefore, it is preferable that the present invention is grasped as an image processing apparatus exemplified by an ophthalmologic photographing apparatus, and the eye to be examined is grasped as one aspect of the inspection object.
 また、本発明は、以下のように装置を構成することによっても達成できる。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(又は記憶媒体)をシステム或いは装置に供給することとしてもよい。また、該記録媒体の態様だけでなく、コンピュータの読み取り可能な記録媒体としてもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、該記録媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。また、該実施形態は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be achieved by configuring the apparatus as follows. That is, a recording medium (or storage medium) that records software program codes (computer programs) that implement the functions of the above-described embodiments may be supplied to the system or apparatus. In addition to the form of the recording medium, a computer-readable recording medium may be used. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention. The embodiment can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。 The present invention is not limited to the above embodiment, and various changes and modifications can be made without departing from the spirit and scope of the present invention. Therefore, in order to make the scope of the present invention public, the following claims are attached.
 本願は、2018年4月12日提出の日本国特許出願特願2018-077137を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。 This application claims priority on the basis of Japanese Patent Application No. 2018-077137 filed on April 12, 2018, the entire contents of which are incorporated herein by reference.

Claims (10)

  1.  被検査物の撮影領域の複数の断層画像と複数の平面画像を処理する画像処理装置であって、
     前記複数の断層画像からモーションコントラスト画像を生成する第1の生成手段と、
     前記複数の平面画像から血流情報を生成する第2の生成手段と、
     前記モーションコントラスト画像に前記血流情報を表示する制御手段とを有することを特徴とする画像処理装置。
    An image processing apparatus that processes a plurality of tomographic images and a plurality of planar images of an imaging region of an inspection object,
    First generation means for generating a motion contrast image from the plurality of tomographic images;
    Second generation means for generating blood flow information from the plurality of planar images;
    An image processing apparatus comprising: control means for displaying the blood flow information on the motion contrast image.
  2.  前記制御手段は、前記血流情報を示す記号及び文字、又は、アニメーションを前記モーションコントラスト画像に重ねて表示することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the control means displays a symbol and a character indicating the blood flow information or an animation superimposed on the motion contrast image.
  3.  前記血流情報が血流の方向およびもしくは速度であることを特徴とする請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the blood flow information is a direction and / or speed of a blood flow.
  4.  前記モーションコントラスト画像から血管領域を検出する検出手段を更に有し、
     前記制御手段は、前記血流情報に応じて、検出した前記血管領域を色付けすることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
    A detection means for detecting a blood vessel region from the motion contrast image;
    4. The image processing apparatus according to claim 1, wherein the control unit colors the detected blood vessel region according to the blood flow information. 5.
  5.  前記モーションコントラスト画像から血管領域を検出する検出手段を更に有し、
     前記第2の生成手段は、前記血管領域の位置情報に基づいて、前記平面画像から血流情報を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
    A detection means for detecting a blood vessel region from the motion contrast image;
    The image processing apparatus according to claim 1, wherein the second generation unit generates blood flow information from the planar image based on position information of the blood vessel region.
  6.  前記モーションコントラスト画像から血管領域を検出する検出手段と、
     検出した血管が動脈か静脈かを判断する判断手段を更に有し、
     前記制御手段は、前記血流情報及び動脈であるか静脈であるかを識別可能に表示することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
    Detecting means for detecting a blood vessel region from the motion contrast image;
    A determination means for determining whether the detected blood vessel is an artery or a vein;
    The image processing apparatus according to any one of claims 1 to 3, wherein the control means displays the blood flow information and whether it is an artery or a vein so as to be identifiable.
  7.  前記第2の生成手段は、
     前記モーションコントラスト画像を生成した断層画像の層の位置情報を取得し、
     前記層の位置情報に該当するフォーカス位置を算出し、
     前記フォーカス位置において取得した前記平面画像を用いて血流情報を作成することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
    The second generation means includes
    Obtaining the position information of the layer of the tomographic image that generated the motion contrast image;
    Calculating a focus position corresponding to the position information of the layer;
    The image processing apparatus according to claim 1, wherein blood flow information is created using the planar image acquired at the focus position.
  8.  被検査物の撮影領域の複数の断層画像と複数の平面画像を処理する画像処理装置の制御方法であって、
     前記複数の断層画像からモーションコントラスト画像を生成する第1の生成工程と、
     前記複数の平面画像から血流情報を生成する第2の生成工程と、
     前記モーションコントラスト画像に前記血流情報を表示する制御工程とを有することを特徴とする画像処理装置の制御方法。
    A control method for an image processing apparatus that processes a plurality of tomographic images and a plurality of planar images of an imaging region of an inspection object,
    A first generation step of generating a motion contrast image from the plurality of tomographic images;
    A second generation step of generating blood flow information from the plurality of planar images;
    A control step of displaying the blood flow information on the motion contrast image.
  9.  請求項1乃至7のいずれか1項に記載の画像処理装置を、コンピュータで実現するためのプログラム。 A program for realizing the image processing apparatus according to any one of claims 1 to 7 by a computer.
  10.  請求項9に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 9.
PCT/JP2019/015080 2018-04-12 2019-04-05 Image processing device and control method for same WO2019198629A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-077137 2018-04-12
JP2018077137A JP2019180948A (en) 2018-04-12 2018-04-12 Image processing device and control method thereof

Publications (1)

Publication Number Publication Date
WO2019198629A1 true WO2019198629A1 (en) 2019-10-17

Family

ID=68163135

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015080 WO2019198629A1 (en) 2018-04-12 2019-04-05 Image processing device and control method for same

Country Status (2)

Country Link
JP (1) JP2019180948A (en)
WO (1) WO2019198629A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017077414A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017153826A (en) * 2016-03-03 2017-09-07 株式会社ニデック Ophthalmic image processing apparatus and ophthalmic image processing program
JP2017176341A (en) * 2016-03-29 2017-10-05 キヤノン株式会社 Information processing device, method for controlling information processing deice, and execution program of the control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017077414A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017153826A (en) * 2016-03-03 2017-09-07 株式会社ニデック Ophthalmic image processing apparatus and ophthalmic image processing program
JP2017176341A (en) * 2016-03-29 2017-10-05 キヤノン株式会社 Information processing device, method for controlling information processing deice, and execution program of the control method

Also Published As

Publication number Publication date
JP2019180948A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
JP6062688B2 (en) Ophthalmic apparatus, method for controlling ophthalmic apparatus, and program
US7954946B2 (en) Optical tomographic image photographing apparatus
US20200253470A1 (en) Optical tomographic imaging apparatus, control method therefor, program therefor, and optical tomographic imaging system
JP5847510B2 (en) Image processing apparatus and image processing method
JP6776076B2 (en) OCT device
US20170258326A1 (en) Ophthalmologic apparatus and imaging method
JP7459176B2 (en) Image processing device, control method and program for the image processing device
WO2016110917A1 (en) Image processing apparatus and image processing method for polarization-sensitive optical coherence tomography
JP7096392B2 (en) Ophthalmic equipment
JP6431400B2 (en) Ophthalmic imaging apparatus and ophthalmic apparatus
WO2017069019A1 (en) Blood flow measurement device
JP6853690B2 (en) Ophthalmologic imaging equipment
US10905323B2 (en) Blood flow measurement apparatus
JP2017202369A (en) Ophthalmologic image processing device
WO2019198629A1 (en) Image processing device and control method for same
JP2018192082A (en) Ophthalmologic apparatus and control method thereof
JP2018191761A (en) Information processing device, information processing method, and program
JP2017225599A (en) Oct apparatus
WO2020209012A1 (en) Image analysis method and image analysis device
JP6431399B2 (en) Ophthalmic imaging equipment
JP2019154933A (en) Image processing apparatus and control method therefor
JP6839310B2 (en) Optical tomography imaging device, its control method, and program
JP2019018039A (en) Ophthalmologic apparatus and control method thereof
JP2019025186A (en) Ophthalmologic apparatus and data collection method
JP6761519B2 (en) Ophthalmologic imaging equipment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19784467

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19784467

Country of ref document: EP

Kind code of ref document: A1