JP2019187798A - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP2019187798A
JP2019187798A JP2018084270A JP2018084270A JP2019187798A JP 2019187798 A JP2019187798 A JP 2019187798A JP 2018084270 A JP2018084270 A JP 2018084270A JP 2018084270 A JP2018084270 A JP 2018084270A JP 2019187798 A JP2019187798 A JP 2019187798A
Authority
JP
Japan
Prior art keywords
image
motion contrast
images
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018084270A
Other languages
Japanese (ja)
Other versions
JP7102208B2 (en
Inventor
耕平 竹野
Kohei Takeno
耕平 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018084270A priority Critical patent/JP7102208B2/en
Publication of JP2019187798A publication Critical patent/JP2019187798A/en
Priority to JP2022108767A priority patent/JP7459176B2/en
Application granted granted Critical
Publication of JP7102208B2 publication Critical patent/JP7102208B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To allow for efficient generation of a high-resolution motion contrast images corresponding to various blood flow velocities.SOLUTION: An image processing apparatus is provided that acquires a motion contrast image using a plurality of images of an object to be measured which are generated on the basis of a return light of measurement light obtained by irradiating the object to be measured with measurement light. The image processing apparatus comprises: setting means setting an interval between a plurality of images; generating means generating a motion contrast image using images which are based on the set interval; and control means outputting the generated motion contrast image to output means.SELECTED DRAWING: Figure 5

Description

本発明は画像処理装置およびその制御方法に関し、特に、被検眼の眼底画像を処理する画像処理装置およびその制御方法に関する。   The present invention relates to an image processing apparatus and a control method therefor, and more particularly, to an image processing apparatus that processes a fundus image of a subject eye and a control method therefor.

近年、眼科用の撮影装置として、眼底に2次元的にレーザ光を照射してその戻り光を受光して画像化するSLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)や、低コヒーレンス光の干渉を利用したイメージング装置が開発されている。低コヒーレンス光の干渉を利用したイメージング装置は、OCT(Optical Coherence Tomography:光干渉断層装置あるいは光干渉断層法)と呼ばれ、特に、眼底あるいはその近傍の断層像を得る目的で用いられている。OCTの種類としては、TD−OCT(Time Domain OCT:タイムドメイン法)や、SD−OCT(Spectral Domain OCT:スペクトラルドメイン法)等を含め、種々のものが開発されてきている。   In recent years, as an ophthalmologic photographing apparatus, scanning laser opthalmoscope (SLO) that irradiates laser light two-dimensionally on the fundus and receives the return light to form an image, and interference of low coherence light. Utilized imaging devices have been developed. An imaging device using low-coherence light interference is called OCT (Optical Coherence Tomography), and is used particularly for the purpose of obtaining a tomographic image of the fundus or its vicinity. Various types of OCT have been developed, including TD-OCT (Time Domain OCT: Time Domain Method) and SD-OCT (Spectral Domain OCT: Spectral Domain Method).

特に、このような眼科用の撮影装置は、近年において、照射レーザの高NA化等によってさらなる高解像度化が進められている。しかしながら、眼底を撮影する場合には、角膜や水晶体等の眼の光学組織を通して撮影をしなければならない。そのため、高解像度化が進むにつれて、これら角膜や水晶体の収差が撮影画像の画質に大きく影響するようになってきた。そこで、眼の収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだ、AOSLOやAOOCTの研究が進められている。例えば、非特許文献1に、AOOCTの例が示されている。これらAOSLOやAOOCTは、一般的にはシャックハルトマン波面センサー方式によって眼の波面を測定する。シャックハルトマン波面センサー方式とは、眼に測定光を入射し、その戻り光を、マイクロレンズアレイを通してCCDカメラに受光することによって波面を測定するものである。測定した波面を補正するように可変形状ミラーや、空間位相変調器を駆動し、それらを通して眼底の撮影を行うことにより、AOSLOやAOOCTは高分解能な撮影が可能となる。   In particular, in such an ophthalmologic photographing apparatus, in recent years, higher resolution has been promoted by increasing the NA of an irradiation laser. However, when photographing the fundus, the photograph must be taken through the optical tissue of the eye such as the cornea and the crystalline lens. For this reason, as the resolution increases, the aberration of the cornea and the crystalline lens has greatly influenced the image quality of the captured image. Therefore, research on AOSLO and AOOCT in which an adaptive optics (AO) function for measuring aberration of the eye and correcting the aberration is incorporated in the optical system is underway. For example, Non-Patent Document 1 shows an example of AOOCT. These AOSLO and AOOCT generally measure the wavefront of the eye using the Shack-Hartmann wavefront sensor method. The Shack-Hartmann wavefront sensor system measures the wavefront by making measurement light incident on the eye and receiving the return light through a microlens array to a CCD camera. AOSLO and AOOCT can be imaged with high resolution by driving a deformable mirror and a spatial phase modulator to correct the measured wavefront and imaging the fundus oculi through them.

そして最近、造影剤を用いずに網膜の血管等の構造を撮影する方法として、OCTを用いた血管造影法(OCT Angiography:OCTA)が利用されている。OCTAでは、OCTにより取得した3次元のモーションコントラストデータを2次元平面に投影することで、血管画像(以下、OCTA画像という。)を生成する。ここで、モーションコントラストデータとは、測定対象の同一位置を繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータである。モーションコントラストデータは、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる(例えば特許文献1)。   Recently, an angiographic method (OCT Angiography: OCTA) using OCT has been used as a method for imaging structures such as blood vessels of the retina without using a contrast agent. In OCTA, a blood vessel image (hereinafter referred to as an OCTA image) is generated by projecting three-dimensional motion contrast data acquired by OCT onto a two-dimensional plane. Here, the motion contrast data is data obtained by repeatedly photographing the same position of the measurement object and detecting a temporal change of the measurement object during the photographing. The motion contrast data is obtained, for example, by calculating a temporal change in the phase, vector, and intensity of the complex OCT signal from a difference, a ratio, or a correlation (for example, Patent Document 1).

同様に、上述のSLOやAOSLOにおいても、その平面像のモーションコントラストデータから血管等の画像(以下、モーションコントラスト画像)を生成する方法も研究されている。SLOのモーションコントラストデータもOCTAのモーションコントラストデータと同じく、測定対象の同一撮影位置における時間的な変化を検出したデータである。しかしながら、SLO画像とは特定平面の連続動画であるため、OCTAのような特定断層の切り出しや、平面への投射といった処理は必要ない。特にAOSLOでは焦点深度が浅いために、撮影される層範囲は数十μmに限定され、網膜の薄いスライスのみを撮影可能である。   Similarly, also in the above-described SLO and AOSLO, a method of generating an image of a blood vessel or the like (hereinafter referred to as a motion contrast image) from the motion contrast data of the planar image has been studied. Similar to the OCTA motion contrast data, the SLO motion contrast data is data obtained by detecting temporal changes at the same imaging position of the measurement target. However, since the SLO image is a continuous moving image of a specific plane, there is no need for a process such as cutting out a specific slice or projecting onto a plane like OCTA. In particular, since the depth of focus is shallow in AOSLO, the layer range to be imaged is limited to several tens of μm, and only a thin slice of the retina can be imaged.

特開2015−131107号公報JP, 2015-131107, A 特開2017−143994号公報JP 2017-143994 A

Y.Zhang et al,Optics Express,Vol.14,No.10,2006,4380Y. Zhang et al, Optics Express, Vol. 14, no. 10, 2006, 4380

網膜血管の血流に障害が発生する眼疾患の場合、血管の蛇行や血管壁の肥厚がOCTAにおいては、その元データとなるOCT画像を撮影したOCTの性能により、描出できる変化が限定される。例えば、一般的なOCTでは20μm程度の面内方向解像度(横解像度)しかないため、その解像度以下の画像上の構造物や変化をとらえることができない。また、OCTAは網膜の3次元データを取得する必要があるため、OCTの撮影速度の限界から同一位置の撮影繰り返し数に実質的な限界がある。一般的には、数ミリ〜数十ミリ秒内に3回程度繰り返し撮影する程度となっている。これでは、それほど頻繁に発生しない事象や、非常に低速な事象を捉えることができないという問題となっていた。この問題に対応するため、OCTにおいて低速な現象を捉える方法として撮影データの組み合わせを変える方法やスキャンパターンを変える方法(特許文献2)が提唱されているが、やはりOCTの撮影速度の限界から効果が限定的であった。   In the case of an eye disease in which the blood flow of the retinal blood vessel is impaired, the change that can be depicted is limited depending on the performance of the OCT obtained by capturing the OCT image as the original data in the OCTA, where the meandering of the blood vessel and the thickening of the blood vessel wall occur. . For example, in general OCT, since there is only an in-plane direction resolution (lateral resolution) of about 20 μm, structures and changes on an image below that resolution cannot be captured. In addition, since OCTA needs to acquire three-dimensional data of the retina, there is a substantial limit on the number of repeated imaging at the same position due to the limitation of the OCT imaging speed. In general, the image is repeatedly shot about three times within several milliseconds to several tens of milliseconds. This is a problem that events that do not occur very often and very slow events cannot be captured. In order to cope with this problem, a method of changing the combination of imaging data and a method of changing a scan pattern (Patent Document 2) have been proposed as a method of capturing a low-speed phenomenon in OCT, but this is also effective from the limitation of the imaging speed of OCT. Was limited.

一方でAOSLOやSLOは平面画像のみの撮影であり、非常に高速に平面の動画撮影が可能である。そのため、数秒の撮影で数百の平面画像が取得可能であり、AOSLOでモーションコントラスト画像を作成する場合には発生頻度の少ない事象や低速な事象をも捉えることが可能である。例えば、網膜の血管においては白血球が高頻度で通過するLeukocyte Preferred Path(LPP)という血管の存在も知られている。このような血管では相対的に他の血球(赤血球など)の通過が少なく短時間における画像上の変化が少ないため、OCTAでは画像化することが難しかったが、長時間撮影するAOSLOでは撮影できる確率が高い。さらに、AOSLOでは横解像度が非常に高く、細胞レベルの非常に微細な変化も捉えることが可能で、血管であれば内部の血球レベルの変化まで捉えることが可能である。しかし、AOSLOやSLOにおいても、血流は定常的なものと考え一連の画像に単一の処理を施すだけでは流速の異なる血管を描出することはできないという問題があった。   On the other hand, AOSLO and SLO capture only a planar image, and a plane moving image can be captured at a very high speed. Therefore, hundreds of plane images can be acquired by shooting for a few seconds, and when a motion contrast image is created by AOSLO, it is possible to capture events that occur less frequently or at low speeds. For example, the presence of a blood vessel called Leukocyte Preferred Path (LPP) through which leukocytes frequently pass in the blood vessels of the retina is also known. In such a blood vessel, other blood cells (red blood cells, etc.) are relatively less likely to pass through and there are few changes in the image in a short time. Is expensive. Furthermore, AOSLO has a very high lateral resolution and can capture very minute changes in the cell level. If it is a blood vessel, it can also capture changes in the internal blood cell level. However, even in AOSLO and SLO, blood flow is considered to be stationary, and there is a problem that blood vessels with different flow velocities cannot be drawn only by performing a single process on a series of images.

本発明は、上記問題を鑑み、種々の血流速度に対応したモーションコントラスト画像を効率よく生成することを目的とする。   In view of the above problems, an object of the present invention is to efficiently generate motion contrast images corresponding to various blood flow velocities.

上記課題を解決するために本発明の画像処理装置は、測定対象に測定光を照射することにより得られる前記測定光の戻り光に基づいて生成される前記測定対象の複数の画像を用いて、モーションコントラスト画像を取得する画像処理装置であって、複数の画像の間隔を設定する設定手段と、前記設定された間隔に基づいた複数の画像を用いてモーションコントラスト画像を生成する生成手段と、前記生成されたモーションコントラスト画像を出力手段へ出力する制御手段とを有する。   In order to solve the above problems, the image processing apparatus of the present invention uses a plurality of images of the measurement object generated based on the return light of the measurement light obtained by irradiating the measurement object with the measurement light. An image processing apparatus for acquiring a motion contrast image, wherein a setting unit that sets intervals between a plurality of images, a generation unit that generates a motion contrast image using a plurality of images based on the set intervals, Control means for outputting the generated motion contrast image to the output means.

本発明によれば、種々の血流速度に対応したモーションコントラスト画像を生成することができる。   According to the present invention, motion contrast images corresponding to various blood flow velocities can be generated.

本発明の一実施形態の眼科撮影装置の機能構成図である。1 is a functional configuration diagram of an ophthalmologic photographing apparatus according to an embodiment of the present invention. 本発明の一実施形態の眼科撮影装置の側面図である。1 is a side view of an ophthalmologic photographing apparatus according to an embodiment of the present invention. 本発明の一実施形態における光学系の構成図である。It is a block diagram of the optical system in one Embodiment of this invention. 本発明の一実施形態におけるAOSLOの画像である。It is an image of AOSLO in one embodiment of the present invention. 本発明の一実施形態におけるAOSLO画像の撮影順を説明するための図である。It is a figure for demonstrating the imaging | photography order of the AOSLO image in one Embodiment of this invention. 本発明の一実施形態におけるモーションコントラスト画像を生成するフローチャートである。It is a flowchart which produces | generates the motion contrast image in one Embodiment of this invention. 本発明の一実施形態におけるフレームインターバルを説明するための模式図である。It is a schematic diagram for demonstrating the frame interval in one Embodiment of this invention. 本発明の一実施形態における表示制御部による表示画面を説明するための図である。It is a figure for demonstrating the display screen by the display control part in one Embodiment of this invention. 本発明の一実施形態におけるモーションコントラスト画像を生成するフローチャートである。It is a flowchart which produces | generates the motion contrast image in one Embodiment of this invention. 本発明の一実施形態におけるモーションコントラスト画像を生成するフローチャートである。It is a flowchart which produces | generates the motion contrast image in one Embodiment of this invention.

以下、本発明の一実施形態を、図面を用いて詳細に説明する。以下の説明は本質的に、説明的及び例示的なものにすぎず、いかなる形でも、本開示及びその用途又は使用を限定することを意図していない。実施形態において示されるコンポーネントの相対的構成、並びに、ステップ、数値表現及び数値は、別段の具体的な指示がない限り、本開示の範囲を限定しない。当業者によってよく知られている技法、方法及びデバイスは、以下で論考する実施形態を可能にするために当業者がこれらの詳細を知る必要がないので、詳細に論考されていない場合がある。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. The following description is merely illustrative and exemplary in nature and is not intended to limit the present disclosure and its application or uses in any way. The relative configurations of components shown in the embodiments, and the steps, numerical expressions, and numerical values do not limit the scope of the present disclosure unless specifically indicated otherwise. Techniques, methods and devices well known by those skilled in the art may not have been discussed in detail because those skilled in the art do not need to know these details to enable the embodiments discussed below.

[実施形態1]
[装置の全体構成]
図1は本発明による画像処理装置としての一実施形態である眼科装置の機能ブロック図である。図1において、制御部300により制御される光学系200は測定対象Tに対して測定光を照射し、測定対象Tからの戻り光を検出する。画像生成部400は光学系200の出力である信号Sを処理して画像IMを生成し、表示制御部500に出力する。表示制御部500は液晶ディスプレイ等の表示デバイスを含み、入力された画像等を表示する。また、生成された画像は記憶部600に測定対象Tを特定する情報と対応付けられて記憶される。
[Embodiment 1]
[Overall configuration of the device]
FIG. 1 is a functional block diagram of an ophthalmologic apparatus as an embodiment of an image processing apparatus according to the present invention. In FIG. 1, the optical system 200 controlled by the control unit 300 irradiates the measurement target T with measurement light and detects return light from the measurement target T. The image generation unit 400 processes the signal S that is the output of the optical system 200 to generate an image IM and outputs the image IM to the display control unit 500. The display control unit 500 includes a display device such as a liquid crystal display, and displays an input image or the like. The generated image is stored in the storage unit 600 in association with information for specifying the measurement target T.

図1に示す眼科装置は、特定の機能を持つハードウェアに接続されたPC(パーソナルコンピュータ)によって実現することが出来る。例えば、光学系200をハードウェアで実現し、制御部300、画像生成部400および表示制御部500をハードウェアに接続されたPCに搭載可能なソフトウェアモジュールで実現することが出来る。   The ophthalmologic apparatus shown in FIG. 1 can be realized by a PC (personal computer) connected to hardware having a specific function. For example, the optical system 200 can be realized by hardware, and the control unit 300, the image generation unit 400, and the display control unit 500 can be realized by software modules that can be mounted on a PC connected to the hardware.

本実施形態に係る眼科装置の概略構成について、眼科装置の側面図である図2を用いて説明する。光学ヘッド101は光学系200を含む眼科装置筐体であり、図中XYZ方向にモータ等により移動するステージ部150を用いて、ベース部151に対して移動することができる。また、制御装置125はソフトウェアモジュールを搭載したPCであり、制御部300、画像生成部400、表示制御部500を兼ねる。記憶装置126は被検者情報記憶部を兼ね、断層撮影用のプログラムなどを記憶するハードディスクである。また、制御装置125からの指示により、取得された画像等をモニタ等の表示デバイス128に表示させる。また、入力部129はPC(制御装置125)への指示を行う入力部であり、具体的にはキーボードやマウス等から構成される。また、顔受け105は被検者の顔190を固定する。   A schematic configuration of the ophthalmologic apparatus according to the present embodiment will be described with reference to FIG. 2 which is a side view of the ophthalmologic apparatus. The optical head 101 is an ophthalmic apparatus housing including the optical system 200, and can be moved with respect to the base unit 151 by using a stage unit 150 that is moved in the XYZ directions by a motor or the like. The control device 125 is a PC equipped with a software module, and also serves as the control unit 300, the image generation unit 400, and the display control unit 500. The storage device 126 is a hard disk that also serves as a subject information storage unit and stores a program for tomography. Further, in accordance with an instruction from the control device 125, the acquired image or the like is displayed on the display device 128 such as a monitor. The input unit 129 is an input unit that gives instructions to the PC (control device 125), and specifically includes a keyboard, a mouse, and the like. The face receiver 105 fixes the subject's face 190.

以下の実施形態においては制御装置125の演算処理装置CPU(不図示)が当該ソフトウェアモジュールを実行することで機能を実現するが、本発明はこのような方法に限定されるものではない。画像生成部400は、例えばASIC等の専用のハードウェアで実現しても良いし、表示制御部はCPUとは異なるGPU等の専用プロセッサによっても良い。また光学系とPCとの接続はネットワークを介した構成によっても本発明の主旨を変更することなく実現が可能である。   In the following embodiment, the arithmetic processing unit CPU (not shown) of the control device 125 implements the function by executing the software module, but the present invention is not limited to such a method. The image generation unit 400 may be realized by dedicated hardware such as an ASIC, for example, and the display control unit may be a dedicated processor such as a GPU different from the CPU. Further, the connection between the optical system and the PC can be realized by changing the configuration via a network without changing the gist of the present invention.

図3は、図1における測定対象Tを眼211とした場合の光学構成を示す図である。以下に図3を参照して光学系200の構成について説明する。   FIG. 3 is a diagram illustrating an optical configuration when the measurement target T in FIG. The configuration of the optical system 200 will be described below with reference to FIG.

なお、図3には示していないが、眼底の撮影位置を確認するための広画角眼底撮影部、アライメントを容易にするための前眼部観察部、被検眼に固視位置を提示する固視灯光学系を有している。しかしながら、これは公知の構成による事が出来、本発明の中心的部分ではないため説明は省略する。   Although not shown in FIG. 3, a wide-angle fundus photographing unit for confirming the photographing position of the fundus, an anterior eye observation unit for facilitating alignment, and a fixation point for presenting the fixation position to the eye to be examined. It has a visual lamp optical system. However, this can be done by a known configuration and is not a central part of the present invention, so the explanation is omitted.

本実施形態のAOSLOは、照射ビームの焦点位置からの反射散乱光のみにほぼ限定される共焦点撮影機能と、それ以外の多重散乱等による反射散乱光も画像化する暗視野撮影機能の両方を有する構成とした。   The AOSLO of this embodiment has both a confocal imaging function that is almost limited to only reflected and scattered light from the focal position of the irradiation beam and a dark field imaging function that also images reflected and scattered light due to multiple scattering other than that. It was set as the structure which has.

図3において、201は光源であり、波長760nmのSLD光源(Super Luminescent Diode)を用いた。光源201の波長は特に制限されるものではないが、眼底撮影用としては被検者の眩しさの軽減と分解能維持のために、750〜1500nm程度が好適に用いられる。本実施形態においてはSLD光源を用いたが、その他にレーザ等も用いられる。本実施形態では眼底撮影と波面測定のための光源を共用しているが、それぞれを別光源とし、光路の途中で合波する構成としても良い。   In FIG. 3, 201 is a light source, and an SLD light source (Super Luminescent Diode) having a wavelength of 760 nm was used. Although the wavelength of the light source 201 is not particularly limited, about 750 to 1500 nm is preferably used for fundus imaging in order to reduce the glare of the subject and maintain resolution. In this embodiment, an SLD light source is used, but a laser or the like is also used. In the present embodiment, light sources for fundus photographing and wavefront measurement are shared, but each may be a separate light source and combined in the middle of the optical path.

光源201から照射された光は、単一モード光ファイバー202を通って、コリメータ203により、平行光線(測定光205)として照射される。照射される光の偏光は、単一モード光ファイバー202の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ203から出射された後の光路に偏光を調整する光学部品を配置する構成がある。   The light emitted from the light source 201 passes through the single mode optical fiber 202 and is irradiated as a parallel light beam (measurement light 205) by the collimator 203. The polarization of the irradiated light is adjusted by a polarization adjuster (not shown) provided in the path of the single mode optical fiber 202. As another configuration, there is a configuration in which an optical component for adjusting polarization is arranged in the optical path after being emitted from the collimator 203.

照射された測定光205はビームスプリッターからなる光分割部204を透過し、補償光学の光学系に導光される。   The irradiated measurement light 205 passes through the light splitting unit 204 formed of a beam splitter and is guided to the adaptive optics optical system.

補償光学系は、光分割部206、波面センサー215、波面補正デバイス208および、それらに導光するための反射ミラー207−1〜4から構成される。   The compensation optical system includes a light splitting unit 206, a wavefront sensor 215, a wavefront correction device 208, and reflection mirrors 207-1 to 207-4 for guiding them.

ここで、反射ミラー207−1〜4は、少なくとも眼211の瞳と波面センサー215、波面補正デバイス208とが光学的に共役関係になるように設置されている。また、光分割部206として、本実施形態ではビームスプリッターを用いた。   Here, the reflection mirrors 207-1 to 207-4 are installed so that at least the pupil of the eye 211, the wavefront sensor 215, and the wavefront correction device 208 are optically conjugate. In addition, a beam splitter is used as the light dividing unit 206 in the present embodiment.

光分割部206を透過した測定光205は、反射ミラー207−1と207−2で反射されて波面補正デバイス208に入射する。波面補正デバイス208で反射された測定光205は、さらに反射ミラー207−3と207−4で反射され、走査光学系に導光される。   The measurement light 205 transmitted through the light splitting unit 206 is reflected by the reflection mirrors 207-1 and 207-2 and enters the wavefront correction device 208. The measurement light 205 reflected by the wavefront correction device 208 is further reflected by the reflection mirrors 207-3 and 207-4 and guided to the scanning optical system.

本実施形態では、波面補正デバイス208として可変形状ミラーを用いた。可変形状ミラーは反射面が複数領域に分割されており、各領域の角度を変えることにより、戻り光の波面を変化させることができるミラーである。波面補正デバイスとしては、可変形状ミラーの代わりに液晶素子を用いた空間位相変調器を用いることも可能である。その場合、被検眼からの光の両偏光を補正するために、2つの空間位相変調器を用いる場合もある。   In the present embodiment, a deformable mirror is used as the wavefront correction device 208. The deformable mirror is a mirror in which the reflection surface is divided into a plurality of regions, and the wavefront of the return light can be changed by changing the angle of each region. As the wavefront correction device, a spatial phase modulator using a liquid crystal element instead of the deformable mirror can be used. In that case, two spatial phase modulators may be used to correct both polarizations of light from the eye to be examined.

図3において、反射ミラー207−3、4で反射された光は、走査光学系209−1によって、1次元もしくは2次元に走査される。本実施形態では走査光学系209−1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として一つの共振スキャナーと一つのガルバノスキャナーを用いた。別の構成では、走査光学系209−1に二つのガルバノスキャナーを用いることもある。走査光学系209−1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる装置構成の場合もある。本例では、走査光学系にさらにトラッキングミラー209−2を持つ。トラッキングミラー209−2は二つのガルバノスキャナーから構成され、撮影領域をさらに2方向に移動させることが可能である。別の構成では、走査光学系209−1がトラッキングミラー209−2を兼ねる構成、トラッキングミラー209−2が走査光学系209−1の共振スキャナー方向のみの構成、トラッキングミラー209−2が2次元ミラーである構成もある。また、209−1と209−2を光学的に共役関係とするために、不図示のリレー光学系が用いられることが多い。   In FIG. 3, the light reflected by the reflection mirrors 207-3 and 4 is scanned one-dimensionally or two-dimensionally by the scanning optical system 209-1. In this embodiment, one resonance scanner and one galvano scanner are used for the main scanning (horizontal direction of the fundus) and the sub-scanning (vertical direction of the fundus) in the scanning optical system 209-1. In another configuration, two galvano scanners may be used for the scanning optical system 209-1. In order to bring each scanner in the scanning optical system 209-1 into an optically conjugate state, there may be an apparatus configuration that uses an optical element such as a mirror or a lens between the scanners. In this example, the scanning optical system further includes a tracking mirror 209-2. The tracking mirror 209-2 is composed of two galvano scanners, and can further move the imaging region in two directions. In another configuration, the scanning optical system 209-1 also serves as the tracking mirror 209-2, the tracking mirror 209-2 is configured only in the resonance scanner direction of the scanning optical system 209-1, and the tracking mirror 209-2 is a two-dimensional mirror. There is also the structure which is. Also, in order to optically conjugate 209-1 and 209-2, a relay optical system (not shown) is often used.

走査光学系209−1および209−2で走査された測定光205は、接眼レンズ210−1および210−2を通して眼211に照射される。眼211に照射された測定光は眼底で反射もしくは散乱される。接眼レンズ210−1および210−2の位置を調整することによって、眼211の視度にあわせて最適な照射を行うことが可能となる。ここでは、接眼部にレンズを用いたが、球面ミラー等で構成しても良い。   The measurement light 205 scanned by the scanning optical systems 209-1 and 209-2 is irradiated to the eye 211 through the eyepiece lenses 210-1 and 210-2. The measurement light applied to the eye 211 is reflected or scattered by the fundus. By adjusting the positions of the eyepieces 210-1 and 210-2, it is possible to perform optimal irradiation according to the diopter of the eye 211. Here, a lens is used for the eyepiece, but a spherical mirror or the like may be used.

眼211の網膜から反射もしくは散乱された戻り光は、入射した時の経路を逆向きに進行し、光分割部206によって一部は波面センサー215に反射され、光線の波面を測定するために用いられる。光分割部206で波面センサー215に向けて反射された光線は、リレー光学系219−1、219−2を通り、波面センサー215に入射する。リレー光学系219−1と219−2の間にはアパーチャー220が設置されており、レンズ等からの不要な反射散乱光を波面センサーに入射させないようにする。本実施形態では、波面センサー215としてシャックハルトマンセンサーを用いた。   The return light reflected or scattered from the retina of the eye 211 travels in the opposite direction along the incident path, and is partially reflected by the light splitting unit 206 to the wavefront sensor 215 and used to measure the wavefront of the light beam. It is done. The light beam reflected by the light splitting unit 206 toward the wavefront sensor 215 passes through the relay optical systems 219-1 and 219-2 and enters the wavefront sensor 215. An aperture 220 is installed between the relay optical systems 219-1 and 219-2 so that unnecessary reflected and scattered light from a lens or the like is not incident on the wavefront sensor. In this embodiment, a Shack-Hartmann sensor is used as the wavefront sensor 215.

波面センサー215は制御部300に接続され、受光した波面を制御部300に伝える。波面補正デバイス208も制御部300に接続されており、制御部300から指示された変調を行う。制御部300は波面センサー215の測定結果により取得された波面情報を基に、収差のない波面へと補正するような波面補正デバイスの画素ごとの変調量(補正量)を計算し、波面補正デバイス208にそのように変調するように指示する。波面の測定と波面補正デバイスへの指示は繰り返し処理され、常に最適な波面となるようにフィードバック制御が行われる。   The wavefront sensor 215 is connected to the control unit 300 and transmits the received wavefront to the control unit 300. The wavefront correction device 208 is also connected to the control unit 300 and performs modulation instructed by the control unit 300. Based on the wavefront information acquired from the measurement result of the wavefront sensor 215, the control unit 300 calculates a modulation amount (correction amount) for each pixel of the wavefront correction device that corrects the wavefront without aberration, and the wavefront correction device. 208 is instructed to do so. The measurement of the wavefront and the instruction to the wavefront correction device are repeatedly processed, and feedback control is performed so that the optimum wavefront is always obtained.

図3において、光分割部206を透過した戻り光は光分割部204によって一部が反射され、集光レンズ212によって穴あきミラー213の穴付近に集光させる。穴あきミラー213の穴は、共焦点効果を得るために、測定光205の回折限界付近の径に調整されることが多い。径が大きいと感度は向上するが分解能は低下し、径が小さいと分解能は高いが感度は低下する傾向となる。穴あきミラー213の穴を通過した光は光センサー214−1に入射し、光強度に応じた電気信号Sに変換される。   In FIG. 3, a part of the return light transmitted through the light splitting unit 206 is reflected by the light splitting unit 204, and is condensed near the hole of the perforated mirror 213 by the condenser lens 212. The hole of the perforated mirror 213 is often adjusted to a diameter in the vicinity of the diffraction limit of the measurement light 205 in order to obtain a confocal effect. When the diameter is large, the sensitivity is improved but the resolution is lowered. When the diameter is small, the resolution is high but the sensitivity tends to be lowered. The light that has passed through the hole of the perforated mirror 213 enters the optical sensor 214-1 and is converted into an electric signal S corresponding to the light intensity.

光センサー214−1は画像生成部400に接続され、画像生成部400は得られた信号Sと光走査の位置を基に画像IMを構築し、表示制御部500に送信する。表示制御部500は、共焦点画像として表示デバイス128に表示する。   The optical sensor 214-1 is connected to the image generation unit 400, and the image generation unit 400 constructs an image IM based on the obtained signal S and the position of optical scanning, and transmits the image IM to the display control unit 500. The display control unit 500 displays the image on the display device 128 as a confocal image.

穴あきミラー213の穴以外のミラー部分で反射された光はリレー光学系221を通して再度ナイフエッジ216のエッジ付近に集光し、ナイフエッジ216によって略半分に分割される。分割された光は光センサー214−2と214−3に入射する。光センサー214−2と214−3では光強度に応じた電気信号に変換され、画像生成部400に通信されて、暗視野撮影画像として画像化される。ナイフエッジ216は、集光光をどのように分割しても良く、紙面と水平方向や垂直方向の分割方向や、分割する比率に関しても半々ではなく40:60等の非均等分割も可能である。さらに2分割ではなく、より多くの成分に分割させることも可能である。また、このような分割方法を撮影中に動的に変更することも可能である。   The light reflected by the mirror part other than the hole of the perforated mirror 213 is condensed again near the edge of the knife edge 216 through the relay optical system 221, and is divided into approximately half by the knife edge 216. The divided light is incident on the optical sensors 214-2 and 214-3. The optical sensors 214-2 and 214-3 are converted into electrical signals corresponding to the light intensity, communicated to the image generation unit 400, and imaged as dark field captured images. The knife edge 216 may divide the condensed light in any way, and the division direction in the horizontal direction and the vertical direction with respect to the paper surface and the division ratio are not half and non-uniform division such as 40:60 is also possible. . Further, it is possible to divide into more components instead of two. It is also possible to dynamically change such a division method during shooting.

トラッキングミラー209−2は不図示のトラッキング制御ユニットによる制御される。トラッキング制御ユニットは、制御部300から撮影部分の画像信号を取得し、所望の撮影位置とのズレ量を計算し、トラッキングミラー209−2を動かすことにより、撮影位置を常に所定の位置に保つように制御を行う。   The tracking mirror 209-2 is controlled by a tracking control unit (not shown). The tracking control unit acquires the image signal of the photographing part from the control unit 300, calculates the amount of deviation from the desired photographing position, and moves the tracking mirror 209-2 so as to always keep the photographing position at a predetermined position. To control.

AOSLOで撮影された画像例を図4に示す。図4(a)が共焦点画像である。血管層にフォーカスしているため、血管内の血球のみ一部高輝度で観察される。図4(b)、(c)が暗視野撮影画像である。それぞれ、ナイフエッジの右側と左側で検出した信号を基に生成した画像である。これらの暗視野撮影画像は眼底からの戻り光を同時に取得しており、同じ撮影位置の信号から構築した画像となる。AOSLOではこのような画像を連続で取得し、動画が構成される。   An example of an image taken with AOSLO is shown in FIG. FIG. 4A shows a confocal image. Since the blood vessel layer is focused, only blood cells in the blood vessel are partially observed with high brightness. 4B and 4C are dark field captured images. Each is an image generated based on signals detected on the right and left sides of the knife edge. These dark-field captured images simultaneously acquire return light from the fundus and are images constructed from signals at the same imaging position. In AOSLO, such images are continuously acquired to form a moving image.

図5は、AOSLOで撮影された動画像の各フレームの撮影順を示したものである。横軸は撮影順nを表しており、n=1から始まり、n=Nまでの合計N枚の画像であることを表している。本実施形態では、暗視野撮影画像を用いて画像生成部400がモーションコントラスト画像を生成する。血管511、512、513は血流速が異なる血管を表しており、それぞれ血流の速い血管511、血管瘤がある等の理由により血流が遅くなっている血管513、およびまれに血球521が通過する血管512である。AOSLOを用いることにより、毛細血管やLPPといった血流速の比較的遅くなる血管を描出することができる。   FIG. 5 shows the shooting order of each frame of a moving image shot with AOSLO. The abscissa represents the shooting order n, and represents a total of N images starting from n = 1 to n = N. In the present embodiment, the image generation unit 400 generates a motion contrast image using the dark field captured image. The blood vessels 511, 512, and 513 represent blood vessels with different blood flow velocities. The blood vessel 511 has a fast blood flow, the blood vessel 513 has a slow blood flow due to the presence of an aneurysm, and rarely a blood cell 521. A blood vessel 512 passing therethrough. By using AOSLO, blood vessels with a relatively slow blood flow rate, such as capillaries and LPP, can be depicted.

暗視野撮影画像501−1および501−2は血管512の中を血球521が通過していない間に撮影された画像であり、暗視野撮影画像502−1、502−2および502−3は血管512の中を血球521が通過している間に撮影された画像である。画像502−1、502−2および502−3は、撮影順がそれぞれn=k、k+1、k+2で表される。   Dark field photographed images 501-1 and 501-2 are images photographed while the blood cell 521 does not pass through the blood vessel 512, and dark field photographed images 502-1, 502-2, and 502-3 are blood vessels. This is an image taken while the blood cell 521 passes through 512. The images 502-1, 502-2, and 502-3 are represented by n = k, k + 1, and k + 2 in the shooting order.

AOSLOのモーションコントラスト画像を取得する方法を、図6に示すフローチャートを用いて説明する。   A method of acquiring an AOSLO motion contrast image will be described with reference to the flowchart shown in FIG.

ステップS600において、制御部300は、画像生成部400が生成したAOSLO画像を取得する。本実施形態では、連続して撮影されたN枚の暗視野撮影画像を用いる。   In step S600, the control unit 300 acquires the AOSLO image generated by the image generation unit 400. In the present embodiment, N dark-field captured images that are continuously captured are used.

ステップS601において、制御部300は、N枚の暗視野撮影画像の位置合わせを行う。本実施形態では、画像の平均輝度値が最も高い画像をリファレンス画像とし、リファレンス画像との相関を計算することにより、位置合わせを行った。なお、位置合わせの方法は、本方式に限定されるものではなく、例えば暗視野撮影画像と同時に取得される共焦点画像を用いて位置合わせを実施し、その結果に基づいても良い。また、リファレンス画像の選択基準として、画像の平均輝度値以外に、コントラストやエッジの鮮鋭度に基づいて位置合わせを実施しても良い。さらに、位相限定相関法などを用いることも可能である。   In step S601, the control unit 300 aligns N dark-field captured images. In this embodiment, the image having the highest average luminance value is used as a reference image, and the alignment is performed by calculating the correlation with the reference image. Note that the alignment method is not limited to this method. For example, alignment may be performed using a confocal image acquired at the same time as the dark-field captured image, and the result may be used. Further, as a reference for selecting a reference image, alignment may be performed based on contrast and edge sharpness in addition to the average luminance value of the image. Further, a phase only correlation method or the like can be used.

ステップS602において、制御部300は、フレームインターバルΔnを設定する。ここで、フレームインターバルΔnとは、モーションコントラストを計算する際の組み合わせ画像の間隔(フレーム数など)を示す値であり、Δnの値が大きくなるほど撮影順や時間の離れた画像の組み合わせを指す。例えば、Δn=1は連続して取得された画像の組み合わせ、Δn=2は1つおきの画像の組み合わせを表している。一例として、図7(a)にΔn=1の場合を示す。なお、フレームインターバルΔnは予め複数定義されていても、ユーザーの指示に基づいて設定されてもよい。   In step S602, the control unit 300 sets a frame interval Δn. Here, the frame interval Δn is a value indicating the interval (number of frames, etc.) of the combined images when calculating the motion contrast, and indicates a combination of images that are separated in shooting order and time as the value of Δn increases. For example, Δn = 1 represents a combination of continuously acquired images, and Δn = 2 represents a combination of every other image. As an example, FIG. 7A shows a case where Δn = 1. Note that a plurality of frame intervals Δn may be defined in advance or may be set based on a user instruction.

設定されたフレームインターバルΔnに基づき、ステップS603において、制御部300の制御の下に画像生成部400においてモーションコントラスト画像を作成する。モーションコントラスト画像の生成には、組み合わせた画像間で画素ごとの輝度値の差分を二乗し、最大値投影を実施する。なお、モーションコントラストの計算には、組み合わせ画像間で画素ごとの輝度値の比率を計算するなど、輝度値の変化を強調できる様々な計算手法を用いることができる。また、モーションコントラストは相関等からも計算できるのは、背景技術の説明において述べたとおりである。   Based on the set frame interval Δn, a motion contrast image is created in the image generation unit 400 under the control of the control unit 300 in step S603. To generate a motion contrast image, the difference in luminance value for each pixel is squared between the combined images, and maximum value projection is performed. For the calculation of motion contrast, various calculation methods that can emphasize changes in luminance values, such as calculating the ratio of luminance values for each pixel between combined images, can be used. The motion contrast can also be calculated from the correlation or the like as described in the explanation of the background art.

フレームインターバルを変更することで、種々の時間間隔に対応したモーションコントラスト画像を生成することが可能である。図7(b)に示すのは、フレームインターバルがそれぞれΔn=1、2、3の場合である。本実施形態では64fpsでAOSLO撮影を行っており、それぞれ16ミリ秒、31ミリ秒、47ミリ秒間隔でのモーションコントラスト画像を生成していることになる。これはすなわち、それぞれの時間間隔で輝度値が変化するような血流速に対応した画像が取得できることになる。   By changing the frame interval, motion contrast images corresponding to various time intervals can be generated. FIG. 7B shows the case where the frame intervals are Δn = 1, 2, and 3, respectively. In this embodiment, AOSLO imaging is performed at 64 fps, and motion contrast images are generated at intervals of 16 milliseconds, 31 milliseconds, and 47 milliseconds, respectively. In other words, an image corresponding to the blood flow velocity whose luminance value changes at each time interval can be acquired.

図8に示すのは、異なるフレームインターバルΔnで取得されたモーションコントラスト画像の画面表示例である。ウインドウ801に画像表示部802−1〜802−3を並べて表示し、ユーザーはプルダウンメニュー810−1〜810−3でそれぞれの表示部に表示する画像のパラメータを選択できる。本実施形態では、フレームインターバルΔnとそれぞれのフレームインターバルに対応する時間間隔が選択可能に表示される。なお、本実施形態では、時間及びフレーム数を表示しているが、選択可能の時間のみ、或いは、選択可能なフレーム数のみ表示してもよい。ここで、画像表示部802−1〜802−3いずれかに表示するのはモーションコントラスト画像を切り替えて表示する動画としても良く、異なるフレームインターバルでの輝度値の違いを分かりやすくユーザーに提示することが可能である。さらには、半透明な画像を重畳表示させ、スライダーバー等(不図示)によりユーザーが透明度を調整することで変化部位を容易に確認できるようにしてもよい。さらに、異なるフレームインターバルのモーションコントラスト画像から、血流速の遅い血管と早い血管を識別可能に色分け(ハッチング等でもよい)した合成画像を生成し、ユーザーに提示しても良い。この方法により、ユーザーが画像を切り替える必要がなく、容易に血流速の分布を確認することが可能となる。   FIG. 8 shows a screen display example of motion contrast images acquired at different frame intervals Δn. The image display units 802-1 to 802-3 are displayed side by side in the window 801, and the user can select parameters of images to be displayed on the respective display units by using pull-down menus 810-1 to 810-3. In the present embodiment, a frame interval Δn and a time interval corresponding to each frame interval are displayed in a selectable manner. In this embodiment, the time and the number of frames are displayed. However, only the selectable time or the selectable number of frames may be displayed. Here, the image displayed on any one of the image display units 802-1 to 802-3 may be a moving image displayed by switching the motion contrast image, and the difference in luminance value at different frame intervals is presented to the user in an easily understandable manner. Is possible. Furthermore, a translucent image may be displayed in a superimposed manner, and the user can easily check the change site by adjusting the transparency using a slider bar or the like (not shown). Furthermore, a composite image in which a blood vessel with a slow blood flow velocity and a blood vessel with a fast blood flow are color-coded (which may be hatched) may be generated from motion contrast images at different frame intervals and presented to the user. By this method, it is not necessary for the user to switch images, and the blood flow velocity distribution can be easily confirmed.

このように、AOSLOでフレームインターバルを変更しモーションコントラスト画像を取得することにより、種々の血流速のモーションコントラスト画像を容易に比較することが可能となる。   Thus, by changing the frame interval with AOSLO and acquiring motion contrast images, it becomes possible to easily compare motion contrast images of various blood flow velocities.

なお、瞬きなどによりAOSLO撮影に失敗している無効フレームが含まれる場合、フレームインターバルが指定の値に保たれるような組み合わせを選択するのが望ましい。このことにより、異なる血流速のモーションコントラストの混在を除外することが可能である。   Note that when an invalid frame in which AOSLO imaging has failed due to blinking or the like is included, it is desirable to select a combination that maintains the frame interval at a specified value. This makes it possible to exclude a mixture of motion contrasts with different blood flow velocities.

また、本実施形態では暗視野撮影画像501を用いたが、AOSLOの共焦点画像が輝度の高い場合などには共焦点画像を用いることもでき、よりコントラストの高いAOSLOのモーションコントラスト画像が作成可能である。   In this embodiment, the dark-field captured image 501 is used. However, when the AOSLO confocal image has high brightness, a confocal image can be used, and a higher-contrast AOSLO motion contrast image can be created. It is.

[実施形態2]
図9のフローチャートを用いて、本発明を適用した実施形態1とは異なる形態の眼底撮影装置の制御方法の例について説明する。本実施形態において、基本的な装置構成や撮影の基本的なフローは実施形態1と同様であるが、画像生成部400のモーションコントラスト画像生成の処理が異なり、血流が定常的ではない場合に特に効果を発揮する。
[Embodiment 2]
An example of a method for controlling the fundus imaging apparatus having a different form from the first embodiment to which the present invention is applied will be described with reference to the flowchart of FIG. In the present embodiment, the basic apparatus configuration and the basic flow of photographing are the same as those in the first embodiment, but when the process of motion contrast image generation of the image generation unit 400 is different and blood flow is not steady. Especially effective.

ステップS900からS901までは実施形態1と同様である。ステップS902において、制御部300は位置合わせされた一連の画像から公知の画像処理を実施して血管領域を抽出する。血管領域の抽出には、共焦点画像や暗視野撮影画像のエッジ検出等を用いるのが望ましい。ステップS903において、制御部300は抽出された血管領域以外を画像処理の対象外とするマスク処理を行う。   Steps S900 to S901 are the same as those in the first embodiment. In step S902, the control unit 300 extracts a blood vessel region by performing known image processing from a series of aligned images. For extraction of the blood vessel region, it is desirable to use edge detection of a confocal image or a dark-field image. In step S903, the control unit 300 performs a mask process that excludes the extracted blood vessel region from the image processing target.

ステップS904において、画像処理の対象領域ROIを設定する。本実施形態では、ROIとして血管の分枝1本に沿った領域を選択する。ステップS905以降では、制御部300の制御の下に画像生成部400で、選択されたROIにおいてフレームインターバルを順次変えてモーションコントラスト画像を生成する。まず、ステップS905でフレームインターバルを設定し、次にステップS906においてモーションコントラスト画像を生成し、ステップS907で記憶部にモーションコントラスト画像を記憶する。なお、自動的にROIを設定する場合について記載したが、ユーザーからの指示に基づきROIを設定する構成としてもよい。   In step S904, a target region ROI for image processing is set. In this embodiment, a region along one branch of a blood vessel is selected as the ROI. In step S905 and subsequent steps, under the control of the control unit 300, the image generation unit 400 generates a motion contrast image by sequentially changing the frame intervals in the selected ROI. First, a frame interval is set in step S905, then a motion contrast image is generated in step S906, and the motion contrast image is stored in the storage unit in step S907. Although the case where the ROI is automatically set has been described, the ROI may be set based on an instruction from the user.

ステップS908において、制御部300は、すべてのフレームインターバルの条件が完了したかを判断し、まだ完了していない場合にはS921で次のインターバル条件を選択し、ステップS905に戻る。一方、すべてのフレームインターバルの条件が完了した場合には、S909で記憶部に記憶された一連のモーションコントラスト画像の評価を行い、ステップS910において、ステップS909の評価結果に基づき最良のモーションコントラスト画像を記憶する。ここで、最良のモーションコントラスト画像とは、最もコントラストが高くなるモーションコントラスト画像のことである。この時、記憶部に最良のモーションコントラスト画像と、その画像に関連づけられてフレームインターバルが記憶される。   In step S908, the control unit 300 determines whether all frame interval conditions have been completed. If not, the control unit 300 selects the next interval condition in step S921, and returns to step S905. On the other hand, when all the frame interval conditions are completed, a series of motion contrast images stored in the storage unit is evaluated in S909, and the best motion contrast image is obtained in step S910 based on the evaluation result in step S909. Remember. Here, the best motion contrast image is a motion contrast image with the highest contrast. At this time, the best motion contrast image and the frame interval associated with the image are stored in the storage unit.

ステップS911において、制御部300は、すべてのROIが完了したかを判断し、まだの場合にはステップS922で次のROIを選択し、ステップS904に戻る。一方、すべてのROIを完了した場合には、ステップS912において、制御部300の制御の下に画像生成部400は最良のモーションコントラスト画像の合成を行う。   In step S911, the control unit 300 determines whether all ROIs are completed. If not, the control unit 300 selects the next ROI in step S922 and returns to step S904. On the other hand, when all the ROIs are completed, the image generation unit 400 synthesizes the best motion contrast image under the control of the control unit 300 in step S912.

合成された最良のモーションコントラスト画像は、各々に関連づけられたフレームインターバルに基づき識別可能に色分けされたのち表示制御部500に送られ、画面等に提示される。本手法により、血流速の異なる血管が混在するAOSLO画像から効率よくモーションコントラスト画像を生成し、ユーザーに提示することが可能である。   The synthesized best motion contrast image is color-coded so as to be identifiable based on the frame interval associated therewith, and then sent to the display control unit 500 to be presented on a screen or the like. By this method, it is possible to efficiently generate a motion contrast image from an AOSLO image in which blood vessels with different blood flow rates are mixed and present it to the user.

なお、血管の分枝に沿って血流速の異なる血管513では、モーションコントラスト画像を生成するROIの選択方法を血管瘤とそれ以外の領域で分割することも可能である。血管流の選択は、入力デバイスを用いてユーザーが選択できるようにしても良く、あるいは異なるフレームインターバルでのモーションコントラスト画像を比較することで自動的に選択できるようにしても良い。   Note that in a blood vessel 513 having different blood flow velocities along the branch of the blood vessel, the ROI selection method for generating a motion contrast image can be divided into a blood vessel aneurysm and other regions. The vascular flow may be selected by the user using an input device, or may be automatically selected by comparing motion contrast images at different frame intervals.

[実施形態3]
図10のフローチャートを用いて、本発明を適用した実施形態1、2とは異なる形態の眼底撮影装置の制御方法の例について説明する。本実施形態において、基本的な装置構成や撮影の基本的なフローは実施形態1と同様であるが、画像生成部400のモーションコントラスト画像生成の処理が異なり、血流が定常的ではない場合に特に効果を発揮する。
[Embodiment 3]
An example of a method for controlling the fundus imaging apparatus having a different form from the first and second embodiments to which the present invention is applied will be described using the flowchart of FIG. In the present embodiment, the basic apparatus configuration and the basic flow of photographing are the same as those in the first embodiment, but when the process of motion contrast image generation of the image generation unit 400 is different and blood flow is not steady. Especially effective.

図10において、ステップS900からS903までは実施形態2と同様である。なお、本実施形態においては、ステップS902における血管領域の抽出は、例えばユーザーが入力デバイスを用いて指定する領域に基づいて血管領域を抽出するような方法に変更しても良い。また、以下ではフレームインターバルΔn=1に設定されているものとする。   In FIG. 10, steps S900 to S903 are the same as those in the second embodiment. In the present embodiment, the extraction of the blood vessel region in step S902 may be changed to a method of extracting the blood vessel region based on the region specified by the user using the input device, for example. In the following, it is assumed that the frame interval Δn = 1 is set.

ステップS1004において、制御部300の制御の下に画像生成部400は、n番目とn+1番目の画像を用いたモーションコントラスト画像を生成する。次に、ステップS1005において、制御部300は、モーションコントラスト画像のコントラスト値を計算し、あらかじめ設定され記憶部に記憶されているしきい値と比較を行う。モーションコントラスト画像のコントラスト値がしきい値よりも高く、すなわち良好なモーションコントラスト画像が生成されていると判断される場合、ステップS1006で当該のモーションコントラスト画像と撮影順nを記憶部に記憶する。そののち、ステップS1007において、制御部300は、撮影順nが最大数に達しているかを判断する。一方、ステップS1005においてモーションコントラスト画像のコントラスト値がしきい値よりも低い場合、ステップS1007において、撮影順nが最大数に達しているかを判断する。   In step S1004, under the control of the control unit 300, the image generation unit 400 generates a motion contrast image using the nth and n + 1th images. Next, in step S1005, the control unit 300 calculates the contrast value of the motion contrast image, and compares it with a threshold value set in advance and stored in the storage unit. When it is determined that the contrast value of the motion contrast image is higher than the threshold value, that is, a good motion contrast image is generated, the motion contrast image and the imaging order n are stored in the storage unit in step S1006. After that, in step S1007, the control unit 300 determines whether the imaging order n has reached the maximum number. On the other hand, if the contrast value of the motion contrast image is lower than the threshold value in step S1005, it is determined in step S1007 whether the imaging order n has reached the maximum number.

ステップS1007では、n=1からN−2の値まではステップS1010でnをインクリメントしてS1004に戻り、n=N−1に達した段階でステップS1008に移る。   In step S1007, from n = 1 to a value of N-2, n is incremented in step S1010 and the process returns to S1004. When n = N-1, the process proceeds to step S1008.

図7(c)に、血管512をROIとした場合に記憶される撮影順nを模式的に示す。AOSLOの画像に血球521が写る撮影順n=k、k+1、k+2およびその前後の撮影順を含む撮影順が記憶される。ステップS1008において、ステップS1006で記憶されたモーションコントラスト画像と撮影順nに基づき、制御部300の制御の下に画像生成部400は、モーションコントラスト画像を合成する。   FIG. 7C schematically shows the imaging order n stored when the blood vessel 512 is an ROI. The imaging order including the imaging order n = k, k + 1, k + 2 in which the blood cell 521 appears in the AOSLO image and the imaging order before and after that is stored. In step S1008, the image generation unit 400 synthesizes the motion contrast image under the control of the control unit 300 based on the motion contrast image stored in step S1006 and the shooting order n.

本手法を用いることにより、LPPなどの間欠的に血球が通過する血管における血流速を効率的に可視化することが可能となる。   By using this method, it becomes possible to efficiently visualize the blood flow velocity in a blood vessel through which blood cells intermittently pass, such as LPP.

[実施形態4]
図7(d)の模式図を用いて、本発明を適用した実施形態1とは異なる形態の眼底撮影装置の制御方法の例について説明する。本実施形態において、基本的な装置構成や撮影の基本的なフローは実施形態1と同様であるが、AOSLO画像の組み合わせ方法が異なり、血流が定常的な場合には特にモーションコントラスト画像の画質向上に効果を発揮する。
[Embodiment 4]
With reference to the schematic diagram of FIG. 7D, an example of a method for controlling the fundus imaging apparatus having a different form from the first embodiment to which the present invention is applied will be described. In this embodiment, the basic apparatus configuration and the basic flow of imaging are the same as those in the first embodiment, but the combination method of AOSLO images is different, and the image quality of motion contrast images is particularly great when blood flow is steady. Effective for improvement.

フレームインターバルΔnが1より大きい場合、AOSLOで取得された一連の画像のうち、組み合わせから外れる画像が生じることがある。一般には、異なる血流速のモーションコントラスト画像が混入することを防ぐため、フレームインターバルが指定の値に保たれるような組み合わせを選択するのが望ましい。しかし、フレームレートに対して血流速が速く、血流が定常的と判断できる場合、図7(d)に模式的に示す方法で、モーションコントラスト画像の画質を向上させることが可能である。   When the frame interval Δn is larger than 1, an image out of the combination may occur in a series of images acquired by AOSLO. In general, in order to prevent motion contrast images with different blood flow velocities from being mixed, it is desirable to select a combination that maintains the frame interval at a specified value. However, when the blood flow rate is fast with respect to the frame rate and the blood flow can be determined to be steady, the image quality of the motion contrast image can be improved by the method schematically shown in FIG.

図7(d)は、AOSLOで取得されたN枚の連続する画像について、n=Nまで撮影順に画像を並べたのち、再度n=1の画像から並べる状況を模式的に示したものである。便宜上、これらの仮想的な画像の撮影順をn=N+1、N+2、・・・と表す。フレームインターバルΔnが1より大きく、かつ血流が定常的と判断できる場合、n>Nとなる画像も含めた組み合わせで、モーションコントラスト画像を生成することで、画質を向上させることが可能である。   FIG. 7D schematically shows a situation where N consecutive images acquired by AOSLO are arranged in order of photographing until n = N, and then arranged again from the image of n = 1. . For convenience, the imaging order of these virtual images is represented as n = N + 1, N + 2,. When the frame interval Δn is larger than 1 and it can be determined that the blood flow is steady, it is possible to improve the image quality by generating a motion contrast image with a combination including an image where n> N.

[その他の実施形態]
上述の実施形態においては、AOSLOによるモーションコントラストを説明したが、本発明の適用はこれだけに限らない。例えば、AOを用いた眼底カメラや、ソフトウェアで収差の影響を除去した血流計測機であれば、同様に本発明が適用可能である。
[Other Embodiments]
In the above-described embodiment, the motion contrast by AOSLO has been described, but the application of the present invention is not limited to this. For example, the present invention can be similarly applied to a fundus camera using AO or a blood flow measuring device from which the influence of aberration is removed by software.

また、上述した実施形態では、測定対象が眼の場合について述べているが、眼以外の皮膚や臓器等の被検査物に本発明を適用することも可能である。この場合、本発明は眼科撮影装置以外の、例えば内視鏡等の医療機器としての態様を有する。従って、本発明は眼科撮影装置に例示される画像処理装置として把握され、被検眼は測定物の一態様として把握されることが好ましい。   In the above-described embodiments, the case where the measurement target is the eye is described. However, the present invention can also be applied to an inspection object such as a skin or an organ other than the eye. In this case, the present invention has an aspect as a medical device such as an endoscope other than the ophthalmologic photographing apparatus. Therefore, it is preferable that the present invention is grasped as an image processing apparatus exemplified by an ophthalmologic photographing apparatus, and the eye to be examined is grasped as one aspect of the measurement object.

Claims (12)

測定対象に測定光を照射することにより得られる前記測定光の戻り光に基づいて生成される前記測定対象の複数の画像を用いて、モーションコントラスト画像を取得する画像処理装置であって、
複数の画像の間隔を設定する設定手段と、
前記設定された間隔に基づいた複数の画像を用いてモーションコントラスト画像を生成する生成手段と、
前記生成されたモーションコントラスト画像を出力手段へ出力する制御手段とを有することを特徴とする画像処理装置。
An image processing apparatus that acquires a motion contrast image using a plurality of images of the measurement target generated based on return light of the measurement light obtained by irradiating the measurement target with measurement light,
Setting means for setting the interval between a plurality of images;
Generating means for generating a motion contrast image using a plurality of images based on the set interval;
An image processing apparatus comprising: control means for outputting the generated motion contrast image to output means.
前記設定手段が、複数の間隔を設定し、
前記生成手段が、設定された複数の間隔のそれぞれに基づいた複数の画像を用いて、前記複数の間隔にそれぞれ対応した複数のモーションコントラスト画像を生成することを特徴とする請求項1に記載の画像処理装置。
The setting means sets a plurality of intervals;
2. The generation unit according to claim 1, wherein the generation unit generates a plurality of motion contrast images respectively corresponding to the plurality of intervals using a plurality of images based on the plurality of set intervals. Image processing device.
前記出力手段が表示手段であり、
前記表示手段が、前記生成手段が生成した前記複数の間隔にそれぞれ対応した複数のモーションコントラスト画像を並べて表示することを特徴とする請求項2に記載の画像処理装置。
The output means is a display means;
The image processing apparatus according to claim 2, wherein the display unit displays a plurality of motion contrast images respectively corresponding to the plurality of intervals generated by the generation unit.
前記複数の間隔にそれぞれ対応した複数のモーションコントラスト画像を評価する評価手段を更に有することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising an evaluation unit that evaluates a plurality of motion contrast images respectively corresponding to the plurality of intervals. 前記モーションコントラスト画像から血管領域を抽出する抽出手段と、
前記複数の間隔にそれぞれ対応した複数のモーションコントラスト画像から抽出された血管領域を合成する合成手段とを更に有することを特徴とする請求項2に記載の画像処理装置。
Extracting means for extracting a blood vessel region from the motion contrast image;
The image processing apparatus according to claim 2, further comprising a synthesizing unit that synthesizes blood vessel regions extracted from a plurality of motion contrast images respectively corresponding to the plurality of intervals.
前記間隔は、時間間隔及びフレーム数の少なくとも一方を含むことを特徴とする請求項2乃至5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the interval includes at least one of a time interval and a frame number. 前記合成手段は、前記抽出された血管領域を、当該血管領域が抽出された間隔が識別可能な形態で合成することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the synthesizing unit synthesizes the extracted blood vessel region in a form in which an interval at which the blood vessel region is extracted can be identified. モーションコントラスト画像を生成する対象領域を設定する手段を更に有し、
前記生成手段は、前記設定された対象領域のモーションコントラスト画像を生成することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
Means for setting a target area for generating a motion contrast image;
The image processing apparatus according to claim 1, wherein the generation unit generates a motion contrast image of the set target area.
前記複数の画像が、AOSLO画像であることを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of images are AOSLO images. 前記設定手段により設定される複数の間隔は、異なるフレーム数及び/又は異なる時間で設定されることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the plurality of intervals set by the setting unit are set with different numbers of frames and / or different times. 所定の間隔で取得される複数の画像から、前記生成手段により前記モーションコントラスト画像を生成する際に使用する複数の画像を抽出する手段を更に有することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。   11. The apparatus according to claim 1, further comprising means for extracting a plurality of images used when the motion contrast image is generated by the generation means from a plurality of images acquired at predetermined intervals. The image processing apparatus according to item 1. 測定対象に測定光を照射することにより得られる前記測定光の戻り光に基づいて生成される前記測定対象の複数の画像を用いて、モーションコントラスト画像を取得する画像処理装置の制御方法であって、
複数の画像の間隔を設定する設定工程と、
前記設定された間隔に基づいた複数の画像を用いてモーションコントラスト画像を生成する生成工程と、
前記生成されたモーションコントラスト画像を出力手段へ出力する制御工程とを有することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus that acquires a motion contrast image using a plurality of images of the measurement target generated based on return light of the measurement light obtained by irradiating the measurement target with measurement light. ,
A setting step for setting the interval between a plurality of images;
Generating a motion contrast image using a plurality of images based on the set interval;
And a control step of outputting the generated motion contrast image to an output unit.
JP2018084270A 2018-04-25 2018-04-25 Image processing device and its control method Active JP7102208B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018084270A JP7102208B2 (en) 2018-04-25 2018-04-25 Image processing device and its control method
JP2022108767A JP7459176B2 (en) 2018-04-25 2022-07-06 Image processing device, control method and program for the image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018084270A JP7102208B2 (en) 2018-04-25 2018-04-25 Image processing device and its control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022108767A Division JP7459176B2 (en) 2018-04-25 2022-07-06 Image processing device, control method and program for the image processing device

Publications (2)

Publication Number Publication Date
JP2019187798A true JP2019187798A (en) 2019-10-31
JP7102208B2 JP7102208B2 (en) 2022-07-19

Family

ID=68388200

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018084270A Active JP7102208B2 (en) 2018-04-25 2018-04-25 Image processing device and its control method
JP2022108767A Active JP7459176B2 (en) 2018-04-25 2022-07-06 Image processing device, control method and program for the image processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022108767A Active JP7459176B2 (en) 2018-04-25 2022-07-06 Image processing device, control method and program for the image processing device

Country Status (1)

Country Link
JP (2) JP7102208B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111436905A (en) * 2020-04-03 2020-07-24 北京图湃影像科技有限公司 Optical coherence tomography angiography method and device
WO2021070846A1 (en) 2019-10-11 2021-04-15 株式会社アマダ Bending work system and greasing unit

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080007693A1 (en) * 2006-05-18 2008-01-10 David Williams Method and apparatus for imaging in an eye
JP2013176637A (en) * 2002-03-20 2013-09-09 Novadaq Technologies Inc Device and system for visualizing fluid flow through vessel
JP2016086842A (en) * 2014-10-29 2016-05-23 キヤノン株式会社 Image processing system and image processing method
JP2016106652A (en) * 2014-12-02 2016-06-20 株式会社ニデック Optical coherence tomography apparatus and control program for use in the same
JP2016209147A (en) * 2015-04-30 2016-12-15 株式会社ニデック Fundus image processing device and fundus image processing program
JP2017077413A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017127506A (en) * 2016-01-21 2017-07-27 キヤノン株式会社 Image forming method and apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5867720B2 (en) * 2012-03-29 2016-02-24 株式会社トプコン Image display device, image display method, and program
US9984459B2 (en) * 2015-04-15 2018-05-29 Kabushiki Kaisha Topcon OCT angiography calculation with optimized signal processing
JP6703730B2 (en) * 2016-06-16 2020-06-03 株式会社ニデック Optical coherence tomography device and optical coherence tomography control program
JP6828295B2 (en) * 2016-08-01 2021-02-10 株式会社ニデック Optical coherence tomography equipment and optical coherence tomography control program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013176637A (en) * 2002-03-20 2013-09-09 Novadaq Technologies Inc Device and system for visualizing fluid flow through vessel
US20080007693A1 (en) * 2006-05-18 2008-01-10 David Williams Method and apparatus for imaging in an eye
JP2016086842A (en) * 2014-10-29 2016-05-23 キヤノン株式会社 Image processing system and image processing method
JP2016106652A (en) * 2014-12-02 2016-06-20 株式会社ニデック Optical coherence tomography apparatus and control program for use in the same
JP2016209147A (en) * 2015-04-30 2016-12-15 株式会社ニデック Fundus image processing device and fundus image processing program
JP2017077413A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017127506A (en) * 2016-01-21 2017-07-27 キヤノン株式会社 Image forming method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070846A1 (en) 2019-10-11 2021-04-15 株式会社アマダ Bending work system and greasing unit
CN111436905A (en) * 2020-04-03 2020-07-24 北京图湃影像科技有限公司 Optical coherence tomography angiography method and device
CN111436905B (en) * 2020-04-03 2024-03-19 图湃(北京)医疗科技有限公司 Optical coherence tomography angiography method and device

Also Published As

Publication number Publication date
JP7459176B2 (en) 2024-04-01
JP2022133399A (en) 2022-09-13
JP7102208B2 (en) 2022-07-19

Similar Documents

Publication Publication Date Title
JP5901124B2 (en) Imaging apparatus and control method thereof
JP7459176B2 (en) Image processing device, control method and program for the image processing device
CN108697320B (en) Information processing apparatus
JP6776076B2 (en) OCT device
JP2017136215A (en) Ophthalmologic apparatus and ophthalmologic examination system
JP2016127900A (en) Optical tomographic imaging device, control method of the same, and program
JP7348374B2 (en) Ophthalmology information processing device, ophthalmology imaging device, ophthalmology information processing method, and program
JP2019201952A (en) Imaging apparatus and control method thereof
JP2019037646A (en) Ophthalmologic apparatus
JP7096392B2 (en) Ophthalmic equipment
JP6431400B2 (en) Ophthalmic imaging apparatus and ophthalmic apparatus
JP2018033717A (en) Ophthalmological device
JP6923393B2 (en) Ophthalmic device and its control method
JP2020048730A (en) Blood flow measuring device
JP6637743B2 (en) Ophthalmic equipment
JP2017136217A (en) Ophthalmologic apparatus and ophthalmologic examination system
US10905323B2 (en) Blood flow measurement apparatus
JP2020031873A (en) Ophthalmologic apparatus, control method thereof, program, and recording medium
JP6736304B2 (en) Ophthalmic imaging device
JP6431399B2 (en) Ophthalmic imaging equipment
JP2018143427A (en) Ophthalmologic apparatus, and control method and program of apparatus
WO2022177028A1 (en) Image processing method, image processing device, and program
WO2019198629A1 (en) Image processing device and control method for same
JP2022075732A (en) Ophthalmologic apparatus and ophthalmologic information processing program
JP2021094457A (en) Ophthalmic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R151 Written notification of patent or utility model registration

Ref document number: 7102208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151