JP2017202369A - Ophthalmologic image processing device - Google Patents

Ophthalmologic image processing device Download PDF

Info

Publication number
JP2017202369A
JP2017202369A JP2017160229A JP2017160229A JP2017202369A JP 2017202369 A JP2017202369 A JP 2017202369A JP 2017160229 A JP2017160229 A JP 2017160229A JP 2017160229 A JP2017160229 A JP 2017160229A JP 2017202369 A JP2017202369 A JP 2017202369A
Authority
JP
Japan
Prior art keywords
image
unit
blood vessel
region
blood flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017160229A
Other languages
Japanese (ja)
Other versions
JP6646021B2 (en
Inventor
俊輔 中村
Shunsuke Nakamura
俊輔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017160229A priority Critical patent/JP6646021B2/en
Publication of JP2017202369A publication Critical patent/JP2017202369A/en
Application granted granted Critical
Publication of JP6646021B2 publication Critical patent/JP6646021B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To facilitate a setting for an object region in blood flow measurement, and shorten the time for the setting.SOLUTION: An ophthalmologic image processing device according to an embodiment comprises a data processing unit. The data processing unit processes an image acquired from a subject eye by using an optical coherence tomography (OCT) optical system. On the basis of an image including an image region corresponding to the blood vessel of the subject eye, the data processing unit generates information indicating whether the blood vessel is an arteria or a vein.SELECTED DRAWING: Figure 4

Description

この発明は眼科画像処理装置に関する。   The present invention relates to an ophthalmic image processing apparatus.

光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)は、対象の形態の計測だけでなく、その機能の計測にも利用される。例えば、OCTを用いて生体の血流計測を行うための装置が知られている。OCTを用いた血流計測は、眼底血管などに応用されている。   Optical coherence tomography (OCT) is used not only for measuring the form of an object but also for measuring its function. For example, an apparatus for measuring blood flow of a living body using OCT is known. Blood flow measurement using OCT is applied to fundus blood vessels and the like.

特開2013−184018号公報JP2013-184018A 特開2009−165710号公報JP 2009-165710 A 特表2010−523286号公報Special table 2010-523286

血流計測は、脈波が明瞭に得られる部位を対象とすることが望ましい。典型的には、計測対象の血管は、好適なドップラー信号が得られる向きに位置する動脈であることが望ましい。動脈の探索は、現状、次のような方法で行われている。第1の方法では、所望の血管を横切る断面をユーザが指定し、その血管の血流計測を実行し、得られたデータを解析してその血管が動脈であるか判定する。この方法では、血管の選択、断面の指定、血流計測、データ解析という一連の処理を、適当な動脈が見つかるまで繰り返さなくてはならず、時間や手間が掛かってしまう。   It is desirable for blood flow measurement to target a region where a pulse wave can be clearly obtained. Typically, it is desirable that the blood vessel to be measured is an artery located in a direction in which a suitable Doppler signal can be obtained. The search for arteries is currently performed by the following method. In the first method, a user designates a cross section that crosses a desired blood vessel, performs blood flow measurement of the blood vessel, analyzes the obtained data, and determines whether the blood vessel is an artery. In this method, a series of processes such as blood vessel selection, cross-section designation, blood flow measurement, and data analysis must be repeated until an appropriate artery is found, which takes time and effort.

第2の方法ではライブOCTが用いられる。ライブOCTは、生体の一断面を所定の反復レートで繰り返しスキャンし、それにより得られるデータに基づく動画像をリアルタイムで表示する画像化法である。本方法では、所望の血管を横切る断面の形態画像と位相画像とが動画表示される。位相画像において、動脈は明暗が周期的にかつ比較的大きく変化する領域として表現され、静脈は明暗の変化が比較的小さい領域として表現される。ユーザは、位相画像を観察することで、当該血管が動脈か静脈か判定する。この判定はユーザの経験に頼るものであり、正確性や再現性に劣る。更に、血管の選択、断面の指定、血流計測、観察による判定という一連の処理を、適当な動脈が見つかるまで繰り返さなくてはならない。   In the second method, live OCT is used. Live OCT is an imaging method in which a section of a living body is repeatedly scanned at a predetermined repetition rate, and a moving image based on data obtained thereby is displayed in real time. In this method, a morphological image and a phase image of a cross section crossing a desired blood vessel are displayed as a moving image. In the phase image, the arteries are represented as areas where the light and dark changes periodically and relatively large, and the veins are represented as areas where the light and dark changes are relatively small. The user determines whether the blood vessel is an artery or a vein by observing the phase image. This determination relies on the user's experience and is inferior in accuracy and reproducibility. Furthermore, a series of processes such as selection of a blood vessel, designation of a cross section, measurement of blood flow, and determination by observation must be repeated until an appropriate artery is found.

特に、眼底の血流計測を行う場合には、視認性の悪い赤外観察像を用いるのが一般的であるため、血管の選択も容易ではない。   In particular, when blood flow measurement of the fundus is performed, since it is common to use an infrared observation image with poor visibility, it is not easy to select blood vessels.

この発明の目的の1つは、血流計測の対象部位の設定の容易化及び短時間化を図ることにある。   One of the objects of the present invention is to facilitate the setting of a target site for blood flow measurement and to shorten the time.

実施形態は、光コヒーレンストモグラフィ(OCT)光学系を用いて被検眼から取得された画像を処理するデータ処理部を含む眼科画像処理装置であって、データ処理部は、被検眼の血管に対応する画像領域を含む画像に基づいて血管が動脈であるか静脈であるかを示す情報を生成することを特徴とする。   The embodiment is an ophthalmic image processing apparatus including a data processing unit that processes an image acquired from an eye to be examined using an optical coherence tomography (OCT) optical system, and the data processing unit corresponds to a blood vessel of the eye to be examined. Information indicating whether a blood vessel is an artery or a vein is generated based on an image including an image region to be processed.

実施形態によれば、血流計測の対象部位の設定の容易化及び短時間化を図ることが可能である。   According to the embodiment, it is possible to facilitate the setting of the target site for blood flow measurement and to shorten the time.

実施形態に係る血流計測装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a blood flow measuring device concerning an embodiment. 実施形態に係る血流計測装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a blood flow measuring device concerning an embodiment. 実施形態に係る血流計測装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a blood flow measuring device concerning an embodiment. 実施形態に係る血流計測装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a blood flow measuring device concerning an embodiment. 実施形態に係る血流計測装置の動作の一例を説明するための概略図である。It is the schematic for demonstrating an example of operation | movement of the blood-flow measuring device which concerns on embodiment. 実施形態に係る血流計測装置の動作の一例を説明するための概略図である。It is the schematic for demonstrating an example of operation | movement of the blood-flow measuring device which concerns on embodiment. 実施形態に係る血流計測装置の動作の一例を説明するための概略図である。It is the schematic for demonstrating an example of operation | movement of the blood-flow measuring device which concerns on embodiment. 実施形態に係る血流計測装置の動作の一例を説明するための概略図である。It is the schematic for demonstrating an example of operation | movement of the blood-flow measuring device which concerns on embodiment. 実施形態に係る血流計測装置の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of the blood-flow measuring device which concerns on embodiment. 実施形態に係る血流計測装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a blood flow measuring device concerning an embodiment. 実施形態に係る血流計測装置の動作の一例を説明するための概略図である。It is the schematic for demonstrating an example of operation | movement of the blood-flow measuring device which concerns on embodiment. 実施形態に係る血流計測装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of a blood flow measuring device concerning an embodiment.

実施形態に係る血流計測装置について図面を参照しながら詳細に説明する。実施形態の血流計測装置は、OCTを用いて生体の断層像や3次元画像を形成する。本明細書に記載の引用文献の内容を実施形態に援用することができる。   A blood flow measurement device according to an embodiment will be described in detail with reference to the drawings. The blood flow measurement device according to the embodiment forms a tomographic image or a three-dimensional image of a living body using OCT. The contents of the cited references described in this specification can be incorporated into the embodiments.

以下の実施形態では、フーリエドメインOCT(特にスペクトラルドメインOCT)を用いて生体眼の眼底を計測することが可能な血流計測装置について説明する。OCTのタイプはスペクトラルドメインには限定されず、例えばスウェプトソースOCTであってよい。実施形態の血流計測装置はOCT装置と眼底カメラを組み合わせた装置であるが、眼底カメラ以外の眼底撮影装置とOCT装置とを組み合わせてもよい。そのような眼底撮影装置の例として、SLO(Scanning Laser Ophthalmoscope)、スリットランプ、眼科手術用顕微鏡などがある。なお、実施形態の血流計測装置は、一般に、OCT機能を具備していれば十分である。   In the following embodiments, a blood flow measurement device capable of measuring the fundus of a living eye using Fourier domain OCT (particularly, spectral domain OCT) will be described. The type of OCT is not limited to the spectral domain, and may be, for example, swept source OCT. The blood flow measurement device according to the embodiment is a device in which an OCT device and a fundus camera are combined, but a fundus imaging device other than the fundus camera and an OCT device may be combined. Examples of such a fundus imaging apparatus include SLO (Scanning Laser Ophthalmoscope), a slit lamp, and a microscope for ophthalmic surgery. In general, the blood flow measuring device of the embodiment is sufficient if it has an OCT function.

〈第1実施形態〉
[構成]
図1に示すように、血流計測装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2は、眼底を撮影して正面画像を取得するための光学系を備える。この光学系は、従来の眼底カメラのそれとほぼ同様である。OCTユニット100は、眼底のOCTを行ってデータを取得するための光学系を備える。演算制御ユニット200は、各種の演算や制御を実行するコンピュータを備える。
<First Embodiment>
[Constitution]
As shown in FIG. 1, the blood flow measurement device 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The fundus camera unit 2 includes an optical system for photographing the fundus and acquiring a front image. This optical system is almost the same as that of a conventional fundus camera. The OCT unit 100 includes an optical system for acquiring data by performing OCT of the fundus. The arithmetic control unit 200 includes a computer that executes various calculations and controls.

(眼底カメラユニット2)
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像としては観察画像や撮影画像がある。観察画像は、例えば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、例えば、可視光をフラッシュ発光して得られるカラー画像、又は、近赤外光若しくは可視光を照明光として用いたモノクロの静止画像である。眼底カメラユニット2は、これら以外の画像、例えばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能であってよい。
(Fundus camera unit 2)
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined. There are observation images and photographed images as fundus images. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. The captured image is, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.

眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの測定光を眼底Efに導くとともに、眼底Efからの測定光の戻り光をOCTユニット100に導く。   The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38). The imaging optical system 30 guides the measurement light from the OCT unit 100 to the fundus oculi Ef and guides the return light of the measurement light from the fundus oculi Ef to the OCT unit 100.

照明光学系10の観察光源11は、例えばハロゲンランプ又はLED(Light Emitting Diode)を含む。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。   The observation light source 11 of the illumination optical system 10 includes, for example, a halogen lamp or an LED (Light Emitting Diode). The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射され、ハーフミラー40を透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。   The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. 31, reflected by the mirror 32, transmitted through the half mirror 40, reflected by the dichroic mirror 33, and imaged on the light receiving surface of the CCD image sensor 35 by the condenser lens 34. The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system 30 is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.

撮影光源15は、例えばキセノンランプ又はLEDを含む。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。   The imaging light source 15 includes, for example, a xenon lamp or an LED. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. On the display device 3, an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT時などに使用される。LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。   An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT. By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed.

LCD39から出力された光は、その一部がハーフミラー40にて反射され、ミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   A part of the light output from the LCD 39 is reflected by the half mirror 40, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and is dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。   Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in a conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投影される。   The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the aperture mirror 21, and reaches the dichroic mirror 46. And is projected onto the eye E by the objective lens 22.

アライメント光の戻り光はCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(アライメント指標像)は、観察画像とともに表示される。ユーザは、従来の眼底カメラと同様に、アライメント指標像を参照しつつアライメントを実施することができる。また、演算制御ユニット200がアライメント指標像の位置を解析して光学系を移動させることによりアライメントを行うこともできる(オートアライメント機能)。   The return light of the alignment light is detected by the CCD image sensor 35. The light reception image (alignment index image) by the CCD image sensor 35 is displayed together with the observation image. The user can perform the alignment while referring to the alignment index image, similarly to the conventional fundus camera. The arithmetic control unit 200 can also perform alignment by analyzing the position of the alignment index image and moving the optical system (auto alignment function).

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

フォーカス光の戻り光はCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標像)は、観察画像及びアライメント指標像とともに表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行うことができる(オートフォーカス機能)。また、スプリット指標像の位置を参照しつつ手動でピント合わせを行ってもよい。   The return light of the focus light is detected by the CCD image sensor 35. The light reception image (split index image) by the CCD image sensor 35 is displayed together with the observation image and the alignment index image. The arithmetic control unit 200 can perform focusing by analyzing the position of the split index and moving the focusing lens 31 and the focus optical system 60 in the same manner as in the past (autofocus function). Further, manual focusing may be performed while referring to the position of the split index image.

ダイクロイックミラー46は、眼底撮影用の光路にOCT用の測定光の光路(測定光路、測定アーム)を合成する。つまり、眼底撮影用の光路と測定光路とは、ダイクロイックミラー46により同軸に構成され、ダイクロイックミラー46よりも被検眼E側の光路を共有している。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、光スキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。   The dichroic mirror 46 synthesizes the optical path of the measurement light for OCT (measurement optical path, measurement arm) with the optical path for fundus imaging. That is, the fundus photographing optical path and the measurement optical path are coaxially formed by the dichroic mirror 46 and share the optical path on the eye E side with respect to the dichroic mirror 46. The dichroic mirror 46 reflects light in a wavelength band used for OCT and transmits light for fundus photographing. In the measurement optical path, a collimator lens unit 40, an optical path length changing unit 41, an optical scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、測定光路の長さを変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、例えばコーナーキューブと、これを移動する機構とを含んで構成される。   The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1 and changes the length of the measurement optical path. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.

光スキャナ42は、測定光路を通過する測定光LSの進行方向を変化させる。それにより、眼底Efを測定光LSで走査することができる。光スキャナ42は、例えば、測定光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーとを含み、xy面上の任意の方向に測定光LSを偏向可能に構成される。   The optical scanner 42 changes the traveling direction of the measurement light LS that passes through the measurement optical path. Thereby, the fundus oculi Ef can be scanned with the measurement light LS. The optical scanner 42 includes, for example, a galvanometer mirror that scans the measurement light LS in the x direction and a galvanometer mirror that scans in the y direction, and is configured to be able to deflect the measurement light LS in an arbitrary direction on the xy plane.

(OCTユニット100)
図2を参照しつつOCTユニット100の構成例を説明する。OCTユニット100に設けられた光学系は、従来のスペクトラルドメインタイプのOCT装置と同様に、低コヒーレンス光を参照光と測定光に分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するよう構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
(OCT unit 100)
A configuration example of the OCT unit 100 will be described with reference to FIG. The optical system provided in the OCT unit 100 divides the low-coherence light into reference light and measurement light, and returns the return light and reference light path of the measurement light from the eye E as in the conventional spectral domain type OCT apparatus. The interference light is generated by causing interference with the reference light that has passed through, and the spectral component of the interference light is detected. This detection result (detection signal) is sent to the arithmetic control unit 200.

スウェプトソースタイプのOCT装置が適用される場合、低コヒーレンス光源の代わりに波長掃引光源が設けられるとともに、スペクトル成分を検出するデバイス(分光器)の代わりにバランスドフォトダイオード等が設けられる。一般に、OCTユニット100は、OCTのタイプに応じた公知の構成を備えていてよい。   When a swept source type OCT apparatus is applied, a wavelength swept light source is provided instead of a low coherence light source, and a balanced photodiode or the like is provided instead of a device (spectrometer) for detecting a spectral component. In general, the OCT unit 100 may have a known configuration corresponding to the type of OCT.

光源ユニット101は低コヒーレンス光L0(広帯域光)を出力する。低コヒーレンス光L0は、例えば、近赤外領域の波長帯(800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。或いは、1040〜1060nmの中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。   The light source unit 101 outputs low coherence light L0 (broadband light). The low coherence light L0 includes, for example, a near-infrared wavelength band (approximately 800 nm to 900 nm) and has a temporal coherence length of approximately several tens of micrometers. Alternatively, near infrared light having a center wavelength of 1040 to 1060 nm may be used as the low coherence light L0.

光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。   The light source unit 101 includes a light output device such as a super luminescent diode (SLD), an LED, or an SOA (Semiconductor Optical Amplifier).

光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて測定光LSと参照光LRに分割される。   The low coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and is divided into the measurement light LS and the reference light LR.

参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、演算制御ユニット200の制御の下、或いは手動操作により、光ファイバ104に導かれる参照光LRの光量を変更する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、光ファイバ104内を導かれる参照光LRの偏光状態を変化させる。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。   The reference light LR is guided by the optical fiber 104 and reaches the optical attenuator (attenuator) 105. The optical attenuator 105 changes the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 or by manual operation. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106. The polarization adjuster 106 changes the polarization state of the reference light LR guided through the optical fiber 104. The reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.

ファイバカプラ103により生成された測定光LSは、光ファイバ107により導かれ、コリメータレンズユニット105により平行光束とされる。更に、測定光LSは、光路長変更部41、光スキャナ42、合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、測定光LSは、ダイクロイックミラー46により反射され、対物レンズ11により屈折されて被検眼Eに入射する。測定光LSは、眼底Efの様々な深さ位置において反射・散乱される。眼底Efからの測定光LSの戻り光(後方散乱光、反射光、蛍光等)は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。   The measurement light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 105. Further, the measurement light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the optical scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. Then, the measurement light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 11, and enters the eye E to be examined. The measurement light LS is reflected and scattered at various depth positions of the fundus oculi Ef. The return light (backscattered light, reflected light, fluorescence, etc.) of the measurement light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction and is guided to the fiber coupler 103, and passes through the optical fiber 108 to the fiber coupler. 109 is reached.

ファイバカプラ109は、測定光LSの戻り光と参照光LRとを干渉させる。これにより干渉光LCが生成される。干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113によりスペクトル分解され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子118は透過型であるが、例えば反射型の回折格子など、他の形態の分光素子を用いることも可能である。   The fiber coupler 109 causes the return light of the measurement light LS and the reference light LR to interfere with each other. Thereby, the interference light LC is generated. The interference light LC is guided by the optical fiber 110 and is emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, spectrally resolved by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115. Note that the diffraction grating 118 shown in FIG. 2 is a transmission type, but other types of spectroscopic elements such as a reflection type diffraction grating can also be used.

CCDイメージセンサ115は、例えばラインセンサであり、干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。なお、CCDイメージセンサに代えて、他のイメージセンサ、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いてよい。   The CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the interference light LC and converts it into electric charges. The CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200. Instead of the CCD image sensor, another image sensor, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor may be used.

(演算制御ユニット200)
演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析してOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインOCTと同様である。
(Calculation control unit 200)
The arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image. The arithmetic processing for that is the same as the conventional spectral domain OCT.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100を制御する。眼底カメラユニット2の制御には、観察光源11、撮影光源15、LCD39、光スキャナ42、並びにLED51及び61のそれぞれの動作制御や、合焦レンズ31及び43、光路長変更部41、フォーカス光学系60、並びに反射棒67、のそれぞれの移動制御などがある。OCTユニット100の制御には、光源ユニット101、光減衰器105、偏波調整器106、及びCCDイメージセンサ120のそれぞれの動作制御などがある。   The arithmetic control unit 200 controls the fundus camera unit 2, the display device 3, and the OCT unit 100. The fundus camera unit 2 is controlled by controlling the operation of the observation light source 11, the imaging light source 15, the LCD 39, the optical scanner 42, and the LEDs 51 and 61, the focusing lenses 31 and 43, the optical path length changing unit 41, and the focus optical system. 60, as well as the movement control of each of the reflecting bars 67. Control of the OCT unit 100 includes operation control of the light source unit 101, the optical attenuator 105, the polarization adjuster 106, and the CCD image sensor 120.

演算制御ユニット200は、プロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含む。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。なお、本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。演算制御ユニット200は、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。   The arithmetic control unit 200 includes a processor, a RAM, a ROM, a hard disk drive, a communication interface, and the like. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD. In this specification, the “processor” is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or a programmable logic device (eg, SPLD (Simple LD). It means a circuit such as (Complex Programmable Logic Device) or FPGA (Field Programmable Gate Array). The arithmetic control unit 200 implements the functions according to the embodiment by reading and executing a program stored in a storage circuit or a storage device, for example.

[制御系]
血流計測装置1の制御系の構成例を図3及び図4に示す。
[Control system]
A configuration example of the control system of the blood flow measuring device 1 is shown in FIGS.

(制御部210)
制御部210は、例えば、プロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含む。制御部210には、主制御部211と記憶部212が設けられている。記憶部212は、各種のデータやコンピュータプログラムを記憶する。
(Control unit 210)
The control unit 210 includes, for example, a processor, a RAM, a ROM, a hard disk drive, a communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212. The storage unit 212 stores various data and computer programs.

主制御部211は各種制御を行う。例えば、図3に示すように、主制御部211は、眼底カメラユニット2のCCD35及び38、合焦駆動部31A、光路長変更部41、光スキャナ42、並びに合焦駆動部43Aの制御を行う。更に、主制御部211は、OCTユニット100の光源ユニット101、光減衰器105、偏波調整器106及びCCD115の制御を行う。   The main control unit 211 performs various controls. For example, as shown in FIG. 3, the main control unit 211 controls the CCDs 35 and 38, the focusing drive unit 31A, the optical path length changing unit 41, the optical scanner 42, and the focusing driving unit 43A of the fundus camera unit 2. . Further, the main control unit 211 controls the light source unit 101, the optical attenuator 105, the polarization adjuster 106, and the CCD 115 of the OCT unit 100.

合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変化する。また、合焦駆動部43Aは、合焦レンズ43を光軸方向に移動させる。それにより、測定光LSの合焦位置(OCT計測の合焦位置)が変化する。主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動することができる。この光学系の移動制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動する処理である。トラッキングの前にはアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った状態を維持する機能である。   The focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 changes. The focusing drive unit 43A moves the focusing lens 43 in the optical axis direction. As a result, the focus position of the measurement light LS (OCCT measurement focus position) changes. The main control unit 211 can move an optical system provided in the fundus camera unit 2 three-dimensionally by controlling an optical system driving unit (not shown). This movement control of the optical system is used in alignment and tracking. The tracking is a process of moving the apparatus optical system in accordance with the eye movement of the eye E. Prior to tracking, alignment and focus adjustment are performed. Tracking is a function that maintains the state of alignment and focus by causing the position of the apparatus optical system to follow the eye movement.

(画像形成部220)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層像の画像データと位相画像の画像データとを形成する。画像形成部220はプロセッサを含む。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。画像形成部220は、断層像形成部221と位相画像形成部222を有する。
(Image forming unit 220)
The image forming unit 220 forms tomographic image data and phase image data of the fundus oculi Ef based on the detection signal from the CCD image sensor 115. The image forming unit 220 includes a processor. In this specification, “image data” and “image” based thereon may be identified. The image forming unit 220 includes a tomographic image forming unit 221 and a phase image forming unit 222.

本実施形態では、血流計測の対象部位を設定するための走査(予備計測)と、予備計測の結果から設定された部位に関する血流情報を取得するための走査(血流計測)とが実行される。   In the present embodiment, scanning (preliminary measurement) for setting a target region for blood flow measurement and scanning (blood flow measurement) for acquiring blood flow information regarding the region set from the result of the preliminary measurement are executed. Is done.

予備計測では、眼底Efの複数の断面を測定光LSで反復的に走査する。複数の断面の走査は、例えば、互いに平行な複数の走査線に沿ったラスタースキャンである。ラスタースキャンの走査線の本数は例えば128本であり、それにより眼底Efの3次元領域が走査される(3次元スキャン)。なお、走査パターンや走査線の本数は本例に限定されない。   In the preliminary measurement, a plurality of cross sections of the fundus oculi Ef are repeatedly scanned with the measurement light LS. The scanning of a plurality of cross sections is, for example, a raster scan along a plurality of scanning lines parallel to each other. The number of scanning lines of the raster scan is, for example, 128, thereby scanning the three-dimensional region of the fundus oculi Ef (three-dimensional scan). Note that the number of scanning patterns and scanning lines is not limited to this example.

血流計測では、予備計測の結果から設定された眼底Efの部位に基づき2種類の走査(第1走査及び第2走査)が実行される。予備計測の結果から設定された部位を注目部位と呼ぶ。注目部位は、注目血管と注目断面とを含む。注目血管は、予備計測の結果から設定された眼底Efの血管である。注目血管は、脈波が明瞭に観察される血管であってよく、例えば動脈である。注目断面は、注目血管に交差する断面である。更に、注目部位は、注目断面の近傍に位置する1以上の断面を含んでいてよい。この1以上の断面は、注目血管の傾きを求めるためのOCTスキャンの対象となる。   In blood flow measurement, two types of scanning (first scanning and second scanning) are executed based on the region of the fundus oculi Ef set from the result of preliminary measurement. A part set from the result of the preliminary measurement is called a target part. The attention site includes the attention blood vessel and the attention cross section. The target blood vessel is a blood vessel of the fundus oculi Ef set from the result of preliminary measurement. The target blood vessel may be a blood vessel in which a pulse wave is clearly observed, for example, an artery. The cross section of interest is a cross section that intersects the blood vessel of interest. Furthermore, the site of interest may include one or more cross sections located in the vicinity of the target cross section. The one or more cross sections are subjected to an OCT scan for obtaining the inclination of the target blood vessel.

第1走査では、注目血管に交差する2以上の断面が測定光LSで走査される。第1走査により取得されたデータは、注目断面における注目血管の傾き(向き)を求めるために用いられる。一方、第2走査は、注目血管に交差する注目断面が測定光LSで反復的に走査される。第1走査が行われる断面は、注目断面の近傍に配置される。第2走査は、OCTを用いたドップラー計測である。   In the first scan, two or more cross sections intersecting the target blood vessel are scanned with the measurement light LS. Data acquired by the first scan is used to obtain the inclination (orientation) of the blood vessel of interest in the cross section of interest. On the other hand, in the second scan, the cross section of interest that intersects the blood vessel of interest is repeatedly scanned with the measurement light LS. The cross section in which the first scan is performed is arranged in the vicinity of the target cross section. The second scan is Doppler measurement using OCT.

第1走査及び第2走査の対象断面は、xy面において、注目血管の走行方向に対して直交するように向き付けられることが望ましい。図5の眼底像Dに示すように、本実施形態では、例えば、視神経乳頭Daの近傍に、第1走査が行われる2つの断面C11及びC12と、第2走査が行われる注目断面C2とが注目血管Dbに交差するように設定される。2つの断面C11及びC12の一方は注目断面C2に対して注目血管Dbの上流側に位置し、他方は下流側に位置する。注目断面C2に対する各断面C11及びC12の距離(断面間距離)は、事前に決定される。   The target cross sections of the first scan and the second scan are preferably oriented so as to be orthogonal to the traveling direction of the blood vessel of interest on the xy plane. As shown in the fundus oculi image D of FIG. 5, in the present embodiment, for example, in the vicinity of the optic disc Da, there are two cross sections C11 and C12 in which the first scan is performed and an attention cross section C2 in which the second scan is performed. It is set so as to intersect the target blood vessel Db. One of the two cross sections C11 and C12 is positioned upstream of the target blood vessel Db with respect to the target cross section C2, and the other is positioned downstream. The distance between the cross sections C11 and C12 (distance between cross sections) with respect to the target cross section C2 is determined in advance.

第2走査は、患者の心臓の少なくとも1心周期の間にわたって実行されることが望ましい。それにより、心臓の全ての時相における血流情報が得られる。第2走査の実行時間は、あらかじめ設定された一定の時間(例えば2秒間)であってもよいし、患者ごとに又は検査毎に設定された時間であってもよい。後者の一例において、心電計を用いて得られる患者の心拍データを利用することができる。   The second scan is preferably performed over at least one cardiac cycle of the patient's heart. Thereby, blood flow information in all time phases of the heart is obtained. The execution time of the second scan may be a predetermined time (for example, 2 seconds) set in advance, or may be a time set for each patient or for each examination. In the latter example, patient heart rate data obtained using an electrocardiograph can be utilized.

(断層像形成部221)
断層像形成部221は、眼底EfをOCTスキャンして得られたデータに基づいて断層像を形成する。断層像形成部221は、予備計測において取得されたデータに基づいて断層像を形成することができる。また、断層像形成部221は、血流計測(第1走査及び/又は第2走査)により取得されたデータに基づいて断層像を形成することができる。例えば、断層像形成部221は、断面C11及びC12に対する第1走査により得られた干渉光LCの検出結果に基づいて、断面C11の形態を表す断層像と、断面C12の形態を表す断層像とを形成する。このとき、断面C11を1回走査して1枚の断層像を形成し、かつ、断面C12を1回走査して1枚の断層像を形成することができる。或いは、断面C11を複数回走査して得られた複数の断層像に基づき1枚の断層像を取得し、かつ、断面C12を複数回走査して得られた複数の断層像に基づき1枚の断層像を取得することができる。複数の断層像から1枚の断層像を取得する処理の例として、複数の断層像を平均して画質向上を図る処理や、複数の断層像から最適な1枚を選択する処理がある。
(Tomographic image forming unit 221)
The tomographic image forming unit 221 forms a tomographic image based on data obtained by OCT scanning the fundus oculi Ef. The tomographic image forming unit 221 can form a tomographic image based on the data acquired in the preliminary measurement. The tomographic image forming unit 221 can form a tomographic image based on data acquired by blood flow measurement (first scanning and / or second scanning). For example, the tomographic image forming unit 221 includes a tomographic image representing the form of the cross section C11, a tomographic image representing the form of the cross section C12, based on the detection result of the interference light LC obtained by the first scanning with respect to the cross sections C11 and C12. Form. At this time, the cross section C11 can be scanned once to form one tomographic image, and the cross section C12 can be scanned once to form one tomographic image. Alternatively, one tomographic image is acquired based on a plurality of tomographic images obtained by scanning the section C11 a plurality of times, and one sheet is obtained based on a plurality of tomographic images obtained by scanning the section C12 a plurality of times. A tomographic image can be acquired. As an example of processing for acquiring one tomographic image from a plurality of tomographic images, there are processing for improving the image quality by averaging a plurality of tomographic images and processing for selecting an optimal one from a plurality of tomographic images.

また、断層像形成部221は、注目断面C2に対する第2走査により得られた干渉光LCの検出結果に基づいて、注目断面C2の形態の時系列変化を表す断層像群を形成する。この処理についてより詳しく説明する。第2走査では、上記のように注目断面C2が繰り返し走査される。断層像形成部221には、第2走査に応じて、OCTユニット100のCCD115から検出信号が逐次入力される。断層像形成部221は、注目断面C2の1回分の走査に対応する検出信号群に基づいて、注目断面C2の1枚の断層像を形成する。断層像形成部221は、この処理を第2走査の反復回数だけ繰り返すことで、時系列に沿った一連の断層像を形成する。ここで、これら断層像を複数の群に分割し、各群の断層像を平均して画質の向上を図ってもよい。   In addition, the tomographic image forming unit 221 forms a tomographic image group representing a time-series change of the form of the cross section of interest C2 based on the detection result of the interference light LC obtained by the second scan with respect to the cross section of interest C2. This process will be described in more detail. In the second scan, the target section C2 is repeatedly scanned as described above. Detection signals are sequentially input from the CCD 115 of the OCT unit 100 to the tomographic image forming unit 221 in accordance with the second scan. The tomographic image forming unit 221 forms one tomographic image of the cross section of interest C2 based on a detection signal group corresponding to one scan of the cross section of interest C2. The tomographic image forming unit 221 forms a series of tomographic images along a time series by repeating this process as many times as the second scanning is repeated. Here, these tomographic images may be divided into a plurality of groups, and the tomographic images of each group may be averaged to improve the image quality.

断層像形成部221が実行する処理は、従来のスペクトラルドメインOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などを含む。他のタイプのOCTが適用される場合、断層像形成部221は、そのタイプに応じた公知の処理を実行する。   The processing executed by the tomographic image forming unit 221 includes noise removal (noise reduction), filter processing, FFT (Fast Fourier Transform), and the like, as in the conventional spectral domain OCT. When another type of OCT is applied, the tomographic image forming unit 221 executes a known process according to the type.

(位相画像形成部222)
位相画像形成部222は、眼底Efの所定部位を繰り返しOCTスキャンして得られたデータに基づいて位相画像を形成する。位相画像形成部222は、予備計測において取得されたデータに基づいて、スキャンされた断面における位相差の時系列変化を表す位相画像を形成する。予備計測では、眼底Efの複数の断面が繰り返し走査される。位相画像形成部222は、予備計測により取得されたデータに基づいて、これら断面のそれぞれにおける位相画像を形成する。
(Phase image forming unit 222)
The phase image forming unit 222 forms a phase image based on data obtained by repeatedly OCT scanning a predetermined part of the fundus oculi Ef. The phase image forming unit 222 forms a phase image representing a time-series change of the phase difference in the scanned cross section based on the data acquired in the preliminary measurement. In the preliminary measurement, a plurality of cross sections of the fundus oculi Ef are repeatedly scanned. The phase image forming unit 222 forms a phase image in each of these cross sections based on the data acquired by the preliminary measurement.

また、位相画像形成部222は、血流計測の第2走査により取得されたデータに基づいて位相画像を形成する。例えば、位相画像形成部222は、注目断面C2に対する第2走査により得られた干渉光LSの検出結果に基づいて、注目断面C2における位相差の時系列変化を表す位相画像を形成する。   Further, the phase image forming unit 222 forms a phase image based on data acquired by the second scan of blood flow measurement. For example, the phase image forming unit 222 forms a phase image representing a time-series change of the phase difference in the target cross section C2 based on the detection result of the interference light LS obtained by the second scanning with respect to the target cross section C2.

位相画像の形成に用いられるデータは、断層像形成部221が断層像を形成するために用いられるデータと同じであってよい。この場合、スキャンされた断面の断層像と位相画像とを容易に位置合わせすることができる。つまり、同じデータに基づき形成された断層像と位相画像とについて、断層像の画素と位相画像の画素とを自然に対応付けることが可能である。   The data used for forming the phase image may be the same as the data used by the tomographic image forming unit 221 to form the tomographic image. In this case, the tomographic image and the phase image of the scanned cross section can be easily aligned. That is, for the tomographic image and the phase image formed based on the same data, it is possible to naturally associate the tomographic image pixel and the phase image pixel.

位相画像の形成方法の例を説明する。本例の位相画像は、隣り合うAライン複素信号(隣接する走査点に対応する信号)の位相差を算出することにより得られる。換言すると、本例の位相画像は、スキャンされた断面の断層像の各画素について、その画素の画素値(輝度値)の時系列変化に基づき形成される。任意の画素について、位相画像形成部222は、その輝度値の時系列変化のグラフを考慮する。位相画像形成部222は、このグラフにおいて所定の時間間隔Δtだけ離れた2つの時点t1及びt2(t2=t1+Δt)の間における位相差Δφを求める。そして、この位相差Δφを時点t1(より一般に2つの時点t1及びt2の間の任意の時点)における位相差Δφ(t1)として定義する。あらかじめ設定された多数の時点のそれぞれについてこの処理を実行することで、当該画素における位相差の時系列変化が得られる。   An example of a phase image forming method will be described. The phase image of this example is obtained by calculating the phase difference between adjacent A-line complex signals (signals corresponding to adjacent scanning points). In other words, the phase image of this example is formed based on the time series change of the pixel value (luminance value) of each pixel of the scanned cross-sectional tomographic image. For an arbitrary pixel, the phase image forming unit 222 considers a graph of a time-series change in luminance value. The phase image forming unit 222 obtains a phase difference Δφ between two time points t1 and t2 (t2 = t1 + Δt) separated by a predetermined time interval Δt in this graph. The phase difference Δφ is defined as the phase difference Δφ (t1) at the time point t1 (more generally, any time point between the two time points t1 and t2). By executing this process for each of a number of preset time points, a time-series change in phase difference at the pixel can be obtained.

位相画像は、各画素の各時点における位相差の値を画像として表現したものである。この画像化処理は、例えば、位相差の値を表示色や輝度で表現することで実現できる。このとき、時系列に沿って位相が増加したことを表す色(例えば赤)と、減少したことを表す色(例えば青)とを違えることができる。また、位相の変化量の大きさを表示色の濃さで表現することもできる。このような表現方法を採用することで、血流の向きや大きさを色や濃度で提示することが可能となる。以上の処理を各画素について実行することにより位相画像が形成される。   The phase image represents the value of the phase difference at each time point of each pixel as an image. This imaging process can be realized, for example, by expressing the value of the phase difference with the display color or brightness. At this time, a color indicating that the phase has increased along the time series (for example, red) can be different from a color indicating that the phase has decreased (for example, blue). Also, the magnitude of the phase change amount can be expressed by the darkness of the display color. By adopting such an expression method, the direction and size of the blood flow can be presented in color and density. A phase image is formed by executing the above processing for each pixel.

なお、位相差の時系列変化は、上記の時間間隔Δtを十分に小さくして位相の相関を確保することにより得られる。このとき、測定光LSの走査において断層像の分解能に相当する時間未満の値に時間間隔Δtを設定したオーバーサンプリングが実行される。   The time-series change of the phase difference is obtained by ensuring the phase correlation by sufficiently reducing the time interval Δt. At this time, oversampling in which the time interval Δt is set to a value less than the time corresponding to the resolution of the tomographic image in the scanning of the measurement light LS is executed.

(データ処理部230)
データ処理部230は、各種のデータ処理を実行するプロセッサを含む。例えば、データ処理部230は、画像形成部220により形成された画像に対して画像処理や解析処理を施す。その具体例として、輝度補正や分散補正等の各種補正処理がある。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して画像処理や解析処理を施す。データ処理部230は、予備計測処理部231と、血流計測処理部232とを含む。
(Data processing unit 230)
The data processing unit 230 includes a processor that executes various types of data processing. For example, the data processing unit 230 performs image processing and analysis processing on the image formed by the image forming unit 220. Specific examples thereof include various correction processes such as luminance correction and dispersion correction. Further, the data processing unit 230 performs image processing and analysis processing on an image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2. The data processing unit 230 includes a preliminary measurement processing unit 231 and a blood flow measurement processing unit 232.

(予備計測処理部231)
予備計測処理部231は、血流計測が行われる部位を設定するための予備計測にて取得されたデータの処理を実行する。本例では、予備計測処理部231は、予備計測によりデータから形成された位相画像に基づいて、血流計測の対象となる注目部位を設定するための情報(計測部位情報)を生成する。予備計測処理部231は、プロファイル生成部2311と、動脈領域特定部2312と、情報生成部2313とを含む。
(Preliminary measurement processing unit 231)
The preliminary measurement processing unit 231 executes processing of data acquired by preliminary measurement for setting a region where blood flow measurement is performed. In this example, the preliminary measurement processing unit 231 generates information (measurement site information) for setting a target site for blood flow measurement based on a phase image formed from data by preliminary measurement. The preliminary measurement processing unit 231 includes a profile generation unit 2311, an arterial region specifying unit 2312, and an information generation unit 2313.

(プロファイル生成部2311)
プロファイル生成部2311は、予備計測に基づき形成された位相画像の各フレームをz方向に積算(積分)する。つまり、プロファイル生成部2311は、位相画像のフレームの画素の値をAライン方向(軸線方向)に積算する。それにより、予備計測が実行された各断面について、時系列に配列された複数の積算値プロファイル(経時的積算値プロファイル)が得られる。なお、画素値の積算は、Aラインに沿って配列された複数の画素の値(反射強度を表す輝度値)を加算する処理を含み、得られた積算値を加工する演算を含んでよい。この加工演算の例として、スケールの変換(階調範囲の変換)がある。
(Profile generation unit 2311)
The profile generation unit 2311 integrates (integrates) each frame of the phase image formed based on the preliminary measurement in the z direction. That is, the profile generation unit 2311 integrates the pixel values of the frame of the phase image in the A line direction (axis direction). Thereby, a plurality of integrated value profiles (time-dependent integrated value profiles) arranged in time series are obtained for each cross section for which preliminary measurement has been performed. Note that the integration of pixel values includes a process of adding values (luminance values representing reflection intensity) of a plurality of pixels arranged along the A line, and may include an operation of processing the obtained integrated value. An example of this processing operation is scale conversion (gradation range conversion).

プロファイル生成部2311が実行する処理の具体例を説明する。図6A及び図6Bを参照する。図6Aは、予備計測が実行された断面についての位相画像のフレームFを表す。フレームFには、血管の断面に相当する画像領域(血管領域)Faが表現されている。血管領域Faは、動脈の断面を表すものとする。フレームFは、複数のAスキャン像A(k=1,2,3,・・・,K:例えば、K=512)により構成されている。各Aスキャン像Aは、z方向(Aライン方向)に沿った1次元輝度画像である。複数のAスキャン像A〜Aは、xy面内の任意方向に沿って配列されている。よって、xy面におけるAスキャン像Aの位置は、xy面とAスキャン像Aとの交点に位置する画素Pの位置として特定される。 A specific example of processing executed by the profile generation unit 2311 will be described. Please refer to FIG. 6A and FIG. 6B. FIG. 6A represents the frame F of the phase image for the cross-section for which the preliminary measurement has been performed. In the frame F, an image region (blood vessel region) Fa corresponding to a cross section of the blood vessel is expressed. The blood vessel region Fa represents a cross section of the artery. The frame F is composed of a plurality of A-scan images A k (k = 1, 2, 3,..., K: for example, K = 512). Each A scan image Ak is a one-dimensional luminance image along the z direction (A line direction). The plurality of A scan images A 1 to A K are arranged along an arbitrary direction in the xy plane. Therefore, the position of the A-scan image A k in the xy plane is identified as the position of the pixel P k is located in the xy plane and the intersection of A-scan images A k.

プロファイル生成部2311は、各Aスキャン像Aについて、そのAスキャン像Aに含まれる複数の画素の値(輝度値)を積算し、得られた積算値を画素Pに対応付ける。それにより、複数のAスキャン像A〜Aについての積算値と複数の画素P〜Pとの対応が得られる。この対応をグラフ化すると、図6Bに示すような積算値プロファイルPが得られる。積算値プロファイルPの横軸は、複数のAスキャン像A〜Aに対応する画素の位置を表し、縦軸は、積算値の大きさを表す。積算値プロファイルPにおいて、画素Pに対して、Aスキャン像Aから得られた積算値が対応付けられている。このような積算値プロファイルが、予備計測が行われた複数の断面のそれぞれの位相画像を構成する各フレームについて作成される。それにより、各断面に関する経時的積算値プロファイルが得られる。 Profile generator 2311, for each A-scan image A k, total values (luminance values) of a plurality of pixels included in the A-scan image A k, associates the integrated value obtained in the pixel P k. Thereby, correspondence between the integrated value and a plurality of pixels P 1 to P K of a plurality of A-scan images A 1 to A K is obtained. When this correspondence is graphed, an integrated value profile P as shown in FIG. 6B is obtained. The horizontal axis of the integrated value profile P represents the position of the pixel corresponding to the plurality of A-scan images A 1 to A K, and the vertical axis represents the magnitude of the integrated value. In the integrated value profile P, the integrated value obtained from the A scan image A k is associated with the pixel P k . Such an integrated value profile is created for each frame constituting each phase image of a plurality of cross sections for which preliminary measurement has been performed. Thereby, an integrated value profile over time for each cross section is obtained.

なお、本実施形態では、Aスキャン像に含まれる全ての画素の値を積算しているが、Aスキャン像に含まれる複数の画素の一部の画素値のみを積算するよう構成することも可能である。すなわち、プロファイル生成部2311は、位相画像のフレームを構成する複数の画素の少なくとも一部について、その画素値を積算するよう構成されていればよい。一部の画素のみを対象とする場合については後述する。   In this embodiment, the values of all the pixels included in the A scan image are integrated. However, it is also possible to configure to integrate only some pixel values of a plurality of pixels included in the A scan image. It is. That is, the profile generation unit 2311 only needs to be configured to integrate the pixel values of at least some of the plurality of pixels constituting the phase image frame. The case of targeting only some pixels will be described later.

(動脈領域特定部2312)
積算値プロファイルPの一部分Paは、血管領域Faに相当する。血管領域Faが静脈に相当する場合には、血管領域Faの輝度値の経時的変化は小さいが、血管領域Faが動脈に相当する場合には、血管領域Faの輝度値が経時的に大きく変化する。したがって、経時的積算値プロファイルを解析することにより、その断面を通過する血管が動脈であるか静脈であるか判別することができる。このような事実を利用し、動脈領域特定部2312は、動脈に相当する画像領域(動脈領域)を特定する。動脈領域特定部2312が実行する処理の例を以下に説明する。
(Arterial region specifying unit 2312)
A part Pa of the integrated value profile P corresponds to the blood vessel region Fa. When the blood vessel region Fa corresponds to a vein, the luminance value of the blood vessel region Fa changes little over time, but when the blood vessel region Fa corresponds to an artery, the luminance value of the blood vessel region Fa changes greatly over time. To do. Therefore, it is possible to determine whether the blood vessel passing through the cross section is an artery or a vein by analyzing the integrated value profile over time. Using such a fact, the arterial region specifying unit 2312 specifies an image region (arterial region) corresponding to the artery. An example of processing executed by the arterial region specifying unit 2312 will be described below.

血管の判別において、輝度値の経時的変化の程度(大きさ)を考慮することができる。すなわち、動脈領域特定部2312は、積算値プロファイルの経時的変化(積算値の経時的なばらつき)に基づいて、血管の判別を行うことができる。具体例として、動脈領域特定部2312は、経時的積算値プロファイルに含まれる異なる積算値プロファイルの差分を求め、求められた差分の大きさに基づいて血管の判別を行うことができる。差分が比較的大きい場合、その血管は動脈と判定される。また、動脈領域特定部2312は、画素位置ごとに(画素Pごとに)積算値の経時的変化の大きさの評価値を求め、この評価値に基づいて血管の判別を行うことが可能である。積算値の経時的変化が比較的大きい場合、その血管は動脈と判定される。また、動脈領域特定部2312は、各積算値プロファイルにおける積算値のばらつきの統計値(標準偏差、分散など)を求め、この統計値に基づいて血管の判別を行うことができる。積算値のばらつきが比較的大きい場合、その血管は動脈と判定される。 In the blood vessel discrimination, the degree (size) of change in luminance value over time can be taken into consideration. In other words, the arterial region specifying unit 2312 can determine a blood vessel based on a change with time of the integrated value profile (variation with time of the integrated value). As a specific example, the arterial region specifying unit 2312 can obtain a difference between different accumulated value profiles included in the accumulated value profile over time, and determine a blood vessel based on the magnitude of the obtained difference. When the difference is relatively large, the blood vessel is determined as an artery. In addition, the arterial region specifying unit 2312 can obtain an evaluation value of the magnitude of change over time of the integrated value for each pixel position (for each pixel P k ), and can determine a blood vessel based on the evaluation value. is there. When the change over time in the integrated value is relatively large, the blood vessel is determined to be an artery. Further, the arterial region specifying unit 2312 can obtain a statistical value (standard deviation, variance, etc.) of dispersion of integrated values in each integrated value profile, and can determine a blood vessel based on the statistical values. When the variation in the integrated value is relatively large, the blood vessel is determined as an artery.

また、血管の判別において、輝度値の大きさ(絶対値)を考慮することができる。例えば、動脈領域特定部2312は、比較的大きな積算値が対応付けられた一群の画素(血管領域)を含む積算値プロファイルが存在する場合、その血管は動脈であると判定することができる。本例では、積算値プロファイルにおける代表値の大きさが参照される。この代表値は、例えば、積算値プロファイルにおける最大値や極大値である。   In the blood vessel discrimination, the magnitude (absolute value) of the luminance value can be taken into consideration. For example, the arterial region specifying unit 2312 can determine that the blood vessel is an artery when there is an integrated value profile including a group of pixels (blood vessel regions) associated with relatively large integrated values. In this example, the magnitude of the representative value in the integrated value profile is referred to. This representative value is, for example, the maximum value or the maximum value in the integrated value profile.

なお、上記説明において、「比較的」とは動脈領域と静脈領域との比較を鑑みたものである。或る値が「比較的」大きいか否かは、例えば、動脈領域と静脈領域とを区別するための閾値との比較によって判定される。   In the above description, “relatively” refers to a comparison between the arterial region and the venous region. Whether or not a certain value is “relatively” large is determined, for example, by comparison with a threshold value for distinguishing between an arterial region and a venous region.

(情報生成部2313)
情報生成部2313は、動脈領域特定部2312により特定された動脈領域に基づいて、血流計測の対象部位を設定するための計測部位情報を生成する。計測部位情報の形態は任意である。
(Information generation unit 2313)
The information generation unit 2313 generates measurement site information for setting a target site for blood flow measurement based on the arterial region specified by the arterial region specification unit 2312. The form of the measurement site information is arbitrary.

例えば、計測部位情報は、予備計測が行われた断面を通過する血管が動脈であるか静脈であるかを示す情報を含んでいてよい。1つの断面を2以上の血管が通過している場合(つまり、フレーム内に2以上の血管領域が特定された場合)、情報生成部2313は、それぞれの血管について、それが動脈であるか静脈であるかを示す情報を生成することができる。計測部位情報の具体例については後述する。   For example, the measurement site information may include information indicating whether the blood vessel passing through the cross-section for which the preliminary measurement has been performed is an artery or a vein. When two or more blood vessels pass through one cross section (that is, when two or more blood vessel regions are specified in the frame), the information generation unit 2313 determines whether each blood vessel is an artery or a vein. It is possible to generate information indicating whether or not. A specific example of the measurement site information will be described later.

(血流計測処理部232)
血流計測処理部232は、予備計測に基づいて設定された部位の血流計測にて取得されたデータの処理を実行する。本例において、血流計測処理部232は、第1走査により取得されたデータに基づいて、注目断面における注目血管の傾きを求める。更に、血流計測処理部232は、第1走査に基づき求められた注目血管の傾きと、第2走査により取得されたデータとに基づいて、注目血管に関する血流情報を求める。血流情報は、例えば、血流速度や血流量を含む。血流計測処理部232は、血管領域特定部2321と、傾き算出部2322と、血流速度算出部2323と、血管径算出部2324と、血流量算出部2325とを含む。
(Blood flow measurement processing unit 232)
The blood flow measurement processing unit 232 executes processing of data acquired by blood flow measurement of a part set based on preliminary measurement. In this example, the blood flow measurement processing unit 232 obtains the inclination of the blood vessel of interest in the cross section of interest based on the data acquired by the first scan. Further, the blood flow measurement processing unit 232 obtains blood flow information related to the target blood vessel based on the inclination of the target blood vessel obtained based on the first scan and the data obtained by the second scan. The blood flow information includes, for example, a blood flow velocity and a blood flow volume. The blood flow measurement processing unit 232 includes a blood vessel region specifying unit 2321, an inclination calculating unit 2322, a blood flow velocity calculating unit 2323, a blood vessel diameter calculating unit 2324, and a blood flow rate calculating unit 2325.

(血管領域特定部2321)
血管領域特定部2321は、断層像形成部221により形成された断層像において、注目血管に対応する血管領域を特定する。更に、血管領域特定部2321は、位相画像形成部222により形成された位相画像において、注目血管に対応する血管領域を特定する。血管領域の特定は、各画像の画素値を解析することにより行われる(例えば閾値処理)。
(Vessel region specifying unit 2321)
The blood vessel region specifying unit 2321 specifies a blood vessel region corresponding to the target blood vessel in the tomographic image formed by the tomographic image forming unit 221. Further, the blood vessel region specifying unit 2321 specifies a blood vessel region corresponding to the target blood vessel in the phase image formed by the phase image forming unit 222. The blood vessel region is specified by analyzing the pixel value of each image (for example, threshold processing).

同じデータから断層像と位相画像とが作成された場合、断面形態が比較的明瞭に描出される断層像内の血管領域の特定をまず実行し、特定された血管領域に対応する位相画像内の領域を、前述した断層像と位相画像との自然なレジストレーションを利用して特定することができる。また、断層像と位相画像とが異なるデータから作成された場合であっても、それらのレジストレーションが直接的又は間接的に可能である場合には、一方の画像の血管領域の特定結果を他方の画像の血管領域の特定に利用することができる。   When a tomographic image and a phase image are created from the same data, the blood vessel region in the tomographic image in which the cross-sectional shape is relatively clearly depicted is first executed, and the phase image corresponding to the identified blood vessel region is identified. The region can be specified using the natural registration of the tomographic image and the phase image described above. Even if the tomographic image and the phase image are created from different data, if the registration is possible directly or indirectly, the result of specifying the blood vessel region of one image is obtained. It can be used to specify the blood vessel region of the image.

(傾き算出部2322)
傾き算出部2322は、第1走査により取得されたデータに基づいて注目断面C2における注目血管Dbの傾きを算出する。このとき、第2走査により得られたデータを更に用いることも可能である。傾き算出部2322は、断面間距離と血管領域の特定結果とに基づいて、注目断面C2における注目血管Dbの傾きを算出する。断面間距離は、断面C11と断面C12との間の距離を含んでよい。また、断面間距離は、断面C11と注目断面C2との間の距離と、断面C12と注目断面C2との間の距離とを含んでよい。
(Inclination calculation unit 2322)
The inclination calculation unit 2322 calculates the inclination of the blood vessel Db of interest in the cross section of interest C2 based on the data acquired by the first scan. At this time, it is possible to further use data obtained by the second scanning. The inclination calculation unit 2322 calculates the inclination of the target blood vessel Db in the target cross section C2 based on the distance between cross sections and the result of specifying the blood vessel region. The distance between cross sections may include a distance between the cross section C11 and the cross section C12. Further, the distance between the cross sections may include a distance between the cross section C11 and the target cross section C2, and a distance between the cross section C12 and the target cross section C2.

注目血管Dbの傾きの算出方法の例を、図7を参照しつつ説明する。断層像G11及びG12は、それぞれ、第1走査が適用される断面C11を表す断層像及び断面C12を表す断層像である。また、断層像G2は、第2走査が適用される注目断面C2を表す断層像である。符号V11、V12及びV2は、それぞれ、断層像G11内の血管領域、断層像G12内の血管領域、及び断層像G2内の血管領域を示す。なお、これら血管領域は注目血管Dbの断面に相当する。図7において、z座標軸は下方向を向いており、これは測定光LSの照射方向(測定光LSの光路の光軸の方向、軸線方向、Aライン方向)と実質的に一致するものとする。また、隣接する断層像(断面)の間隔をLとする。   An example of a method for calculating the inclination of the target blood vessel Db will be described with reference to FIG. The tomographic images G11 and G12 are a tomographic image representing the cross section C11 to which the first scan is applied and a tomographic image representing the cross section C12, respectively. The tomographic image G2 is a tomographic image representing the cross section of interest C2 to which the second scanning is applied. Reference numerals V11, V12, and V2 indicate a blood vessel region in the tomographic image G11, a blood vessel region in the tomographic image G12, and a blood vessel region in the tomographic image G2, respectively. These blood vessel regions correspond to the cross section of the target blood vessel Db. In FIG. 7, the z coordinate axis is directed downward, which substantially coincides with the irradiation direction of the measurement light LS (the optical axis direction, the axial direction, and the A line direction of the optical path of the measurement light LS). . Also, let L be the interval between adjacent tomographic images (cross sections).

1つの例において、傾き算出部2322は、3つの血管領域V11、V12及びV2の位置関係に基づいて、注目断面C2における注目血管Dbの傾きUを算出する。この位置関係は、例えば、3つの血管領域V11、V12及びV2を結ぶことによって得られる。具体的には、傾き算出部2322は、3つの血管領域V11、V12及びV2のそれぞれの特徴点を特定し、これら特徴点を結ぶ。この特徴点としては、中心位置、重心位置、最上部(z座標値が最小の位置)、最下部(z座標値が最大の位置)などがある。また、これら特徴点の結び方としては、線分で結ぶ方法、近似曲線(スプライン曲線、ベジェ曲線等)で結ぶ方法などがある。   In one example, the inclination calculating unit 2322 calculates the inclination U of the target blood vessel Db in the target cross section C2 based on the positional relationship between the three blood vessel regions V11, V12, and V2. This positional relationship is obtained, for example, by connecting three blood vessel regions V11, V12, and V2. Specifically, the inclination calculation unit 2322 identifies feature points of the three blood vessel regions V11, V12, and V2, and connects these feature points. As the feature points, there are a center position, a center of gravity position, an uppermost portion (a position having the smallest z coordinate value), a lowermost portion (a position having the largest z coordinate value), and the like. In addition, as a method of connecting these feature points, there are a method of connecting with a line segment, a method of connecting with an approximate curve (spline curve, Bezier curve, etc.), and the like.

更に、傾き算出部2322は、これら特徴点を結ぶ線に基づいて傾きUを算出する。線分が用いられる場合、例えば、注目断面C2内の血管領域V2の特徴点と断面C11内の血管領域V11の特徴点とを結ぶ第1線分の傾きと、血管領域V2の当該特徴点と断面C12内の血管領域V12の特徴点とを結ぶ第2線分の傾きとに基づいて、傾きUが算出される。この算出処理の例として、2つの線分の傾きの平均値を求めることができる。また、近似曲線で結ぶ場合の例として、近似曲線と注目断面C2との交差位置における近似曲線の傾きを求めることができる。なお、断面間距離Lは、線分や近似曲線を求める処理において、これら断層像G11、G12及びG2をxyz座標系に埋め込むときに用いられる。   Further, the inclination calculation unit 2322 calculates the inclination U based on a line connecting these feature points. When the line segment is used, for example, the slope of the first line segment connecting the feature point of the blood vessel region V2 in the cross section of interest C2 and the feature point of the blood vessel region V11 in the cross section C11, and the feature point of the blood vessel region V2 The inclination U is calculated based on the inclination of the second line segment connecting the characteristic points of the blood vessel region V12 in the cross section C12. As an example of this calculation process, the average value of the slopes of two line segments can be obtained. Further, as an example of connecting with an approximate curve, the slope of the approximate curve at the intersection position of the approximate curve and the target cross section C2 can be obtained. Note that the cross-sectional distance L is used when embedding these tomographic images G11, G12, and G2 in the xyz coordinate system in the process of obtaining line segments and approximate curves.

本例では、3つの断面における血管領域を考慮しているが、2つの断面の血管領域を考慮して傾きを求めることも可能である。具体例として、断面C11内の血管領域V11と断面C12内の血管領域V12とに基づいて、注目断面C2における注目血管Dbの傾きUを求めるよう構成できる。或いは、上記第1線分又は第2線分の傾きを傾きUとして用いることも可能である。   In this example, the blood vessel regions in three cross sections are considered, but the inclination can be obtained in consideration of the blood vessel regions in the two cross sections. As a specific example, the inclination U of the target blood vessel Db in the target cross section C2 can be obtained based on the blood vessel region V11 in the cross section C11 and the blood vessel region V12 in the cross section C12. Alternatively, the slope of the first line segment or the second line segment can be used as the slope U.

注目断面における注目血管の傾きを算出する方法は、上記のものには限定されない。例えば、次のような方法を適用することができる。まず、注目断面に交差し、かつ注目血管に沿う断面に対してOCTスキャンを行う。次に、このOCTスキャンにより取得されたデータに基づいて断層像を形成し、この断層像のセグメンテーションを行って所定組織に相当する画像領域(層領域)が特定される。特定される層領域は、例えば、内境界膜に相当する層領域(ILM領域)である。内境界膜は、網膜と硝子体との境界を規定する網膜の組織であり、比較的明瞭に描出される。更に、特定された層領域の形状を近似する線分を求め、その傾きを求める。近似線分の傾きは、例えば、z座標軸に対する角度として、又は、xy面(つまりz座標軸に直交する平面)に対する角度として表現される。   The method of calculating the inclination of the blood vessel of interest in the cross section of interest is not limited to the above. For example, the following method can be applied. First, an OCT scan is performed on a cross section that intersects the cross section of interest and is along the blood vessel of interest. Next, a tomographic image is formed based on the data acquired by this OCT scan, and this tomographic image is segmented to identify an image region (layer region) corresponding to a predetermined tissue. The specified layer region is, for example, a layer region (ILM region) corresponding to the inner boundary film. The inner limiting membrane is a retinal tissue that defines the boundary between the retina and the vitreous body and is relatively clearly depicted. Further, a line segment that approximates the shape of the identified layer region is obtained, and its inclination is obtained. The inclination of the approximate line segment is expressed, for example, as an angle with respect to the z coordinate axis or as an angle with respect to the xy plane (that is, a plane orthogonal to the z coordinate axis).

(血流速度算出部2323)
血流速度算出部2323は、位相画像として得られる位相差の時系列変化に基づいて、注目血管Db内を流れる血液の注目断面C2における血流速度を算出する。この算出対象は、或る時点における血流速度でもよいし、この血流速度の時系列変化(血流速度変化情報)でもよい。前者の場合、例えば心電図の所定の時相(例えばR波の時相)における血流速度を選択的に取得することが可能である。また、後者における時間の範囲は、注目断面C2を走査した時間の全体又は任意の一部である。
(Blood velocity calculation unit 2323)
The blood flow velocity calculation unit 2323 calculates the blood flow velocity in the target section C2 of the blood flowing in the target blood vessel Db based on the time-series change of the phase difference obtained as the phase image. This calculation target may be a blood flow velocity at a certain point in time, or a time-series change (blood flow velocity change information) of this blood flow velocity. In the former case, for example, it is possible to selectively acquire the blood flow velocity in a predetermined time phase of the electrocardiogram (for example, the time phase of the R wave). The time range in the latter is the entire time or arbitrary part of the time when the target cross section C2 is scanned.

血流速度変化情報が得られた場合、血流速度算出部2323は、当該時間の範囲における血流速度の統計値を算出することができる。この統計値としては、平均値、標準偏差、分散、中央値、最大値、最小値、極大値、極小値などがある。また、血流速度の値についてのヒストグラムを作成することもできる。   When the blood flow velocity change information is obtained, the blood flow velocity calculator 2323 can calculate the statistical value of the blood flow velocity in the time range. The statistical values include an average value, standard deviation, variance, median value, maximum value, minimum value, maximum value, minimum value, and the like. It is also possible to create a histogram for blood flow velocity values.

血流速度算出部2323は、前述のようにドップラーOCTの手法を用いて血流速度を算出する。このとき、傾き算出部2322により算出された注目断面C2における注目血管Dbの傾きUが考慮される。具体的には、傾き算出部2322は次式を用いる。   The blood flow velocity calculation unit 2323 calculates the blood flow velocity using the Doppler OCT method as described above. At this time, the inclination U of the target blood vessel Db in the target section C2 calculated by the inclination calculation unit 2322 is taken into consideration. Specifically, the inclination calculation unit 2322 uses the following expression.

ここで:
Δfは、測定光LSの散乱光が受けるドップラーシフトを表す;
nは、媒質(血液)の屈折率を表す;
vは、媒質の流速(血流速度)を表す;
θは、測定光LSの入射方向と媒質の流れの方向(傾きU)とが成す角度を表す;
λは、測定光LSの中心波長を表す。
here:
Δf represents the Doppler shift received by the scattered light of the measurement light LS;
n represents the refractive index of the medium (blood);
v represents the flow velocity (blood flow velocity) of the medium;
θ represents the angle formed by the incident direction of the measurement light LS and the direction of the medium flow (inclination U);
λ represents the center wavelength of the measurement light LS.

本実施形態では、nとλは既知であり、Δfは位相差の時系列変化から得られ、θは傾きUから得られる(又はθは傾きUとして得られる)。これらの値を式(1)に代入することにより、血流速度vが算出される。   In this embodiment, n and λ are known, Δf is obtained from the time-series change of the phase difference, and θ is obtained from the slope U (or θ is obtained as the slope U). By substituting these values into the equation (1), the blood flow velocity v is calculated.

(血管径算出部2324)
血管径算出部2324は、眼底像又はOCT画像を解析することにより、注目断面C2における注目血管Dbの径を算出する。眼底像が用いられる場合、注目断面C2の位置を含む眼底Efの部位の撮影が行われ、それにより得られた眼底像(例えば、カラー眼底像、レッドフリー画像等)に基づいて、注目断面C2における注目血管Dbの径、つまり血管領域V2の径を算出する。OCT画像が用いられる場合、このOCT画像は、例えば、第2走査に基づき形成された断層像、又は、予備計測に基づき形成された画像である。このような血管径の算出は、従来と同様にして実行される。
(Vessel diameter calculator 2324)
The blood vessel diameter calculation unit 2324 calculates the diameter of the target blood vessel Db in the target cross section C2 by analyzing the fundus image or the OCT image. When the fundus image is used, the region of the fundus oculi Ef including the position of the cross section of interest C2 is imaged, and the cross section of interest C2 based on the fundus image obtained (for example, a color fundus image, a red free image). The diameter of the blood vessel Db of interest, that is, the diameter of the blood vessel region V2 is calculated. When an OCT image is used, this OCT image is, for example, a tomographic image formed based on the second scan or an image formed based on preliminary measurement. Such calculation of the blood vessel diameter is executed in the same manner as before.

(血流量算出部2325)
血流量算出部2325は、血流速度の算出結果と血管径の算出結果とに基づいて、注目血管Db内を流れる血液の流量を算出する。この処理の一例を以下に説明する。
(Blood flow calculation unit 2325)
The blood flow rate calculation unit 2325 calculates the flow rate of blood flowing in the target blood vessel Db based on the blood flow velocity calculation result and the blood vessel diameter calculation result. An example of this process will be described below.

血管内における血流がハーゲン・ポアズイユ流(Hagen−Poiseuille flow)と仮定する。また、血管径をwとし、血流速度の最大値をVmとすると、血流量Qは次式で表される。   It is assumed that the blood flow in the blood vessel is a Hagen-Poiseille flow. Further, when the blood vessel diameter is w and the maximum value of the blood flow velocity is Vm, the blood flow rate Q is expressed by the following equation.

血流量算出部2325は、血管径算出部2324による血管径の算出結果wと、血流速度算出部2323による血流速度の算出結果に基づく最大値Vmとを式(2)に代入することにより、血流量Qを算出する。   The blood flow rate calculation unit 2325 substitutes the calculation result w of the blood vessel diameter by the blood vessel diameter calculation unit 2324 and the maximum value Vm based on the calculation result of the blood flow velocity by the blood flow velocity calculation unit 2323 into Expression (2). The blood flow rate Q is calculated.

(ユーザインターフェイス240)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、演算制御ユニット200の表示デバイスや表示装置3を含む。操作部242は、演算制御ユニット200の操作デバイスを含む。ユーザインターフェイス240は、例えばタッチパネルのように、表示機能と操作機能とを備えるデバイスを含んでよい。
(User interface 240)
The user interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes the display device of the arithmetic control unit 200 and the display device 3. The operation unit 242 includes an operation device of the arithmetic control unit 200. The user interface 240 may include a device having a display function and an operation function, such as a touch panel.

[動作]
血流計測装置1の動作について説明する。図8は、血流計測装置1が実行する動作の流れの一例を表す。なお、患者IDの入力やアライメントやフォーカシングなどの準備動作は、既に行われたものとする。
[Operation]
The operation of the blood flow measuring device 1 will be described. FIG. 8 shows an example of the flow of operations performed by the blood flow measurement device 1. It is assumed that preparatory operations such as patient ID input, alignment, and focusing have already been performed.

(S1:予備計測)
まず、ユーザ又は血流計測装置1が、予備計測のスキャン範囲を設定する。スキャン範囲の設定においては、例えば、リアルタイムで取得される眼底Efの赤外観察像、或いは、過去に取得された眼底Efのデータ(眼底像、OCT画像、SLO画像、位相画像等)が参照される。
(S1: Preliminary measurement)
First, the user or blood flow measurement device 1 sets a scan range for preliminary measurement. In setting the scan range, for example, an infrared observation image of the fundus oculi Ef acquired in real time or data of the fundus oculi Ef acquired in the past (fundus image, OCT image, SLO image, phase image, etc.) is referred to. The

血流計測装置1は、設定されたスキャン範囲(複数の断面)に対して予備計測を実行する。一例として、設定されるスキャン範囲は3次元領域であり、この3次元領域のラスタースキャンが繰り返し実行される。位相画像形成部222は、予備計測により取得されたデータに基づいて、複数の断面のそれぞれについて位相画像を形成する。   The blood flow measurement device 1 performs preliminary measurement on the set scan range (a plurality of cross sections). As an example, the set scan range is a three-dimensional area, and the raster scan of the three-dimensional area is repeatedly executed. The phase image forming unit 222 forms a phase image for each of the plurality of cross sections based on the data acquired by the preliminary measurement.

(S2:時系列積算値プロファイルの生成)
プロファイル生成部2311は、ステップS1で形成された各位相画像の各フレームの画素値をAライン方向に積算することにより、予備計測が実行された各断面について経時的積算値プロファイルを生成する。
(S2: Generation of time series integrated value profile)
The profile generation unit 2311 generates a temporally integrated value profile for each cross-section for which preliminary measurement has been performed by integrating pixel values of each frame of each phase image formed in step S1 in the A-line direction.

(S3:動脈領域の特定)
動脈領域特定部2312は、ステップS2で生成された経時的積算値プロファイルを解析することにより動脈領域を特定する。なお、動脈領域が一つも得られない場合には、ステップS1のスキャン範囲の設定に戻ることができる。ここで、動脈領域が得られるように、十分な広さのスキャン範囲を初めから設定することができる。また、スキャン範囲を視神経乳頭の近傍に設定することで、動脈領域が得られる可能性を高めることができる。
(S3: Identification of arterial region)
The arterial region specifying unit 2312 specifies the arterial region by analyzing the temporally integrated value profile generated in step S2. If no arterial region is obtained, it is possible to return to the setting of the scan range in step S1. Here, a sufficiently wide scan range can be set from the beginning so as to obtain an arterial region. Further, by setting the scan range in the vicinity of the optic disc, the possibility of obtaining an arterial region can be increased.

(S4:計測部位情報の生成)
情報生成部2313は、ステップS3で特定された動脈領域に基づいて、血流計測の対象部位を設定するための計測部位情報を生成する。
(S4: Generation of measurement site information)
The information generation unit 2313 generates measurement site information for setting a target site for blood flow measurement based on the arterial region specified in step S3.

(S5:計測部位を設定するための情報の表示)
制御部210は、ステップS4で生成された計測部位情報に基づいて、血流計測の対象部位を設定するための情報(設定支援情報)を表示部241に表示させる。設定支援情報は、動脈と静脈との識別を可能とする情報を含んでよい。特に、設定支援情報は、動脈の位置を提示する情報を含んでよい。
(S5: Display of information for setting the measurement site)
The control unit 210 causes the display unit 241 to display information (setting support information) for setting a target site for blood flow measurement based on the measurement site information generated in step S4. The setting support information may include information that enables discrimination between an artery and a vein. In particular, the setting support information may include information presenting the position of the artery.

一例において、制御部210は、眼底Efの正面画像を表示させるとともに、この正面画像中の動脈領域を識別可能に提示する設定支援情報を表示させる。正面画像は、例えば、リアルタイムで取得される赤外観察像、又は、過去に取得された画像である。設定支援情報は、例えば、正面画像にオーバーレイされる情報であり、動脈領域を指し示す矢印画像や、動脈領域上に配置される所定の表示色の画像を含む。   In one example, the control unit 210 displays a front image of the fundus oculi Ef and also displays setting support information that presents the arterial region in the front image in an identifiable manner. The front image is, for example, an infrared observation image acquired in real time or an image acquired in the past. The setting support information is, for example, information that is overlaid on the front image, and includes an arrow image that points to the artery region and an image of a predetermined display color that is arranged on the artery region.

(S6:注目断面等の設定)
ユーザは、ステップS5で表示された情報を参照し、血流計測の対象となる断面(注目断面C2)を設定する。例えば、ユーザは、眼底Efの正面画像とともに表示された設定支援情報を参照することにより、この正面画像内の所望の動脈領域(注目血管Db)を指定する。
(S6: Setting of attention cross section, etc.)
The user refers to the information displayed in step S5 and sets a cross section (target cross section C2) to be subjected to blood flow measurement. For example, the user designates a desired artery region (target blood vessel Db) in the front image by referring to the setting support information displayed together with the front image of the fundus oculi Ef.

本例では注目断面C2の設定を手動で行っているが、これに限定されない。例えば、眼底Efの赤外観察像と計測部位情報とに基づいて、注目血管Dbや注目断面C2を自動で設定することができる。注目血管Dbの設定は、例えば、動脈領域のいずれか(例えば最も太いもの)を選択することにより行われる。また、注目断面C2は、例えば、注目血管Dbの向きが所定の許容範囲内である位置に、注目血管Dbの走行方向に対して直交するように設定される。   In this example, the attention section C2 is manually set, but the present invention is not limited to this. For example, the target blood vessel Db and the target cross section C2 can be automatically set based on the infrared observation image of the fundus oculi Ef and the measurement site information. The target blood vessel Db is set, for example, by selecting one of the arterial regions (for example, the thickest one). The attention section C2 is set, for example, at a position where the direction of the attention blood vessel Db is within a predetermined allowable range so as to be orthogonal to the traveling direction of the attention blood vessel Db.

更に、ユーザ又は血流計測装置1(例えばデータ処理部230)は、第1走査の対象となる断面C11及びC12の設定を行う。   Furthermore, the user or the blood flow measurement device 1 (for example, the data processing unit 230) sets the cross sections C11 and C12 that are the targets of the first scan.

(S7:血流計測の第1走査)
血流計測装置1は、ステップS6で設定された断面C11及びC12のOCTスキャンを実行する(第1走査)。断層像形成部221は、第1走査により取得されたデータに基づいて、断面C11及びC12に対応する断層像G11及びG12を形成する。データ処理部230(血管領域特定部2321及び傾き算出部2322)は、注目断面C2における注目血管Dbの傾きUを算出する。なお、第2走査により取得されたデータを加味して傾きUを算出する場合、傾きUの算出は、第2走査より後に実行される。
(S7: First scan of blood flow measurement)
The blood flow measurement device 1 executes the OCT scan of the cross sections C11 and C12 set in step S6 (first scan). The tomographic image forming unit 221 forms tomographic images G11 and G12 corresponding to the cross sections C11 and C12 based on the data acquired by the first scanning. The data processing unit 230 (the blood vessel region specifying unit 2321 and the inclination calculating unit 2322) calculates the inclination U of the target blood vessel Db in the target cross section C2. Note that when the inclination U is calculated in consideration of data acquired by the second scan, the inclination U is calculated after the second scan.

(S8:血流計測の第2走査)
血流計測装置1は、ステップS6で設定された注目断面C2の反復的なOCTスキャンを実行する(第2走査)。位相画像形成部222は、第2走査により取得されたデータに基づいて、注目断面C2の位相画像を形成する。また、断層像形成部221は、当該データに基づいて注目断面C2の断層像を形成する。データ処理部230(血管領域特定部2321、血管径算出部2324等)は、注目断面C2における注目血管Dbの径を求める。
(S8: Second scan of blood flow measurement)
The blood flow measurement device 1 performs repetitive OCT scans of the cross section of interest C2 set in step S6 (second scan). The phase image forming unit 222 forms a phase image of the cross section of interest C2 based on the data acquired by the second scan. In addition, the tomographic image forming unit 221 forms a tomographic image of the cross section of interest C2 based on the data. The data processing unit 230 (blood vessel region specifying unit 2321, blood vessel diameter calculating unit 2324, etc.) obtains the diameter of the target blood vessel Db in the target cross section C2.

(S9:血流情報の生成)
血流速度算出部2323は、ステップS7の第1走査に基づき算出された傾きUと、ステップS8の第2走査により取得された位相画像とに基づいて、注目断面C2における血流速度を算出する。更に、血流量算出部2325は、この血流速度の算出結果と、ステップS8で得られた血管径の算出結果とに基づいて、注目血管Db内を流れる血液の流量を算出する。
(S9: Generation of blood flow information)
The blood flow velocity calculation unit 2323 calculates the blood flow velocity in the cross section of interest C2 based on the slope U calculated based on the first scan in step S7 and the phase image acquired by the second scan in step S8. . Furthermore, the blood flow rate calculation unit 2325 calculates the flow rate of blood flowing in the target blood vessel Db based on the calculation result of the blood flow velocity and the calculation result of the blood vessel diameter obtained in step S8.

主制御部211は、血流速度の算出結果、血流量の算出結果等を含む血流情報を表示部241に表示させる。また、主制御部211は、患者IDに関連付けて血流情報を記憶部212に記憶させる。以上で、本例に係る動作は終了である。   The main control unit 211 causes the display unit 241 to display blood flow information including blood flow velocity calculation results, blood flow volume calculation results, and the like. In addition, the main control unit 211 stores blood flow information in the storage unit 212 in association with the patient ID. This is the end of the operation according to this example.

[作用・効果]
実施形態に係る血流計測装置の作用及び効果について説明する。
[Action / Effect]
The operation and effect of the blood flow measurement device according to the embodiment will be described.

実施形態の血流計測装置は、OCTを用いて生体(眼底Ef等)の血流計測を行うものであり、データ取得部と、位相画像形成部と、処理部とを備える。   The blood flow measurement device according to the embodiment performs blood flow measurement of a living body (fundus Ef and the like) using OCT, and includes a data acquisition unit, a phase image formation unit, and a processing unit.

データ取得部は、生体の複数の断面を繰り返し走査してデータを取得する。すなわち、データ取得部は予備計測を実行する。上記の実施形態において、データ取得部は、OCTユニット100、測定光LSの光路に配置された光学素子群など、OCTを実行するための構成を含む。   The data acquisition unit acquires data by repeatedly scanning a plurality of cross sections of the living body. That is, the data acquisition unit performs preliminary measurement. In the above embodiment, the data acquisition unit includes a configuration for performing OCT, such as the OCT unit 100 and an optical element group arranged in the optical path of the measurement light LS.

位相画像形成部(222)は、データ取得部により取得されたデータに基づいて、予備計測が行われた複数の断面のそれぞれにおける位相画像を形成する。   The phase image forming unit (222) forms a phase image in each of a plurality of cross sections for which preliminary measurement has been performed based on the data acquired by the data acquisition unit.

処理部(予備計測処理部231)は、位相画像形成部により形成された位相画像の各フレームにおける少なくとも一部の画素の値を積算することにより、予備計測が行われた複数の断面のそれぞれにおける経時的積算値プロファイルを生成する。更に、処理部は、生成された経時的積算値プロファイルに基づいて、血流計測の対象部位を設定するための計測部位情報を生成する。   The processing unit (preliminary measurement processing unit 231) integrates the values of at least some of the pixels in each frame of the phase image formed by the phase image forming unit, so that each of the plurality of cross-sections for which preliminary measurement has been performed is performed. Generate a cumulative value profile over time. Further, the processing unit generates measurement site information for setting a target site for blood flow measurement based on the generated temporal integration value profile.

実施形態において、処理部は、経時的積算値プロファイルを解析することにより動脈領域を特定する領域特定部(動脈領域特定部2312)と、特定された動脈領域に基づいて計測部位情報を生成する情報生成部(2313)とを含んでよい。   In the embodiment, the processing unit analyzes a temporal integrated value profile to specify an arterial region (arterial region specifying unit 2312), and information to generate measurement site information based on the specified arterial region And a generation unit (2313).

更に、領域特定部は、経時的積算値プロファイルを解析することにより経時的積算値プロファイルの経時的変化の程度を示す情報を求め、この情報に基づいて動脈領域を特定するよう構成されてよい。   Further, the region specifying unit may be configured to obtain information indicating the degree of change with time of the time-dependent integrated value profile by analyzing the time-dependent integrated value profile and specify the arterial region based on this information.

また、領域特定部は、経時的積算値プロファイルにおける代表値の大きさに基づいて動脈領域を特定するよう構成されてよい。   Further, the region specifying unit may be configured to specify an arterial region based on the magnitude of the representative value in the temporal integrated value profile.

実施形態の血流計測装置は、正面画像取得部と、表示制御部と、操作部とを更に備えていてよい。正面画像取得部は、生体の正面画像を取得する。上記の実施形態において、正面画像取得部は、眼底カメラユニット2など、眼底Efを撮影するための構成を含む。また、正面画像取得部は、血流計測装置又は他の装置に格納されている正面画像を取得するよう構成されてもよい。例えば、正面画像取得部は、ネットワークを通じて画像ファイリングシステムから正面画像を取得するよう構成されてよい。表示制御部(制御部210)は、正面画像と計測部位情報とを表示手段に表示させる。表示手段は、血流計測装置に含まれてもよいし、それに接続された表示デバイスでもよい。操作部(242)は、血流計測の対象断面(注目断面C2)を設定するために用いられる。   The blood flow measurement device according to the embodiment may further include a front image acquisition unit, a display control unit, and an operation unit. The front image acquisition unit acquires a front image of the living body. In the above embodiment, the front image acquisition unit includes a configuration for photographing the fundus oculi Ef, such as the fundus camera unit 2. The front image acquisition unit may be configured to acquire a front image stored in a blood flow measurement device or another device. For example, the front image acquisition unit may be configured to acquire a front image from an image filing system through a network. The display control unit (control unit 210) displays the front image and the measurement site information on the display unit. The display means may be included in the blood flow measurement device or a display device connected thereto. The operation unit (242) is used to set a target cross section (target cross section C2) for blood flow measurement.

このような実施形態によれば、複数の断面のOCTスキャンを行って取得された位相画像群に基づいて計測部位情報を生成し、この計測部位情報に基づいて血流計測の対象部位を設定することができる。したがって、血流計測の対象血管(注目血管)を探索するための試行錯誤を行う必要がなく、また、ユーザの経験に頼ることなく対象血管を設定することができる。したがって、血流計測の対象部位の設定の容易化及び短時間化を図ることができる。また、実施形態は、対象血管の設定の正確性や再現性の向上にも寄与する。   According to such an embodiment, measurement site information is generated based on a phase image group acquired by performing an OCT scan of a plurality of cross sections, and a target site for blood flow measurement is set based on the measurement site information. be able to. Therefore, it is not necessary to perform trial and error for searching for a target blood vessel (blood vessel of interest) for blood flow measurement, and the target blood vessel can be set without depending on the user's experience. Therefore, it is possible to facilitate the setting of the target site for blood flow measurement and to shorten the time. The embodiment also contributes to improvement in accuracy and reproducibility of setting of the target blood vessel.

〈第2実施形態〉
第1実施形態では、経時的積算値プロファイルを生成するために、位相画像のフレームを構成する全ての画素の値を積算している。それに対し、第2実施形態では、位相画像のフレームにおける一部の画素のみを積算する場合について説明する。
Second Embodiment
In the first embodiment, the values of all the pixels constituting the frame of the phase image are integrated in order to generate a temporally integrated value profile. On the other hand, in the second embodiment, a case will be described in which only some pixels in a frame of a phase image are integrated.

本実施形態の構成例を図9に示す。本実施形態の血流計測装置は、第1実施形態とほぼ同様の構成を備えるが、予備計測処理部231に層領域特定部2314が設けられている点において第1実施形態と異なる。特に言及しないかぎり、第1実施形態の図面を参照する。   A configuration example of this embodiment is shown in FIG. The blood flow measurement device of the present embodiment has substantially the same configuration as that of the first embodiment, but differs from the first embodiment in that the preliminary measurement processing unit 231 is provided with a layer region specifying unit 2314. Unless otherwise noted, reference is made to the drawings of the first embodiment.

層領域特定部2314は、OCT画像を解析することにより、このOCT画像内の層領域を特定する。層領域は、例えば、眼底Efの任意の組織に相当する画像領域、又は隣接組織間の境界に相当する画像領域である。層領域は、網膜の組織に相当する画像領域であってよい。層層領域として特定可能な組織として、内境界膜(ILM)、神経線維層(NFL)、神経節細胞層(GCL)、内網状層(IPL)、内顆粒層(INL)、外網状層(OPL)、外顆粒層(ONL)、視細胞内節外節接合部(IS/OS)、網膜色素上皮層(RPE)、ブルッフ膜(BM)脈絡膜−強膜境界(CSI)などがある。   The layer region specifying unit 2314 specifies a layer region in the OCT image by analyzing the OCT image. The layer region is, for example, an image region corresponding to an arbitrary tissue of the fundus oculi Ef or an image region corresponding to a boundary between adjacent tissues. The layer region may be an image region corresponding to retinal tissue. Tissues that can be identified as layer layer regions include inner boundary membrane (ILM), nerve fiber layer (NFL), ganglion cell layer (GCL), inner plexiform layer (IPL), inner granule layer (INL), outer reticular layer ( OPL), outer granule layer (ONL), photoreceptor inner and outer segment junction (IS / OS), retinal pigment epithelium layer (RPE), Bruch's membrane (BM) choroid-sclera boundary (CSI), and the like.

OCT画像を複数の層領域に区分けする処理はセグメンテーションと呼ばれる。セグメンテーションは、2次元断層像又は3次元画像の画素値(輝度値)に基づいて行われる。眼底Efの層組織はそれぞれ特徴的な反射率を有し、その層組織の画像領域も特徴的な輝度値を有する。セグメンテーションにおいては、そのような特徴的な輝度値に基づいて目的の画像領域が特定される。   The process of dividing the OCT image into a plurality of layer regions is called segmentation. Segmentation is performed based on pixel values (luminance values) of a two-dimensional tomographic image or a three-dimensional image. Each layer structure of the fundus oculi Ef has a characteristic reflectance, and an image region of the layer structure also has a characteristic luminance value. In segmentation, a target image area is specified based on such characteristic luminance values.

層領域特定部2314は、予備計測によって得られた位相画像のフレームのセグメンテーションを行う。そのために、層領域特定部2314は、位相画像のみ、又は位相画像及び断層像の双方を解析することができる。後者の例として、断層像に対してセグメンテーションを行い、その結果を位相画像に反映させることができる。更に、位相画像に基づいて血管領域を特定し、この血管領域が含まれる部分領域(1以上の層領域)を特定することができる。例えば、図10に示すように、フレームFにおいて血管領域Faを含む部分領域Fbが特定される。   The layer region specifying unit 2314 performs segmentation of the frame of the phase image obtained by the preliminary measurement. Therefore, the layer region specifying unit 2314 can analyze only the phase image or both the phase image and the tomographic image. As an example of the latter, it is possible to perform segmentation on a tomographic image and reflect the result in a phase image. Furthermore, a blood vessel region can be specified based on the phase image, and a partial region (one or more layer regions) including the blood vessel region can be specified. For example, as shown in FIG. 10, the partial region Fb including the blood vessel region Fa is specified in the frame F.

プロファイル生成部2311は、層領域特定部2314により特定された層領域に含まれる画素の値を(例えばAライン方向に)積算することにより、当該フレームについての積算値プロファイルを生成する。複数のフレームにおいて、積算される範囲は同じでも異なってもよい。   The profile generation unit 2311 generates an integrated value profile for the frame by integrating the values of pixels included in the layer region specified by the layer region specifying unit 2314 (for example, in the A line direction). In a plurality of frames, the integrated ranges may be the same or different.

このような実施形態によれば、積算値プロファイルに含まれるノイズの低減を図ることができる。例えば、硝子体のような動脈/静脈の判別に無関係な部分のデータを除いて積算値プロファイルを生成することができるので、動脈/静脈の判定の確度や精度の向上が期待される。   According to such an embodiment, it is possible to reduce noise included in the integrated value profile. For example, since the integrated value profile can be generated by excluding data of portions not related to the arterial / vein discrimination such as the vitreous body, the accuracy and accuracy of the arterial / vein determination are expected to be improved.

〈第3実施形態〉
2以上の血管がz方向に並んで位置する場合、OCTでは、網膜表面に最も近い血管のデータのみが好適に取得され、それ以外の血管に関するデータは十分に取得されないことが多い。このような部位を通過するAスキャン像の画素値を積算すると、得られる積算値の確度が低い可能性がある。本実施形態では、このような不適当な部分を除外して積算値プロファイルを生成する構成を説明する。
<Third Embodiment>
When two or more blood vessels are arranged side by side in the z direction, in OCT, only the data of the blood vessel closest to the retina surface is preferably acquired, and the data on the other blood vessels are often not acquired sufficiently. If the pixel values of the A scan image passing through such a part are integrated, the accuracy of the obtained integrated value may be low. In the present embodiment, a configuration in which such an inappropriate part is excluded and an integrated value profile is generated will be described.

本実施形態の構成例を図11に示す。本実施形態の血流計測装置は、第1実施形態とほぼ同様の構成を備えるが、予備計測処理部231に部分領域特定部2315が設けられている点において第1実施形態と異なる。特に言及しないかぎり、第1実施形態の図面を参照する。   A configuration example of this embodiment is shown in FIG. The blood flow measurement device according to the present embodiment has substantially the same configuration as that of the first embodiment, but differs from the first embodiment in that the preliminary measurement processing unit 231 is provided with a partial region specifying unit 2315. Unless otherwise noted, reference is made to the drawings of the first embodiment.

部分領域特定部2315は、予備計測によって得られた位相画像のフレームにおいて、被検眼Eの所定部位に相当する部分領域を特定する。所定部位は、上記のような不適当な部位を含んでよい。部分領域特定部2315は、位相画像のみ、又は位相画像及び断層像の双方を解析することによって部分領域を特定する。後者の例として、部分領域特定部2315は、断層像において所定部位に相当する領域を特定し、この領域に対応する位相画像内の部分領域を特定することができる。また、位相画像に基づいて血管領域を特定し、特定された血管領域のうちのいくつかがz方向に並んでいるか判断するようにしてもよい。   The partial area specifying unit 2315 specifies a partial area corresponding to a predetermined part of the eye E in the frame of the phase image obtained by the preliminary measurement. The predetermined part may include an inappropriate part as described above. The partial area specifying unit 2315 specifies the partial area by analyzing only the phase image or both the phase image and the tomographic image. As an example of the latter, the partial region specifying unit 2315 can specify a region corresponding to a predetermined part in the tomographic image, and can specify a partial region in the phase image corresponding to this region. Further, a blood vessel region may be specified based on the phase image, and it may be determined whether some of the specified blood vessel regions are arranged in the z direction.

プロファイル生成部2311は、部分領域特定部2315により特定された部分領域以外の領域に含まれる画素の値を(例えばAライン方向に)積算することにより、当該フレームについての積算値プロファイルを生成する。複数のフレームにおいて、積算される範囲は同じでも異なってもよい。   The profile generation unit 2311 generates an integrated value profile for the frame by integrating (for example, in the A-line direction) pixel values included in regions other than the partial region specified by the partial region specifying unit 2315. In a plurality of frames, the integrated ranges may be the same or different.

このような実施形態によれば、第2実施形態と同様に、積算値プロファイルに含まれるノイズの低減を図ることが可能である。   According to such an embodiment, as in the second embodiment, it is possible to reduce noise included in the integrated value profile.

〈変形例〉
以上に説明した構成は、この発明の実施態様の例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を施すことが可能である。
<Modification>
The configuration described above is merely an example of an embodiment of the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made.

例えば、上記の典型的な実施形態では、生体の複数の断面を繰り返し走査してデータを取得し、複数の断面のそれぞれにおける位相画像を形成し、複数の断面のそれぞれにおける経時的積算値プロファイルを生成し、それに基づき計測部位情報を生成している。しかしながら、処理の対象となる断面の個数は2以上には限定されず、1つであってもよい。つまり、実施形態は、生体の「単一」の断面を繰り返し走査してデータを取得し、この断面における位相画像を形成し、この断面における経時的積算値プロファイルを生成し、この経時的積算値プロファイルに基づいて計測部位情報を生成するよう構成されてもよい。   For example, in the above exemplary embodiment, data is acquired by repeatedly scanning a plurality of cross sections of a living body, a phase image in each of the plurality of cross sections is formed, and a temporally integrated value profile in each of the plurality of cross sections is obtained. The measurement part information is generated based on it. However, the number of cross sections to be processed is not limited to two or more and may be one. In other words, the embodiment repeatedly scans a “single” cross section of a living body to acquire data, forms a phase image in this cross section, generates a temporal integrated value profile in this cross section, and generates this temporal integrated value. The measurement part information may be generated based on the profile.

また、動脈でも静脈でも、同じ血管であれば任意の断面における血流速度は同程度であり、拍動状態も同様であることを考慮すると、単一の断面において動脈領域と静脈領域との判別を行うことが可能である。その場合であっても、上記実施形態と同じ要領で動脈領域や静脈領域を特定することができる。ただし、単一の断面に対して処理を適用する場合にはこの断面に交差する血管の判別しか行えないため、複数の血管について判別を行いたい場合には、これら血管の位置や数に応じた個数の断面に対して処理を適用する必要がある。   In addition, considering that the blood flow velocity in any cross section is the same for both arteries and veins, and the pulsation state is the same, distinguishing between the arterial region and the venous region in a single cross section Can be done. Even in that case, the arterial region and the vein region can be specified in the same manner as in the above embodiment. However, when processing is applied to a single cross section, only the blood vessels that intersect this cross section can be identified. It is necessary to apply processing to a number of cross sections.

以上より、実施形態に係る血流計測装置において、データ取得部は、生体の1以上の断面を繰り返し走査してデータを取得するよう構成されてよく、位相画像形成部は、取得されたデータに基づいて1以上の断面のそれぞれにおける位相画像を形成するよう構成されてよく、処理部は、位相画像の各フレームにおける少なくとも一部の画素の値を積算することにより1以上の断面のそれぞれにおける経時的積算値プロファイルを生成し、この経時的積算値プロファイルに基づいて血流計測のための計測部位情報を生成するよう構成されてよい。   As described above, in the blood flow measurement device according to the embodiment, the data acquisition unit may be configured to acquire data by repeatedly scanning one or more cross sections of the living body, and the phase image forming unit may acquire the acquired data. A phase image in each of the one or more cross-sections, and the processing unit integrates the values of at least some of the pixels in each frame of the phase image to time over each of the one or more cross-sections. A cumulative integrated value profile may be generated, and measurement site information for blood flow measurement may be generated based on the temporal integrated value profile.

この構成においても、処理部は、上記実施形態と同様に、セグメンテーションと、層領域の画素値の積算とによって、経時的積算値プロファイルを生成することができる。或いは、処理部は、上記実施形態と同様に、位相画像中の部分領域の特定と、部分領域以外の領域の画素値の積算によって経時的積算値プロファイルを生成することができる。更に、生体の正面画像と計測部位情報とを表示し、血流計測の対象断面の設定を受け付けるよう構成することも可能である。   Also in this configuration, the processing unit can generate a temporally integrated value profile by segmentation and integration of pixel values of layer regions, as in the above embodiment. Alternatively, the processing unit can generate a temporally integrated value profile by specifying partial areas in the phase image and integrating pixel values of areas other than the partial areas, as in the above embodiment. Furthermore, it is possible to display the front image of the living body and the measurement site information, and accept the setting of the target cross section for blood flow measurement.

上記の典型的な実施形態では、血流計測の対象部位を設定するために動脈領域を選択的に特定しているが、静脈領域を特定することも可能である。つまり、実施形態において、領域特定部は、経時的積算値プロファイルを解析することにより動脈領域及び静脈領域の少なくとも一方を特定するよう構成されてよい。静脈領域の特定は、動脈領域の特定と同じ要領で行うことができる。例えば、領域特定部は、経時的積算値プロファイルを解析することによりその経時的変化の程度(積算値の経時的なばらつき)を示す情報を求め、この情報に基づいて静脈領域を特定するよう構成されてよい。或いは、領域特定部は、経時的積算値プロファイルにおける代表値(例えば、最大値、極大値など)の大きさに基づいて静脈領域を特定するよう構成されてよい。   In the above exemplary embodiment, the arterial region is selectively specified in order to set the target site for blood flow measurement, but the vein region can also be specified. That is, in the embodiment, the region specifying unit may be configured to specify at least one of the arterial region and the venous region by analyzing the integrated value profile over time. The vein region can be identified in the same manner as the arterial region. For example, the region specifying unit is configured to obtain information indicating the degree of change over time (variation of integrated values over time) by analyzing the integrated value profile over time, and specify a vein region based on this information May be. Alternatively, the region specifying unit may be configured to specify the vein region based on the size of the representative value (for example, the maximum value, the maximum value, etc.) in the temporal integrated value profile.

特定の対象となる血管の種別を手動又は自動で選択することができる。例えば、診断やスクリーニングのために動脈血流を考慮するのが有効である場合には、特定対象として動脈が選択される。逆に、診断やスクリーニングのために静脈血流を考慮するのが有効である場合には、特定対象として動脈が選択される。また、診断やスクリーニングのために、全身に送られる動脈血流及び静脈血流の双方の解析が必要である場合には、特定対象として動脈と静脈の双方が選択される。領域特定部は、特定対象として選択された動脈及び/又は静脈に対応する領域を特定するよう動作する。なお、実施形態に係る血管の判別は、血流計測以外にも適用可能である。例えば、動脈や静脈の形状や分布を求めるために血管の判別を適用することができる。   The type of blood vessel as a specific target can be selected manually or automatically. For example, when it is effective to consider arterial blood flow for diagnosis or screening, an artery is selected as a specific target. Conversely, when it is effective to consider venous blood flow for diagnosis or screening, an artery is selected as a specific target. In addition, when it is necessary to analyze both arterial blood flow and venous blood flow sent to the whole body for diagnosis and screening, both the artery and vein are selected as specific objects. The region specifying unit operates to specify a region corresponding to the artery and / or vein selected as the specifying target. The blood vessel discrimination according to the embodiment can be applied to other than blood flow measurement. For example, blood vessel discrimination can be applied to determine the shape and distribution of arteries and veins.

このようにして領域特定部により特定された動脈領域及び静脈領域の少なくとも一方に基づいて、情報生成部は計測部位情報を生成することができる。   In this manner, the information generation unit can generate measurement site information based on at least one of the arterial region and the vein region specified by the region specifying unit.

上記の典型的な実施形態では、経時的積算値プロファイルを生成するために、位相画像のフレーム(2次元断面)における少なくとも一部の画素の値をAライン方向に積算している。しかし、画素値を積算する方向はAライン方向に限定されない。例えば、フレームにおいてAライン方向に直交する方向(横スキャン方向)に画素値を積算することができる。或いは、Aライン方向とも横スキャン方向とも異なる任意の方向に画素値の積算を行うように構成することも可能である。   In the above exemplary embodiment, the values of at least some of the pixels in the frame (two-dimensional cross section) of the phase image are integrated in the A-line direction in order to generate a temporal integration value profile. However, the direction in which the pixel values are integrated is not limited to the A line direction. For example, pixel values can be integrated in a direction orthogonal to the A-line direction (horizontal scan direction) in the frame. Alternatively, the pixel values can be integrated in any direction different from the A line direction and the horizontal scan direction.

また、位相画像のフレームは2次元断面には限定されない。例えば3次元領域の位相画像が得られる場合、この3次元領域における任意の方向に画素値を積算することにより、経時的画素値プロファイルを生成することが可能である。   The frame of the phase image is not limited to a two-dimensional section. For example, when a phase image of a three-dimensional region is obtained, it is possible to generate a temporal pixel value profile by integrating pixel values in an arbitrary direction in the three-dimensional region.

また、位相画像のフレームが2次元断面である場合において、この2次元断面は平面には限定されない。例えば、サークルスキャンが適用される場合、位相画像のフレームは円筒形の断面に相当する。このような場合、当該断面における任意の方向に画素値を積算することによって経時的積算値プロファイルを生成することが可能である。より一般に、画素値を積算する方向は、直線的な方向(一定方向)には限定されず、曲線的な方向のような任意の経路に沿う方向であってよい。   Further, when the phase image frame is a two-dimensional cross section, the two-dimensional cross section is not limited to a plane. For example, when circle scanning is applied, the frame of the phase image corresponds to a cylindrical cross section. In such a case, it is possible to generate a temporally integrated value profile by integrating pixel values in an arbitrary direction in the cross section. More generally, the direction in which pixel values are integrated is not limited to a linear direction (a constant direction), and may be a direction along an arbitrary path such as a curved direction.

また、一のフレームにおいて複数の方向に画素値を積算することもできる。例えば、複数の方向にそれぞれ画素値を積算することにより複数の経時的積算値プロファイルを生成することが可能である。そして、複数の経時的積算値プロファイルのいずれかを選択して使用することや、複数の経時的積算値プロファイルのうちの2つ以上を統合して得られるデータを使用することが可能である。   In addition, pixel values can be integrated in a plurality of directions in one frame. For example, it is possible to generate a plurality of temporal integration value profiles by integrating pixel values in a plurality of directions, respectively. Then, it is possible to select and use one of a plurality of time-integrated value profiles, or use data obtained by integrating two or more of the plurality of time-integrated value profiles.

1 血流計測装置
100 OCTユニット
222 位相画像形成部
231 予備計測処理部

1 Blood Flow Measurement Device 100 OCT Unit 222 Phase Image Forming Unit 231 Preliminary Measurement Processing Unit

Claims (9)

光コヒーレンストモグラフィ(OCT)光学系を用いて被検眼から取得された画像を処理するデータ処理部を含む眼科画像処理装置であって、
前記データ処理部は、前記被検眼の血管に対応する画像領域を含む画像に基づいて、前記血管が動脈であるか静脈であるかを示す情報を生成する
ことを特徴とする眼科画像処理装置。
An ophthalmic image processing apparatus including a data processing unit that processes an image acquired from an eye to be examined using an optical coherence tomography (OCT) optical system,
The data processing unit generates information indicating whether the blood vessel is an artery or a vein based on an image including an image region corresponding to a blood vessel of the eye to be examined.
前記データ処理部は、前記画像における輝度値に基づいて前記情報を生成する
ことを特徴とする請求項1に記載の眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1, wherein the data processing unit generates the information based on a luminance value in the image.
前記データ処理部は、前記画像における輝度値の大きさに基づいて前記情報を生成する
ことを特徴とする請求項2に記載の眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 2, wherein the data processing unit generates the information based on a luminance value in the image.
前記データ処理部は、前記画像の一部の領域に基づいて前記情報を生成する
ことを特徴とする請求項1〜3のいずれかに記載の眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1, wherein the data processing unit generates the information based on a partial region of the image.
前記データ処理部は、前記画像から2以上の前記画像領域を特定し、特定された前記2以上の画像領域のそれぞれに対応する血管について前記情報を生成する
ことを特徴とする請求項1〜4のいずれかに記載の眼科画像処理装置。
The data processing unit identifies two or more image regions from the image, and generates the information for blood vessels corresponding to each of the identified two or more image regions. The ophthalmic image processing apparatus according to any one of the above.
前記データ処理部は、前記画像のセグメンテーションを行い、前記セグメンテーションにより特定された1以上の部分領域のいずれかに基づいて前記情報を生成する
ことを特徴とする請求項1〜5のいずれかに記載の眼科画像処理装置。
The said data processing part performs the segmentation of the said image, The said information is produced | generated based on either of the one or more partial area specified by the said segmentation. Ophthalmic image processing device.
前記データ処理部により生成された前記情報に基づく情報を表示手段に表示させる制御部を含む
ことを特徴とする請求項1〜6のいずれかに記載の眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1, further comprising: a control unit that causes a display unit to display information based on the information generated by the data processing unit.
前記制御部は、前記データ処理部により生成された前記情報に基づく情報を、前記被検眼の眼底の正面画像とともに表示させる
ことを特徴とする請求項7に記載の眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 7, wherein the control unit displays information based on the information generated by the data processing unit together with a front image of the fundus of the eye to be examined.
前記制御部は、前記データ処理部により生成された前記情報に基づく情報を、前記被検眼の眼底の血管造影画像とともに表示させる
ことを特徴とする請求項8に記載の眼科画像処理装置。

The ophthalmic image processing apparatus according to claim 8, wherein the control unit displays information based on the information generated by the data processing unit together with an angiographic image of the fundus of the eye to be examined.

JP2017160229A 2017-08-23 2017-08-23 Ophthalmic image processing device Active JP6646021B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017160229A JP6646021B2 (en) 2017-08-23 2017-08-23 Ophthalmic image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017160229A JP6646021B2 (en) 2017-08-23 2017-08-23 Ophthalmic image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015209336A Division JP2017079886A (en) 2015-10-23 2015-10-23 Blood flow measurement device

Publications (2)

Publication Number Publication Date
JP2017202369A true JP2017202369A (en) 2017-11-16
JP6646021B2 JP6646021B2 (en) 2020-02-14

Family

ID=60321820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017160229A Active JP6646021B2 (en) 2017-08-23 2017-08-23 Ophthalmic image processing device

Country Status (1)

Country Link
JP (1) JP6646021B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019150345A (en) * 2018-03-05 2019-09-12 キヤノン株式会社 Image processing system, image processing method and program
WO2020138224A1 (en) * 2018-12-28 2020-07-02 株式会社トプコン Blood flow measurement device, control method therefor, program, and recording medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355218A (en) * 2001-06-01 2002-12-10 Canon Inc Eye blood flowmeter
JP2003019119A (en) * 2001-07-10 2003-01-21 Canon Inc Eyeground rheometer
JP2009165710A (en) * 2008-01-17 2009-07-30 Univ Of Tsukuba Quantitative measuring instrument of fundus blood flow
JP2013184018A (en) * 2012-03-12 2013-09-19 Topcon Corp Optical image measurement system
WO2013137148A1 (en) * 2012-03-12 2013-09-19 株式会社トプコン Optical image measurement device, image display device, and image display method
JP2014023683A (en) * 2012-07-26 2014-02-06 Kyoto Univ Vascular age output device, and vascular age output method and program
JP2014104275A (en) * 2012-11-29 2014-06-09 Osaka Univ Ophthalmologic apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355218A (en) * 2001-06-01 2002-12-10 Canon Inc Eye blood flowmeter
JP2003019119A (en) * 2001-07-10 2003-01-21 Canon Inc Eyeground rheometer
JP2009165710A (en) * 2008-01-17 2009-07-30 Univ Of Tsukuba Quantitative measuring instrument of fundus blood flow
JP2013184018A (en) * 2012-03-12 2013-09-19 Topcon Corp Optical image measurement system
WO2013137148A1 (en) * 2012-03-12 2013-09-19 株式会社トプコン Optical image measurement device, image display device, and image display method
JP2014023683A (en) * 2012-07-26 2014-02-06 Kyoto Univ Vascular age output device, and vascular age output method and program
JP2014104275A (en) * 2012-11-29 2014-06-09 Osaka Univ Ophthalmologic apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
S. M. REZA MOTAGHIANNEZAM ET. AL.: "Differential phase-contrast, swept-source optical coherence tomography at 1060 nm for in vino human", JOURNAL OF BIOMEDICAL OPTICS, vol. 17, no. 2, JPN6016047488, 1 March 2012 (2012-03-01), pages 026011 - 1, ISSN: 0004069500 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019150345A (en) * 2018-03-05 2019-09-12 キヤノン株式会社 Image processing system, image processing method and program
WO2019171986A1 (en) * 2018-03-05 2019-09-12 キヤノン株式会社 Image processing device, image processing method, and program
JP7140512B2 (en) 2018-03-05 2022-09-21 キヤノン株式会社 Image processing device, image processing method and program
WO2020138224A1 (en) * 2018-12-28 2020-07-02 株式会社トプコン Blood flow measurement device, control method therefor, program, and recording medium
JP2020103714A (en) * 2018-12-28 2020-07-09 株式会社トプコン Blood flow measurement device, control method therefor, program, and recording medium

Also Published As

Publication number Publication date
JP6646021B2 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
JP5867719B2 (en) Optical image measuring device
JP5912358B2 (en) Fundus observation device
US10980416B2 (en) Blood flow measurement apparatus
JP5916110B2 (en) Image display device, image display method, and program
JP5941761B2 (en) Ophthalmic photographing apparatus and ophthalmic image processing apparatus
JP6633468B2 (en) Blood flow measurement device
WO2017069019A1 (en) Blood flow measurement device
JP6402025B2 (en) Blood flow measuring device
JP6502790B2 (en) Blood flow measuring device
JP6646021B2 (en) Ophthalmic image processing device
WO2020044712A1 (en) Ophthalmology device, and control method therefor
US10905323B2 (en) Blood flow measurement apparatus
JP2019054994A (en) Ophthalmologic imaging apparatus, ophthalmologic information processing apparatus, program, and recording medium
JP2022044838A (en) Ophthalmologic apparatus and data collection method
JP7068366B2 (en) Blood flow measuring device
JP6021289B2 (en) Blood flow information generation device, blood flow information generation method, and program
JP6502791B2 (en) Blood flow measuring device
JP7387812B2 (en) Image processing device, image processing method and program
JP7221628B2 (en) Blood flow measuring device, information processing device, information processing method, and program
JP6453191B2 (en) Blood flow measuring device
WO2017033670A1 (en) Blood flow measuring device
JP2023128334A (en) Information processor, optical coherence tomography device, information processing method, and program
JP2023175006A (en) Ophthalmologic apparatus and control method thereof
JP2019054990A (en) Ophthalmologic imaging apparatus, control method thereof, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200109

R150 Certificate of patent or registration of utility model

Ref document number: 6646021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250