JP7386949B2 - Ophthalmology information processing device - Google Patents

Ophthalmology information processing device Download PDF

Info

Publication number
JP7386949B2
JP7386949B2 JP2022152204A JP2022152204A JP7386949B2 JP 7386949 B2 JP7386949 B2 JP 7386949B2 JP 2022152204 A JP2022152204 A JP 2022152204A JP 2022152204 A JP2022152204 A JP 2022152204A JP 7386949 B2 JP7386949 B2 JP 7386949B2
Authority
JP
Japan
Prior art keywords
blood flow
image
data
cross
oct
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022152204A
Other languages
Japanese (ja)
Other versions
JP2022171989A (en
Inventor
宏太 藤井
誠 雜賀
潤 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2022152204A priority Critical patent/JP7386949B2/en
Publication of JP2022171989A publication Critical patent/JP2022171989A/en
Priority to JP2023126860A priority patent/JP7529861B2/en
Application granted granted Critical
Publication of JP7386949B2 publication Critical patent/JP7386949B2/en
Priority to JP2024076241A priority patent/JP2024096395A/en
Priority to JP2024076239A priority patent/JP2024096393A/en
Priority to JP2024076240A priority patent/JP2024096394A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

実施形態は、眼科情報処理装置に関する。 Embodiments relate to an ophthalmological information processing device.

眼科分野において画像診断は重要な位置を占める。近年では光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)の活用が進んでいる。OCTは、被検眼のBスキャン画像や3次元画像の取得だけでなく、Cスキャン画像やシャドウグラムなどの正面画像(en-face画像)の取得にも利用されるようになってきている。 Image diagnosis occupies an important position in the field of ophthalmology. In recent years, optical coherence tomography (OCT) has been increasingly utilized. OCT has come to be used not only to obtain B-scan images and three-dimensional images of the eye to be examined, but also to obtain en-face images such as C-scan images and shadowgrams.

更に、被検眼の特定部位を強調した画像を取得することや、機能情報を取得することも行われている。例えば、OCTにより収集された時系列データに基づいて、眼底血管が強調されたBスキャン画像や正面画像(血管強調画像、アンジオグラムなどと呼ばれる)を構築することができる。この技術は、OCT血管造影(OCT Angiography)などと呼ばれる。また、OCTにより収集された時系列データの位相情報に基づいて血流に関する情報を取得することができる。この技術は、OCT血流計測などと呼ばれる。 Furthermore, it is also practiced to obtain an image in which a specific part of the eye to be examined is emphasized, and to obtain functional information. For example, a B-scan image or a frontal image (referred to as a blood vessel-enhanced image, angiogram, etc.) in which fundus blood vessels are emphasized can be constructed based on time-series data collected by OCT. This technique is called OCT angiography. Furthermore, information regarding blood flow can be acquired based on phase information of time-series data collected by OCT. This technique is called OCT blood flow measurement or the like.

特表2015-515894号公報Special Publication No. 2015-515894 特開2013-184018号公報Japanese Patent Application Publication No. 2013-184018

実施形態の目的は、OCT血流計測により得られた情報の新規な表示態様を提供することにある。 The purpose of the embodiment is to provide a new display mode of information obtained by OCT blood flow measurement.

実施形態の眼科情報処理装置は、記憶部と表示処理部とを含む。記憶部は、被検眼の眼底にOCT血流計測を適用して取得されたデータを記憶する。表示処理部は、記憶部に記憶されているデータに基づいて血流の時系列変化を表す血流グラフを表示させる処理と、血流グラフの時間軸である第1時間軸に沿って移動可能な第1ウィジェットを表示させる処理と、OCT血流計測の計測期間を示す第2時間軸に沿って移動可能な第2ウィジェットを表示させる処理と、第1時間軸に対する第1ウィジェットの位置を第2時間軸に対する第2ウィジェットの位置に対応させる処理とを実行する。 The ophthalmological information processing device of the embodiment includes a storage section and a display processing section. The storage unit stores data obtained by applying OCT blood flow measurement to the fundus of the eye to be examined. The display processing unit is capable of displaying a blood flow graph representing time-series changes in blood flow based on data stored in the storage unit, and is capable of moving along a first time axis that is a time axis of the blood flow graph. a process of displaying a first widget, a process of displaying a second widget movable along a second time axis indicating a measurement period of OCT blood flow measurement, and a process of displaying a second widget that is movable along a second time axis indicating a measurement period of OCT blood flow measurement; 2. Processing to correspond to the position of the second widget with respect to the time axis is executed.

実施形態によれば、OCT血流計測により得られた情報の新規な表示態様を提供することが可能である。 According to the embodiment, it is possible to provide a new display mode of information obtained by OCT blood flow measurement.

例示的な実施形態に係る眼科撮影装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example of the configuration of an ophthalmologic imaging apparatus according to an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置が実行する処理の一例を説明するための概略図である。FIG. 2 is a schematic diagram for explaining an example of a process executed by an ophthalmologic imaging apparatus according to an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置の動作の一例を表すフローチャートである。3 is a flowchart illustrating an example of the operation of the ophthalmologic imaging apparatus according to the exemplary embodiment. 例示的な実施形態に係る眼科撮影装置が実行する処理の一例を説明するための概略図である。FIG. 2 is a schematic diagram for explaining an example of a process executed by an ophthalmologic imaging apparatus according to an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置が実行する処理の一例を説明するための概略図である。FIG. 2 is a schematic diagram for explaining an example of a process executed by an ophthalmologic imaging apparatus according to an exemplary embodiment. 例示的な実施形態に係る眼科撮影装置が実行する処理の一例を説明するための概略図である。FIG. 2 is a schematic diagram for explaining an example of a process executed by an ophthalmologic imaging apparatus according to an exemplary embodiment. 例示的な実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example of the configuration of an ophthalmological information processing apparatus according to an exemplary embodiment.

この発明の例示的な実施形態について、図面を参照しながら説明する。なお、この明細書で引用された文献の開示事項を含む任意の公知技術を、実施形態に組み合わせることが可能である。 Exemplary embodiments of the invention will be described with reference to the drawings. Note that it is possible to combine any known technology including the disclosures of the documents cited in this specification into the embodiments.

実施形態に係る眼科情報処理装置及び眼科撮影装置は、被検眼の眼底にOCTを適用して取得されたデータに基づいて各種情報を表示させる機能を有する。実施形態に係る眼科情報処理装置は、例えば、別途に設けられたOCT装置が被検眼の眼底にOCTを適用して取得したデータを受け、このデータに基づいて各種情報の表示を実行する。一方、実施形態に係る眼科撮影装置は、被検眼の眼底にOCTを適用してデータを取得し、このデータに基づいて各種情報の表示を実行する。 The ophthalmologic information processing device and the ophthalmologic imaging device according to the embodiments have a function of displaying various information based on data obtained by applying OCT to the fundus of an eye to be examined. The ophthalmological information processing device according to the embodiment receives data obtained by applying OCT to the fundus of the eye to be examined by a separately provided OCT device, and displays various information based on this data. On the other hand, the ophthalmologic imaging apparatus according to the embodiment acquires data by applying OCT to the fundus of the subject's eye, and displays various information based on this data.

被検眼の眼底にOCTを適用して取得されたデータ(眼底OCTデータ)は、任意の形態のデータであってよい。例えば、眼底OCTデータは、次の(1)~(5)のいずれか1以上を含んでいてよい。
(1)眼底のOCTスキャンによって収集されたデータ(生データ)
(2)生データを処理して得られた画像データ
(3)生データから画像データを生成するための一連の処理の途中で得られた中間データ
(4)生データを処理して得られた血流データ
(5)生データから血流データを生成するための一連の処理の途中で得られた中間データ
Data obtained by applying OCT to the fundus of the eye to be examined (fundus OCT data) may be data in any form. For example, fundus OCT data may include any one or more of the following (1) to (5).
(1) Data collected by OCT scan of the fundus (raw data)
(2) Image data obtained by processing raw data (3) Intermediate data obtained during a series of processing to generate image data from raw data (4) Image data obtained by processing raw data Blood flow data (5) Intermediate data obtained during a series of processes to generate blood flow data from raw data

なお、眼底OCTデータの種別はこれらに限定されない。また、実施形態は、眼底OCTデータに関連付けられた各種情報を処理することができる。このような情報の例として、被検者識別情報、被検眼識別情報、被検眼が左眼であるか右眼であるかを示す識別情報、撮影日時、撮影条件などがある。 Note that the types of fundus OCT data are not limited to these. Embodiments may also process various information associated with fundus OCT data. Examples of such information include patient identification information, eye identification information, identification information indicating whether the eye to be examined is the left eye or right eye, photographing date and time, and photographing conditions.

実施形態に係る眼科情報処理装置及び眼科撮影装置は、データ表示処理を実行するプロセッサを含む。実施形態に係る眼科情報処理装置は、更に、生データや中間データを処理するプロセッサを含んでもよい。実施形態に係る眼科撮影装置は、更に、OCTを実行するための光学系や駆動系や制御系やデータ処理系を含む。 The ophthalmologic information processing device and the ophthalmologic imaging device according to the embodiments include a processor that executes data display processing. The ophthalmological information processing device according to the embodiment may further include a processor that processes raw data and intermediate data. The ophthalmologic imaging apparatus according to the embodiment further includes an optical system, a drive system, a control system, and a data processing system for performing OCT.

実施形態の眼科撮影装置は、例えばフーリエドメインOCTを実行可能に構成される。フーリエドメインOCTには、スペクトラルドメインOCTと、スウェプトソースOCTとが含まれる。スペクトラルドメインOCTは、広帯域の低コヒーレンス光源と分光器とを用いて、干渉光のスペクトルを空間分割で取得し、それをフーリエ変換することによって画像を構築する手法である。スウェプトソースOCTは、波長掃引光源(波長可変光源)と光検出器(バランスドフォトダイオード等)とを用いて、干渉光のスペクトルを時分割で取得し、それをフーリエ変換することによって画像を構築する手法である。OCTの手法はフーリエドメインOCTには限定されず、タイムドメインOCTやアンファスOCTでもよい。 The ophthalmologic imaging apparatus of the embodiment is configured to be able to perform, for example, Fourier domain OCT. Fourier domain OCT includes spectral domain OCT and swept source OCT. Spectral domain OCT is a method that uses a broadband low-coherence light source and a spectrometer to acquire the spectrum of interference light by spatial division, and constructs an image by Fourier transforming the spectrum. Swept source OCT uses a wavelength swept light source (tunable wavelength light source) and a photodetector (balanced photodiode, etc.) to acquire the spectrum of interference light in a time-division manner, and constructs an image by Fourier transforming it. This is a method to do so. The OCT method is not limited to Fourier domain OCT, but may be time domain OCT or unfazed OCT.

実施形態に係る眼科情報処理装置及び眼科撮影装置は、眼及び/又は他の部位を画像化するためのモダリティ(例えば、OCT以外のモダリティ)を含んでいてもよい。その典型例として、眼底カメラ、走査型レーザー検眼鏡(SLO)、スリットランプ顕微鏡、眼科手術用顕微鏡などがある。また、実施形態に係る眼科情報処理装置及び眼科撮影装置は、眼及び/又は他の部位の特性を測定するための構成や、検査を行うための構成を含んでいてもよい。 The ophthalmologic information processing device and the ophthalmologic imaging device according to the embodiments may include a modality (for example, a modality other than OCT) for imaging the eye and/or other parts. Typical examples include fundus cameras, scanning laser ophthalmoscopes (SLO), slit lamp microscopes, and ophthalmic surgery microscopes. Further, the ophthalmologic information processing device and the ophthalmologic imaging device according to the embodiments may include a configuration for measuring characteristics of the eye and/or other parts, and a configuration for performing an examination.

実施形態に係る眼科情報処理装置及び眼科撮影装置におけるデータ処理機能(演算機能、画像処理機能、制御機能等)は、例えば、プロセッサや記憶装置等のハードウェアと、演算プログラムや画像処理プログラムや制御プログラム等のソフトウェアとが協働することによって実現される。なお、ハードウェアの一部は、実施形態に係る眼科情報処理装置又は眼科撮影装置との間で通信が可能な外部装置に設けられていてよい。また、ソフトウェアの少なくとも一部は、実施形態に係る眼科情報処理装置又は眼科撮影装置に予め格納されてよく、及び/又は、外部装置に予め格納されてよい。 The data processing functions (calculation functions, image processing functions, control functions, etc.) in the ophthalmological information processing device and the ophthalmological imaging device according to the embodiments include, for example, hardware such as a processor and a storage device, a calculation program, an image processing program, and a control function. This is achieved through cooperation with software such as programs. Note that a part of the hardware may be provided in an external device that can communicate with the ophthalmologic information processing device or the ophthalmologic imaging device according to the embodiment. Further, at least a part of the software may be stored in advance in the ophthalmological information processing device or ophthalmological imaging device according to the embodiment, and/or may be stored in advance in an external device.

〈眼科撮影装置〉
〈構成〉
例示的な実施形態に係る眼科撮影装置について説明する。本実施形態の眼科撮影装置の構成例を図1に示す。眼科撮影装置1は、OCTを用いて眼底のデータを収集し、収集されたデータに基づいて眼底形態画像及び眼底血流データを生成し、これらに基づき各種情報を表示する。
<Ophthalmology imaging equipment>
<composition>
An ophthalmologic imaging device according to an exemplary embodiment will be described. FIG. 1 shows an example of the configuration of the ophthalmologic imaging apparatus of this embodiment. The ophthalmologic imaging device 1 collects fundus data using OCT, generates a fundus morphological image and fundus blood flow data based on the collected data, and displays various information based on these.

ここで、眼底形態画像は、眼底の形態を表現した画像である。本実施形態では、眼底形態画像は、少なくとも眼底血管(網膜血管、脈絡膜血管など)が視覚的に識別可能な態様で表現された画像である。眼底形態画像の例として、Bスキャン画像、Cスキャン画像、プロジェクション画像、シャドウグラム、位相画像、血管強調画像などがある。また、眼底血流データは、眼底血管における血流状態(血流動態)を表すデータである。眼底血流データの例として、血流の向き、血流速度、血流速度の時系列変化、血流量、単位時間当たり血流量、単位時間当たり血流量の時系列変化、全血流量などがある。 Here, the fundus morphology image is an image expressing the morphology of the fundus. In this embodiment, the fundus morphological image is an image in which at least fundus blood vessels (retinal blood vessels, choroidal blood vessels, etc.) are expressed in a visually distinguishable manner. Examples of fundus morphological images include B-scan images, C-scan images, projection images, shadowgrams, phase images, and blood vessel-enhanced images. Further, the fundus blood flow data is data representing the state of blood flow (blood flow dynamics) in the fundus blood vessels. Examples of fundus blood flow data include blood flow direction, blood flow velocity, time series changes in blood flow velocity, blood flow volume, blood flow volume per unit time, time series changes in blood flow volume per unit time, total blood flow volume, etc. .

本実施形態では、OCT血流計測を眼底に適用して得られたデータに基づいて形態画像及び血流データの双方を形成する。なお、形態画像を取得するためのOCTスキャン(例えば、Bスキャン、3次元スキャン)と、血流データを取得するためのOCTスキャン(OCT血流計測)とを別々に実行するようにしてもよい。また、これら以外のデータを取得するためのOCTスキャンを実行してもよい。例えば、OCT血管造影を実行することができる。 In this embodiment, both a morphological image and blood flow data are formed based on data obtained by applying OCT blood flow measurement to the fundus of the eye. Note that an OCT scan (for example, B scan, three-dimensional scan) for acquiring a morphological image and an OCT scan (OCT blood flow measurement) for acquiring blood flow data may be performed separately. . Further, an OCT scan may be performed to obtain data other than these. For example, OCT angiography can be performed.

情報の表示に用いられるデータの一部を他の装置によって取得するようにしてもよい。例えば、眼底形態画像及び眼底血流データの一方を他の装置によって取得してもよい。或いは、他の装置がOCT血管造影を実行して血管強調画像を取得してもよい。他の装置により取得されたデータは、実施形態に係る眼科撮影装置に入力される。 Part of the data used to display the information may be acquired by another device. For example, either the fundus morphological image or the fundus blood flow data may be acquired by another device. Alternatively, other devices may perform OCT angiography to obtain vessel-enhanced images. Data acquired by another device is input to the ophthalmologic imaging device according to the embodiment.

眼科撮影装置1は、眼底形態画像、血流情報、血管強調画像などの各種情報を、表示デバイス2に表示することができる。表示デバイス2は眼科撮影装置1の一部であってもよいし、眼科撮影装置1に接続された外部装置であってもよい。また、眼科撮影装置1は、各種情報を、コンピュータ、記憶装置、眼科装置などに送ることができる。 The ophthalmologic imaging apparatus 1 can display various information such as fundus morphological images, blood flow information, and blood vessel emphasis images on the display device 2. The display device 2 may be a part of the ophthalmologic imaging apparatus 1 or may be an external device connected to the ophthalmologic imaging apparatus 1. Further, the ophthalmologic imaging device 1 can send various information to a computer, a storage device, an ophthalmologic device, and the like.

眼科撮影装置1は、制御部10と、記憶部20と、データ取得部30と、操作部50と、正面画像取得部60とを含む。制御部10は、スキャン制御部11と、表示制御部12とを含む。データ取得部30は、OCTスキャナ31と、画像形成部32と、血流データ生成部33とを含む。 The ophthalmologic imaging apparatus 1 includes a control section 10, a storage section 20, a data acquisition section 30, an operation section 50, and a front image acquisition section 60. The control unit 10 includes a scan control unit 11 and a display control unit 12. The data acquisition unit 30 includes an OCT scanner 31, an image forming unit 32, and a blood flow data generating unit 33.

〈制御部10〉
制御部10は、眼科撮影装置1の各部を制御する。制御部10はプロセッサを含む。「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。制御部10は、例えば、記憶回路や記憶装置(記憶部20、外部装置等)に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現することができる。
<Control unit 10>
The control unit 10 controls each part of the ophthalmologic imaging apparatus 1. Control unit 10 includes a processor. A "processor" includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, an SPL D (Simple Programmable Logic Device), CPLD (Complex Programmable Logic Device) , FPGA (Field Programmable Gate Array), and other circuits. The control unit 10 can realize the functions according to the embodiment by, for example, reading and executing a program stored in a storage circuit or a storage device (storage unit 20, external device, etc.).

また、制御部10は、ローカルエリアネットワーク(LAN)、インターネット、専用線等の通信回線を介してデータの送受信を行うための通信デバイスを含んでよい。 Further, the control unit 10 may include a communication device for transmitting and receiving data via a communication line such as a local area network (LAN), the Internet, or a dedicated line.

〈スキャン制御部11〉
スキャン制御部11は、OCTスキャナ31を制御する。例えば、スキャン制御部11は、光源の制御、光スキャナの制御、測定光及び/又は参照光の光路長の変更、偏光調整、光量調整、フォーカス調整、固視位置の変更など、OCTスキャナ31に含まれる各種要素を制御する。スキャン制御部11が実行可能な処理の幾つかの例を後述する。
<Scan control unit 11>
The scan control unit 11 controls the OCT scanner 31. For example, the scan control unit 11 controls the OCT scanner 31 by controlling the light source, controlling the optical scanner, changing the optical path length of the measurement light and/or reference light, polarization adjustment, light amount adjustment, focus adjustment, change of the fixation position, etc. Control the various elements included. Some examples of processes that can be executed by the scan control unit 11 will be described later.

〈表示制御部12〉
表示制御部12は、表示デバイス2に情報を表示するための制御を実行する。表示制御部12は、記憶部20に格納されたデータに基づいて表示制御を実行することができる。
<Display control unit 12>
The display control unit 12 executes control for displaying information on the display device 2. The display control unit 12 can perform display control based on data stored in the storage unit 20.

表示制御部12は、表示デバイス2に表示される情報に関する処理(生成、加工、合成等)を行うことができる。表示制御部12と他の要素(制御部10の他の要素、データ取得部30等)との連係によって、このような処理を実行するようにしてもよい。 The display control unit 12 can perform processing (generation, processing, composition, etc.) regarding information displayed on the display device 2. Such processing may be executed by cooperation between the display control unit 12 and other elements (other elements of the control unit 10, the data acquisition unit 30, etc.).

〈記憶部20〉
記憶部20には各種データが記憶される。本例においては、OCTデータ21が記憶部20に記憶される。なお、外部に設けられた記憶装置にOCTデータの少なくとも一部を保存し、要求に応じて眼科撮影装置1に提供するように構成してもよい。記憶部20は、例えば、ハードディスクドライブ、半導体メモリなどの記憶装置を含む。
<Storage unit 20>
The storage unit 20 stores various data. In this example, OCT data 21 is stored in the storage unit 20. Note that at least a portion of the OCT data may be stored in an externally provided storage device and provided to the ophthalmologic imaging apparatus 1 upon request. The storage unit 20 includes, for example, a storage device such as a hard disk drive or a semiconductor memory.

〈OCTデータ21〉
OCTデータ21は、前述した眼底OCTデータ(1)~(5)のいずれか1以上を含む。典型的には、眼科撮影装置1は、眼底のOCTスキャンにより収集された生データから形態画像と血流データとを生成し、これらを含むOCTデータ21を記憶部20に保存する。換言すると、典型的な例では、前述した眼底OCTデータ(2)及び(4)がOCTデータ21に含まれる。
<OCT data 21>
The OCT data 21 includes any one or more of the fundus OCT data (1) to (5) described above. Typically, the ophthalmological imaging device 1 generates a morphological image and blood flow data from raw data collected by OCT scanning of the fundus, and stores OCT data 21 including these in the storage unit 20. In other words, in a typical example, the aforementioned fundus OCT data (2) and (4) are included in the OCT data 21.

〈データ取得部30〉
データ取得部30は、被検眼の眼底にOCTを適用してデータ(例えば、記憶部20に保存されるOCTデータ21の少なくとも一部)を取得する。前述したように、データ取得部30は、OCTスキャナ31と、画像形成部32と、血流データ生成部33とを含む。画像形成部32は、画像形成プログラムを実行するプロセッサを含む。血流データ生成部33は、血流データ生成プログラムを実行するプロセッサを含む。
<Data acquisition unit 30>
The data acquisition unit 30 applies OCT to the fundus of the subject's eye to acquire data (for example, at least a portion of the OCT data 21 stored in the storage unit 20). As described above, the data acquisition section 30 includes the OCT scanner 31, the image forming section 32, and the blood flow data generating section 33. Image forming section 32 includes a processor that executes an image forming program. The blood flow data generation unit 33 includes a processor that executes a blood flow data generation program.

〈OCTスキャナ31〉
OCTスキャナ31は、スキャン制御部11による制御の下に眼底のOCTスキャンを実行する。それにより、眼底のデータ(生データ)が収集される。OCTスキャナ31は、例えばスペクトラルドメインOCT又はスウェプトソースOCTを利用した光干渉計測を実行するための構成を含む。このようなOCTスキャナ31には、従来と同様に、OCT光学系、駆動系、データ収集システム(DAQ)、制御系などが含まれる。
<OCT scanner 31>
The OCT scanner 31 performs an OCT scan of the fundus under the control of the scan control unit 11. Thereby, fundus data (raw data) is collected. The OCT scanner 31 includes a configuration for performing optical interferometry using, for example, spectral domain OCT or swept source OCT. Such an OCT scanner 31 includes an OCT optical system, a drive system, a data acquisition system (DAQ), a control system, etc., as in the conventional case.

OCT光学系は、例えば、干渉光学系と、光スキャナと、光検出器とを含む。干渉光学系は、光源から出力された光を測定光と参照光とに分割し、この測定光を眼底に投射し、眼底からの測定光の戻り光を参照光と重ね合わせて干渉光を生成する。光スキャナは、ガルバノスキャナ等を含み、測定光を偏向する。それにより、眼底に対する測定光の投射位置が移動される。光検出器は、干渉光学系により生成された干渉光(のスペクトル)を検出する。 The OCT optical system includes, for example, an interference optical system, an optical scanner, and a photodetector. The interference optical system splits the light output from the light source into measurement light and reference light, projects this measurement light onto the fundus, and generates interference light by superimposing the return light of the measurement light from the fundus with the reference light. do. The optical scanner includes a galvano scanner and the like, and deflects the measurement light. As a result, the projection position of the measurement light onto the fundus of the eye is moved. The photodetector detects (the spectrum of) the interference light generated by the interference optical system.

駆動系は、OCT光学系に含まれる要素を移動させたり動作させたりする。データ収集システムは、OCT光学系により逐次に得られる検出結果を収集する。制御系は、スキャン制御部11(又は、制御部10の他の要素)による制御の下に、OCT光学系、駆動系、データ収集システムなどを制御する。 The drive system moves or operates elements included in the OCT optical system. The data acquisition system collects detection results sequentially obtained by the OCT optical system. The control system controls the OCT optical system, drive system, data acquisition system, etc. under the control of the scan control unit 11 (or other elements of the control unit 10).

OCT血流計測において、OCTスキャナ31は、予め設定された計測位置において血管に交差する断面を繰り返しスキャンしてデータを収集する。換言すると、OCTスキャナ31は、注目血管に交差する注目断面を繰り返しスキャンしてデータを収集する。このときのスキャンモードは、例えばラインスキャン(Bスキャン)である。このラインスキャンは、例えば、所定の周波数で繰り返し実行される。このような繰り返しスキャンにより収集されたデータは画像形成部32に送られる。 In OCT blood flow measurement, the OCT scanner 31 repeatedly scans a cross section intersecting a blood vessel at a preset measurement position to collect data. In other words, the OCT scanner 31 repeatedly scans the cross section of interest that intersects the blood vessel of interest and collects data. The scan mode at this time is, for example, line scan (B scan). This line scan is repeatedly executed at a predetermined frequency, for example. Data collected through such repeated scanning is sent to the image forming section 32.

OCT血流計測において、更に、OCTスキャナ31は、注目断面における注目血管の傾斜角度を求めるためのスキャンを行う。このスキャンは、例えば、注目血管に交差する2つの断面に対して実行される。ここで、2つの断面を注目断面の近傍に配置することができる。 In OCT blood flow measurement, the OCT scanner 31 further performs a scan to determine the inclination angle of the blood vessel of interest in the cross section of interest. This scan is performed, for example, on two cross sections that intersect the blood vessel of interest. Here, the two cross sections can be placed near the cross section of interest.

なお、注目血管の傾斜角度を求めるための2つの断面の一方は、注目断面自体であってよい。他方の断面は、注目断面の近傍に設定される。この場合、上記した注目断面の繰り返しスキャンにより得られたデータを傾斜角度の算出に利用することができる。 Note that one of the two cross sections for determining the inclination angle of the blood vessel of interest may be the cross section of interest itself. The other cross section is set near the cross section of interest. In this case, data obtained by repeatedly scanning the cross section of interest described above can be used to calculate the inclination angle.

まとめると、典型的には、OCT血流計測で実行されるスキャンは、注目断面の繰り返しスキャンと他の2つの断面のスキャンとの組み合わせでもよいし、注目断面の繰り返しスキャンと他の1つの断面のスキャンとの組み合わせでもよい。 In summary, typically, a scan performed in OCT blood flow measurement may be a combination of repeated scans of the cross-section of interest and scans of two other cross-sections, or a combination of repeated scans of the cross-section of interest and scans of one other cross-section. It may also be combined with a scan.

注目断面における注目血管の傾斜角度を求めるためのスキャンの態様は、これらに限定されない。例えば、3以上の断面をスキャンすることができる。或いは、注目断面を含む3次元領域をスキャンすることができる(3次元スキャン)。他の例として、注目断面に交差し、且つ、注目血管に沿った断面をスキャンすることができる。なお、OCT血流計測については、血流データ生成部33の説明において詳述する。 The mode of scanning for determining the inclination angle of the blood vessel of interest in the cross section of interest is not limited to these. For example, three or more cross sections can be scanned. Alternatively, a three-dimensional area including the cross section of interest can be scanned (three-dimensional scan). As another example, a cross section that intersects the cross section of interest and is along the blood vessel of interest can be scanned. Note that OCT blood flow measurement will be detailed in the description of the blood flow data generation section 33.

OCT血管造影を実行する場合、OCTスキャナ31は、眼底の3次元領域をスキャンする。このときのスキャンモードは、例えばラスタースキャン(3次元スキャン)である。このラスタースキャンは、例えば、複数のB断面(Bスキャン面)のそれぞれを所定回数ずつ(例えば4回ずつ)スキャンするように実行される。換言すると、このラスタースキャンは、複数のB断面を所定回数ずつ順次にスキャンするように、又は所定のシーケンスにしたがってスキャンするように実行される。OCTスキャナ31により収集された3次元データセットは画像形成部32に送られる。 When performing OCT angiography, the OCT scanner 31 scans a three-dimensional region of the fundus. The scan mode at this time is, for example, raster scan (three-dimensional scan). This raster scan is executed, for example, by scanning each of a plurality of B cross sections (B scan planes) a predetermined number of times (for example, four times each). In other words, this raster scan is performed so that a plurality of B cross sections are sequentially scanned a predetermined number of times or according to a predetermined sequence. The three-dimensional data set collected by the OCT scanner 31 is sent to the image forming section 32.

OCTスキャナ31が実行可能なスキャンの態様は、上記した態様に限定されない。例えば、OCTスキャナ31は、形態画像を取得するためのOCTスキャンとして、ラインスキャン、サークルスキャン、ラジアルスキャン、3次元スキャンなどを行うことが可能である。 The scan mode that can be executed by the OCT scanner 31 is not limited to the above-described mode. For example, the OCT scanner 31 can perform line scan, circle scan, radial scan, three-dimensional scan, etc. as OCT scans for acquiring morphological images.

〈画像形成部32〉
画像形成部32は、OCTスキャナ31により収集されたデータに基づいて、OCT画像を形成する。例えば、OCT血流計測において、画像形成部32は、OCTスキャナ31により収集された3次元データセットに基づいて、各B断面について複数の断面像(Bスキャン画像)を形成する。このときの画像形成処理は、例えば、従来のOCT技術と同様に、ノイズ除去(ノイズ低減)、フィルタ処理、高速フーリエ変換(FFT)などを含む。
<Image forming section 32>
The image forming unit 32 forms an OCT image based on data collected by the OCT scanner 31. For example, in OCT blood flow measurement, the image forming unit 32 forms a plurality of cross-sectional images (B-scan images) for each B-section based on a three-dimensional data set collected by the OCT scanner 31. The image forming process at this time includes, for example, noise removal (noise reduction), filter processing, fast Fourier transform (FFT), etc., similar to conventional OCT technology.

画像形成部32は、これら断面像を単一の3次元座標系に埋め込むことによりスタックデータを構築することができる。このスタックデータにおいては、各B断面に対して、スキャン繰り返し回数に対応する個数の断面像が割り当てられている。更に、画像形成部32は、このスタックデータに対して補間処理等を施すことによりボリュームデータ(ボクセルデータ)を形成することができる。このボリュームデータにおいては、各B断面に相当する位置に対して、スキャン繰り返し回数に対応する個数のボクセル群が割り当てられている。 The image forming unit 32 can construct stack data by embedding these cross-sectional images into a single three-dimensional coordinate system. In this stack data, a number of cross-sectional images corresponding to the number of scan repetitions are assigned to each B cross-section. Further, the image forming unit 32 can form volume data (voxel data) by performing interpolation processing or the like on this stack data. In this volume data, a number of voxel groups corresponding to the number of scan repetitions are assigned to a position corresponding to each B cross section.

画像形成部32は、スタックデータ又はボリュームデータにレンダリングを施すことで、Bスキャン画像(縦断面像、軸方向断面像)、Cスキャン画像(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。 The image forming unit 32 performs rendering on stack data or volume data to create a B-scan image (vertical cross-sectional image, axial cross-sectional image), C-scan image (cross-sectional image, horizontal cross-sectional image), projection image, shadowgram. etc. can be formed.

Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。或いは、任意断面の画像は、予め設定された厚さのスライスをその厚さ方向に投影することにより形成される。 An image of an arbitrary cross section, such as a B-scan image or a C-scan image, is formed by selecting pixels (pixels, voxels) on a specified cross-section from a three-dimensional data set. Alternatively, an image of an arbitrary cross section is formed by projecting a slice with a preset thickness in the thickness direction.

プロジェクション画像は、スタックデータ又はボリュームデータを所定方向(Z方向、深さ方向、Aスキャン方向)に投影することによって形成される。シャドウグラムは、スタックデータ又はボリュームデータの一部(例えば特定層に相当する部分データ)を所定方向に投影することによって形成される。Cスキャン画像、プロジェクション画像、シャドウグラムのような、被検眼の角膜側を視点とする眼底画像を正面画像と呼ぶ。 A projection image is formed by projecting stack data or volume data in a predetermined direction (Z direction, depth direction, A scan direction). A shadowgram is formed by projecting part of stack data or volume data (for example, partial data corresponding to a specific layer) in a predetermined direction. A fundus image, such as a C-scan image, a projection image, or a shadowgram, that is viewed from the cornea side of the eye to be examined is called a frontal image.

画像形成部32は、レンダリングの他にも各種の画像処理を実行することが可能である。例えば、特定の組織や組織境界を求めるためのセグメンテーションや、組織のサイズ(層厚、体積等)を求めるためのサイズ解析などがある。セグメンテーションにより特定層(又は特定の層境界)が求められた場合、その特定層が平坦になるようにBスキャン画像や正面画像を再構築することが可能である。そのような画像を平坦化画像と呼ぶ。 The image forming unit 32 is capable of performing various types of image processing in addition to rendering. Examples include segmentation to find a specific tissue or tissue boundary, and size analysis to find the size of the tissue (layer thickness, volume, etc.). When a specific layer (or a specific layer boundary) is determined by segmentation, it is possible to reconstruct the B-scan image or the front image so that the specific layer becomes flat. Such an image is called a flattened image.

画像形成部32は、血管強調画像を形成することができる。血管強調画像は、OCTデータを解析することで血管に相当する画像領域(血管領域)を特定し、この血管領域の表現態様を変更することでそれを強調した画像である。血管領域の特定には、被検眼の実質的に同じ範囲を繰り返しスキャンして得られた複数のOCTデータが用いられる。 The image forming unit 32 can form a blood vessel enhanced image. A blood vessel enhanced image is an image in which an image region corresponding to a blood vessel (blood vessel region) is identified by analyzing OCT data, and is emphasized by changing the representation mode of this blood vessel region. A plurality of OCT data obtained by repeatedly scanning substantially the same area of the eye to be examined is used to identify the blood vessel region.

血管強調画像は、例えば、OCTスキャンされた眼底の3次元領域における血管の分布(つまり、血管の3次元的な分布)を表現する。血管強調画像を形成するための手法には幾つかの種類がある。そのための典型的な手法を説明する。この処理には、被検眼の複数のB断面のそれぞれを繰り返しスキャンすることにより、時系列に並んだ複数のBスキャン画像をB断面ごとに含む3次元データセットが用いられる。なお、実質的に同じB断面を繰り返しスキャンするための手法として、固視やトラッキングがある。 The blood vessel-enhanced image expresses, for example, the distribution of blood vessels in a three-dimensional region of the fundus scanned by OCT (that is, the three-dimensional distribution of blood vessels). There are several types of techniques for forming blood vessel-enhanced images. A typical method for this purpose will be explained. In this process, a three-dimensional data set including a plurality of B-scan images arranged in time series for each B-section is used by repeatedly scanning each of a plurality of B-sections of the eye to be examined. Note that fixation and tracking are methods for repeatedly scanning substantially the same cross-section B.

血管強調画像を形成する処理では、まず、複数のBスキャン画像の位置合わせがB断面ごとに実行される。この位置合わせは、例えば、公知の画像マッチング技術を用いて行われる。その典型例として、各Bスキャン画像における特徴領域の抽出と、抽出された複数の特徴領域の位置合わせによる複数のBスキャン画像の位置合わせとを実行することができる。 In the process of forming a blood vessel-enhanced image, first, alignment of a plurality of B-scan images is performed for each B-section. This alignment is performed using, for example, a known image matching technique. As a typical example, it is possible to extract a feature region from each B-scan image and align the plurality of B-scan images by aligning the extracted feature regions.

続いて、位置合わせされた複数のBスキャン画像の間で変化している画像領域を特定する処理が行われる。この処理は、例えば、異なるBスキャン画像の間の差分を求める処理を含む。各Bスキャン画像は、被検眼の形態を表す輝度画像データであり、血管以外の部位に相当する画像領域は実質的に不変であると考えられる。一方、干渉信号に寄与する後方散乱が血流によってランダムに変化することを考慮すると、位置合わせされた複数のBスキャン画像の間で変化が生じた画像領域(例えば、差分がゼロでない画素、又は差分が所定閾値以上である画素)は血管領域であると推定することができる。 Subsequently, a process is performed to identify a changing image area among the aligned B-scan images. This process includes, for example, a process of finding a difference between different B-scan images. Each B-scan image is brightness image data representing the morphology of the eye to be examined, and the image area corresponding to parts other than blood vessels is considered to be substantially unchanged. On the other hand, considering that the backscatter that contributes to the interference signal changes randomly due to blood flow, it is important to note that image regions where changes occur between the aligned B-scan images (e.g., pixels for which the difference is not zero, or Pixels for which the difference is greater than or equal to a predetermined threshold can be estimated to be blood vessel regions.

このようにして特定された画像領域には、それが血管領域である旨を示す情報が割り当てられる。複数のB断面について上記処理を実行することにより、3次元的に分布した血管領域が得られる。このような3次元血管強調画像をレンダリングすることで、血管分布を表す正面画像、任意断面の画像、任意範囲のシャドウグラムなどが生成される。 The image region identified in this way is assigned information indicating that it is a blood vessel region. By performing the above processing on a plurality of B cross sections, three-dimensionally distributed blood vessel regions are obtained. By rendering such a three-dimensional blood vessel-enhanced image, a frontal image representing blood vessel distribution, an image of an arbitrary cross section, a shadowgram of an arbitrary range, etc. are generated.

血管強調画像を形成する処理はこれに限定されない。例えば、ドップラーOCTを利用した従来の手法で血管領域を特定することや、従来の画像処理手法を用いて血管領域を特定することが可能である。また、部位に応じて異なる手法を用いることにより、部位ごとに血管領域を特定することが可能である。例えば、網膜については上記の典型的な手法やドップラーOCTの手法を用いて血管領域を特定し、脈絡膜については画像処理手法を用いて血管領域を特定することができる。 The process of forming a blood vessel enhanced image is not limited to this. For example, it is possible to identify a blood vessel region using a conventional technique using Doppler OCT or a conventional image processing technique. Further, by using different techniques depending on the region, it is possible to specify the blood vessel region for each region. For example, for the retina, a blood vessel region can be identified using the above-mentioned typical method or the Doppler OCT method, and for the choroid, a blood vessel region can be identified using an image processing method.

〈血流データ生成部33〉
血流データ生成部33は、OCT血流計測において動作する。血流データ生成部33は、OCT血流計測においてOCTスキャナ31により収集されたデータに基づき画像形成部32によって形成された注目断面の画像と、注目断面における注目血管の傾斜角度とに基づいて、注目血管における血流状態を表す血流データを生成する。
<Blood flow data generation unit 33>
The blood flow data generation unit 33 operates in OCT blood flow measurement. The blood flow data generation unit 33 generates data based on the image of the cross section of interest formed by the image forming unit 32 based on the data collected by the OCT scanner 31 in OCT blood flow measurement and the inclination angle of the blood vessel of interest in the cross section of interest. Generate blood flow data representing the state of blood flow in the blood vessel of interest.

OCT血流計測においてOCTスキャナ31により収集されたデータは、注目血管に交差する注目断面を繰り返しスキャンして収集されたデータ(第1データ)と、注目血管に交差し、且つ、注目断面と異なる1以上の断面(注目断面の近傍の断面)をスキャンして得られたデータ(第2データ)とを含む。なお、第2データの代わりに、例えば、OCT血流計測とは別途に取得された、注目断面の位置又はその近傍位置における注目血管の傾斜角度を用いることができる。その例として、OCT血管造影により得られた血管強調画像から求められた傾斜角度を用いることが可能である。 The data collected by the OCT scanner 31 in OCT blood flow measurement includes data collected by repeatedly scanning a cross section of interest that intersects the blood vessel of interest (first data), and data that intersects the blood vessel of interest and is different from the cross section of interest. data (second data) obtained by scanning one or more cross sections (cross sections in the vicinity of the cross section of interest). Note that instead of the second data, for example, the inclination angle of the blood vessel of interest at the position of the cross-section of interest or a position near the cross-section of interest, which is acquired separately from OCT blood flow measurement, may be used. As an example, it is possible to use a tilt angle determined from a blood vessel enhanced image obtained by OCT angiography.

画像形成部32は、OCT血流計測においてOCTスキャナ31により収集されたデータに基づいて、眼底の形態画像と位相画像とを形成する。OCT血流計測で得られる形態画像と位相画像とは同じ断面に対応する画像である。典型的には、注目断面(B断面)に対応する形態画像と位相画像とが得られる。 The image forming unit 32 forms a morphological image and a phase image of the fundus based on data collected by the OCT scanner 31 in OCT blood flow measurement. The morphological image and phase image obtained by OCT blood flow measurement are images corresponding to the same cross section. Typically, a morphological image and a phase image corresponding to the cross section of interest (cross section B) are obtained.

前述したように、典型的なOCT血流計測では、眼底に対して2種類のスキャン(補助的スキャン及び本スキャン)が実行される。補助的スキャンは、注目断面と異なる1以上の断面(注目断面の近傍の断面)をスキャンして第2データを収集するために実行される。典型的な補助的スキャンでは、注目血管に交差する2以上の断面が測定光でスキャンされる。補助的スキャンにより取得されたデータは、注目断面における注目血管の傾斜角度を求めるために用いられる。一方、本スキャンは、注目血管に交差する注目断面を測定光で反復的にスキャンして第1データを収集するために実行される。補助的スキャンが行われる断面は、注目断面の近傍に配置される。本スキャンは、OCTを用いたドップラー計測である。 As mentioned above, in typical OCT blood flow measurement, two types of scans (auxiliary scan and main scan) are performed on the fundus of the eye. The auxiliary scan is performed to collect second data by scanning one or more cross sections different from the cross section of interest (cross sections near the cross section of interest). In a typical auxiliary scan, two or more cross-sections intersecting the blood vessel of interest are scanned with the measurement light. The data acquired by the auxiliary scan is used to determine the inclination angle of the blood vessel of interest in the cross section of interest. On the other hand, the main scan is performed in order to collect first data by repeatedly scanning a cross section of interest intersecting the blood vessel of interest with the measurement light. The cross-section on which the auxiliary scan is performed is placed near the cross-section of interest. The main scan is Doppler measurement using OCT.

補助的スキャン及び本スキャンの対象断面は、例えば、注目血管の走行方向に対して直交するように向き付けられる。また、補助的スキャンの対象断面と注目断面との間の距離(断面間距離)は、事前に設定されるか、或いは、検査ごとに設定される。後者の例として、注目断面又はその近傍における注目血管の曲率や、検査精度等の所定のファクターに基づいて、断面間距離を設定することが可能である。また、ユーザーが所望の断面間距離を設定するようにしてもよい。 The target cross-sections of the auxiliary scan and the main scan are, for example, oriented perpendicular to the running direction of the blood vessel of interest. Further, the distance between the target cross-section of the auxiliary scan and the cross-section of interest (inter-cross-section distance) is set in advance or set for each examination. As an example of the latter, it is possible to set the distance between cross sections based on a predetermined factor such as the curvature of the blood vessel of interest at or near the cross section of interest, or inspection accuracy. Alternatively, the user may set a desired inter-sectional distance.

本スキャンは、患者の心臓の少なくとも1心周期の間にわたって実行されることが望ましい。それにより、心拍の全ての時相における血流データが得られる。本スキャンの実行時間は、予め設定された一定の時間であってもよいし、患者ごとに又は検査ごとに設定された時間であってもよい。 Preferably, the scan is performed over at least one cardiac cycle of the patient's heart. Thereby, blood flow data in all time phases of the heartbeat can be obtained. The execution time of the main scan may be a fixed time set in advance, or may be a time set for each patient or each examination.

画像形成部32は、例えば、注目断面の近傍に設定された2つの補助的断面に対する補助的スキャンにより収集されたデータに基づいて、第1補助的断面の形態を表す断面像と、第2補助的断面の形態を表す断面像とを形成する。このとき、加算平均等の技術を利用して画質向上を図ることや、各補助的断面の2以上の断面像から最適な1枚を選択することが可能である。 For example, the image forming unit 32 generates a cross-sectional image representing the form of the first auxiliary cross-section and a second auxiliary cross-section based on data collected by auxiliary scanning of two auxiliary cross-sections set in the vicinity of the cross-section of interest. A cross-sectional image representing the morphology of the target cross-section is formed. At this time, it is possible to improve the image quality using a technique such as averaging, or to select an optimal one from two or more cross-sectional images of each auxiliary cross-section.

更に、画像形成部32は、注目断面に対する本スキャン(反復的スキャン)により収集されたデータに基づいて、注目断面における時系列変化を表す断面像群を形成する。この処理は、例えば、スキャンの反復ごとに収集されたデータから断面像を形成することにより実現される。 Further, the image forming unit 32 forms a group of cross-sectional images representing time-series changes in the cross-section of interest based on data collected by main scans (repetitive scans) of the cross-section of interest. This processing is achieved, for example, by forming a cross-sectional image from data collected at each repetition of the scan.

画像形成部32が実行する処理は、例えば従来のOCT技術と同様に、ノイズ除去(ノイズ低減)、フィルタ処理、高速フーリエ変換(FFT)などを含む。なお、ここで説明した注目断面の断面像を形成する処理は、画像形成部32が実行する形態画像形成処理と同様である。 The processing executed by the image forming unit 32 includes, for example, noise removal (noise reduction), filter processing, fast Fourier transform (FFT), etc., similar to conventional OCT technology. Note that the process of forming a cross-sectional image of the cross-section of interest described here is similar to the morphological image forming process executed by the image forming unit 32.

更に、画像形成部32は、注目断面に対する本スキャンにより収集されたデータに基づいて、注目断面における位相差の時系列変化を表す位相画像を形成する。この処理に用いられるデータは、注目断面の断面像(群)を形成するために用いられるデータと同じである。よって、注目断面の断面像と位相画像との間には自然な位置対応関係があり、レジストレーションは自明である。 Further, the image forming unit 32 forms a phase image representing a time-series change in phase difference in the cross section of interest based on data collected by the main scan of the cross section of interest. The data used in this process is the same as the data used to form the cross-sectional image (group) of the cross-section of interest. Therefore, there is a natural positional correspondence between the cross-sectional image of the cross-section of interest and the phase image, and registration is self-evident.

位相画像の形成方法の例を説明する。典型的な例において、位相画像は、隣り合うAライン複素信号(隣接するスキャン点に対応する信号)の位相差を算出することにより得られる。換言すると、この例の位相画像は、注目断面の断面像の各画素について、その画素の画素値(輝度値)の時系列変化に基づき形成される。任意の画素について、画像形成部32は、その輝度値の時系列変化のグラフを考慮する。画像形成部32は、このグラフにおいて所定の時間間隔Δtだけ離れた2つの時点t1及びt2(t2=t1+Δt)の間における位相差Δφを求める。そして、この位相差Δφを時点t1(より一般に2つの時点t1及びt2の間の任意の時点)における位相差Δφ(t1)として定義する。予め設定された多数の時点のそれぞれについてこの処理を実行することで、当該画素における位相差の時系列変化が得られる。 An example of a method for forming a phase image will be explained. In a typical example, a phase image is obtained by calculating the phase difference between adjacent A-line complex signals (signals corresponding to adjacent scan points). In other words, the phase image in this example is formed for each pixel of the cross-sectional image of the cross-section of interest based on a time-series change in the pixel value (luminance value) of that pixel. For an arbitrary pixel, the image forming unit 32 considers a graph of a time-series change in luminance value. The image forming unit 32 determines the phase difference Δφ between two time points t1 and t2 (t2=t1+Δt) separated by a predetermined time interval Δt in this graph. This phase difference Δφ is defined as the phase difference Δφ(t1) at time t1 (more generally, any time between two time points t1 and t2). By executing this process for each of a large number of preset time points, time-series changes in the phase difference at the pixel can be obtained.

位相画像は、各画素の各時点における位相差の値を画像として表現したものである。この画像化処理は、例えば、位相差の値を表示色や輝度で表現することで実現できる。このとき、時系列に沿って位相が増加したことを表す色(例えば赤)と、減少したことを表す色(例えば青)とを違えることができる。また、位相の変化量の大きさを表示色の濃さで表現することもできる。このような表現方法を採用することで、血流の向きや大きさを色や濃度で表現することが可能となる。以上の処理を各画素について実行することにより位相画像が形成される。 A phase image is an image that represents the phase difference value of each pixel at each point in time. This imaging process can be realized, for example, by expressing the value of the phase difference using a display color or brightness. At this time, the color (for example, red) representing that the phase has increased along the time series can be different from the color (for example, blue) that represents that the phase has decreased. Further, the magnitude of the amount of change in phase can also be expressed by the darkness of the display color. By adopting such an expression method, it becomes possible to express the direction and size of blood flow using color and density. A phase image is formed by performing the above processing for each pixel.

なお、位相差の時系列変化は、上記の時間間隔Δtを十分に小さくして位相の相関を確保することにより得られる。このとき、測定光のスキャンにおいて断面像の分解能に相当する時間未満の値に時間間隔Δtを設定したオーバーサンプリングが実行される。 Note that the time-series change in the phase difference can be obtained by making the time interval Δt sufficiently small to ensure phase correlation. At this time, oversampling is performed in which the time interval Δt is set to a value less than the time corresponding to the resolution of the cross-sectional image in the measurement light scan.

血流データ生成部33は、例えば、血管領域特定処理と、傾斜角度算出処理と、血流データ生成処理とを実行することができる。血流データ生成処理は、例えば、血流速度算出処理を少なくとも含み、血管径算出処理と血流量算出処理とを更に含んでもよい。 The blood flow data generation unit 33 can execute, for example, a blood vessel region specifying process, an inclination angle calculation process, and a blood flow data generation process. The blood flow data generation process includes, for example, at least a blood flow velocity calculation process, and may further include a blood vessel diameter calculation process and a blood flow rate calculation process.

血管領域特定処理において、血流データ生成部33は、注目血管に対応する各断面像中の血管領域を特定する。更に、血流データ生成部33は、注目断面に対応する位相画像中の血管領域を特定する。血管領域の特定は、各画像の画素値を解析することにより行われる(例えば閾値処理)。注目断面に対応する断面像中の血管領域と、この断面像と位相画像との間のレジストレーションの結果とに基づいて、位相画像中の血管領域を特定するようにしてもよい。 In the blood vessel region specifying process, the blood flow data generation unit 33 specifies a blood vessel region in each cross-sectional image corresponding to the blood vessel of interest. Further, the blood flow data generation unit 33 identifies a blood vessel region in the phase image that corresponds to the cross section of interest. The vascular region is identified by analyzing the pixel values of each image (for example, by threshold processing). The blood vessel region in the phase image may be specified based on the blood vessel region in the cross-sectional image corresponding to the cross-section of interest and the result of registration between this cross-sectional image and the phase image.

傾斜角度算出処理において、血流データ生成部33は、補助的スキャンにより取得されたデータから形成された画像(群)に基づいて、注目断面における注目血管の傾斜角度を算出する。 In the inclination angle calculation process, the blood flow data generation unit 33 calculates the inclination angle of the blood vessel of interest in the cross section of interest based on the image (group) formed from the data acquired by the auxiliary scan.

傾斜角度算出処理の例を説明する。図2を参照する。符号B0は、血管傾斜角度が算出される注目断面における断面像(注目断面像)を示す。注目断面像B0には、血管領域V0が描出されている。符号B11及びB12は、注目断面B0の近傍に位置する2つの補助的断面における2つの断面像(補助的断面像)を示す。補助的断面像B11には、血管領域V0と同じ血管(注目血管)の補助的断面B11における血管領域V11が描出されている。同様に、補助的断面像B12には、注目血管の補助的断面B12における血管領域V12が描出されている。 An example of the inclination angle calculation process will be explained. See FIG. 2. Reference numeral B0 indicates a cross-sectional image (cross-sectional image of interest) in the cross-section of interest for which the blood vessel inclination angle is calculated. A blood vessel region V0 is depicted in the cross-sectional image of interest B0. Symbols B11 and B12 indicate two cross-sectional images (auxiliary cross-sectional images) in two supplementary cross-sections located near the cross-section of interest B0. The auxiliary cross-sectional image B11 depicts a blood vessel region V11 in the auxiliary cross-section B11 of the same blood vessel (vessel of interest) as the blood vessel region V0. Similarly, the auxiliary cross-sectional image B12 depicts a blood vessel region V12 in the auxiliary cross-section B12 of the blood vessel of interest.

血流データ生成部33は、注目断面像B0と補助的断面像B11及びB12とに基づいて、注目断面における注目血管の傾きを算出する。なお、参照される補助的断面像の個数は2つに限定されず、1以上の任意個数であってよい。 The blood flow data generation unit 33 calculates the inclination of the blood vessel of interest in the cross section of interest based on the cross-sectional image of interest B0 and the auxiliary cross-sectional images B11 and B12. Note that the number of referenced auxiliary cross-sectional images is not limited to two, and may be any number greater than or equal to one.

血流データ生成部33は、血管領域V0、V11及びV12と断面間距離とに基づいて、注目断面における注目血管の傾きを算出する。断面間距離は、補助的断面像B11と補助的断面像B12との間の距離であってよい。或いは、断面間距離は、補助的断面像B11と注目断面像B0との間の距離と、補助的断面像B12と注目断面像B0との間の距離とのうちの少なくとも一方により定義されてもよい。補助的断面像B11(又はB12)と注目断面像B0との間隔をLとする。 The blood flow data generation unit 33 calculates the inclination of the blood vessel of interest in the cross section of interest based on the blood vessel regions V0, V11, and V12 and the distance between cross sections. The inter-sectional distance may be the distance between the auxiliary sectional image B11 and the auxiliary sectional image B12. Alternatively, the inter-sectional distance may be defined by at least one of the distance between the auxiliary sectional image B11 and the sectional image of interest B0, and the distance between the auxiliary sectional image B12 and the sectional image of interest B0. good. Let L be the distance between the auxiliary cross-sectional image B11 (or B12) and the cross-sectional image of interest B0.

図2に示すAスキャン方向(下方を指す矢印が指す方向)は、例えば、注目断面像B0に含まれるAスキャン像の向きを示す。このAスキャン像は、例えば、注目断面像B0に含まれる複数のAスキャン像の中央に位置するAスキャン像であってよい。 The A-scan direction shown in FIG. 2 (the direction pointed by the arrow pointing downward) indicates, for example, the direction of the A-scan image included in the cross-sectional image of interest B0. This A-scan image may be, for example, an A-scan image located at the center of a plurality of A-scan images included in the cross-sectional image of interest B0.

典型的な例において、血流データ生成部33は、3つの血管領域V0、V11及びV12の位置関係に基づいて、注目断面における注目血管の傾きAを算出することができる。この位置関係は、例えば、3つの血管領域V0、V11及びV12を結ぶことによって得られる。より具体的に説明すると、血流データ生成部33は、3つの血管領域V0、V11及びV12のそれぞれの特徴点を特定し、これら特徴点を結ぶ。ここで参照される特徴点としては、中心位置(軸線位置)、重心位置、最上部などがある。また、これら特徴点を結ぶ方法としては、線分で結ぶ方法、近似曲線(スプライン曲線、ベジェ曲線等)で結ぶ方法などがある。 In a typical example, the blood flow data generation unit 33 can calculate the slope A of the blood vessel of interest in the cross section of interest based on the positional relationship between the three blood vessel regions V0, V11, and V12. This positional relationship is obtained, for example, by connecting the three blood vessel regions V0, V11, and V12. More specifically, the blood flow data generation unit 33 identifies feature points of each of the three blood vessel regions V0, V11, and V12, and connects these feature points. The feature points referred to here include the center position (axis position), the center of gravity position, and the top. Further, as methods for connecting these feature points, there are a method of connecting with line segments, a method of connecting with an approximate curve (spline curve, Bezier curve, etc.), and the like.

更に、血流データ生成部33は、これら特徴点を結ぶ線に基づいて傾きAを算出する。線分が用いられる場合、血流データ生成部33は、例えば、注目断面像B0内の血管領域V0の特徴点と補助的断面像B11内の血管領域V11の特徴点とを結ぶ第1線分の傾きと、血管領域V0の当該特徴点と補助的断面像B12内の血管領域V12の特徴点とを結ぶ第2線分の傾きとに基づいて、傾きAを算出することができる。この算出処理の例として、2つの線分の傾きの平均値を求めることができる。また、近似曲線で結ぶ場合の例として、近似曲線と注目断面との交差位置における近似曲線の傾きを求めることができる。 Furthermore, the blood flow data generation unit 33 calculates the slope A based on the line connecting these feature points. When a line segment is used, the blood flow data generation unit 33 generates, for example, a first line segment that connects the feature point of the blood vessel region V0 in the cross-sectional image of interest B0 and the feature point of the blood vessel region V11 in the auxiliary cross-sectional image B11. The slope A can be calculated based on the slope of the second line segment connecting the feature point of the blood vessel region V0 and the feature point of the blood vessel region V12 in the auxiliary cross-sectional image B12. As an example of this calculation process, the average value of the slopes of two line segments can be calculated. Furthermore, as an example of a case where the approximate curve is connected, the slope of the approximate curve at the intersection position of the approximate curve and the cross section of interest can be determined.

この例では、3つの断面における血管領域を考慮しているが、2つの断面の血管領域を考慮して傾きを求めることも可能である。具体例として、補助的断面像B11内の血管領域V11と補助的断面像B12内の血管領域V12とに基づいて、注目断面における注目血管の傾きAを求めることができる。或いは、補助的断面像B11内の血管領域V11と注目断面像B0内の血管領域V0とに基づいて、注目断面における注目血管の傾きAを求めることもできる。例えば、上記の第1線分又は第2線分の傾きを求め、これを注目血管の傾きAとして採用することができる。 In this example, blood vessel regions in three cross sections are considered, but it is also possible to calculate the slope by considering blood vessel regions in two cross sections. As a specific example, the slope A of the blood vessel of interest in the cross section of interest can be determined based on the blood vessel region V11 in the auxiliary cross-sectional image B11 and the blood vessel region V12 in the auxiliary cross-sectional image B12. Alternatively, the inclination A of the blood vessel of interest in the cross-sectional image of interest can be determined based on the blood vessel region V11 in the auxiliary cross-sectional image B11 and the blood vessel region V0 of the cross-sectional image of interest B0. For example, the slope of the first line segment or the second line segment described above can be determined and used as the slope A of the blood vessel of interest.

また、上記の例では傾きAの値を1つだけ求めているが、血管領域V0中の2以上の位置(又は領域)についてそれぞれ傾きを求めてもよい。この場合、得られた2以上の傾きの値を別々に用いることもできるし、これら傾きの値から統計的に得られる1つの値(例えば平均値)を傾きAとして用いることもできる。 Further, in the above example, only one value of the slope A is calculated, but the slopes may be calculated for each of two or more positions (or areas) in the blood vessel region V0. In this case, the two or more obtained slope values can be used separately, or one value (for example, an average value) statistically obtained from these slope values can be used as the slope A.

血流データ生成処理において、血流データ生成部33は、本スキャン(ドップラーOCT)に基づき形成された位相画像と、血流データ生成部33により求められた傾斜角度とに基づいて、注目血管に関する血流データを生成する。前述したように、典型的な例において、血流データ生成処理は、血流速度算出処理と、血管径算出処理と、血流量算出処理とを含む。 In the blood flow data generation process, the blood flow data generation unit 33 generates information regarding the blood vessel of interest based on the phase image formed based on the main scan (Doppler OCT) and the inclination angle determined by the blood flow data generation unit 33. Generate blood flow data. As described above, in a typical example, the blood flow data generation process includes a blood flow velocity calculation process, a blood vessel diameter calculation process, and a blood flow rate calculation process.

血流データ生成部33は、位相画像として得られた位相差の時系列変化に基づいて、注目血管内を流れる血液の注目断面における血流速度を算出することができる。本処理により算出される値は、或る時点における血流速度でもよいし、血流速度の時系列変化(血流速度変化データ)でもよい。前者の場合、例えば心電図の所定の時相(例えばR波の時相)における血流速度を選択的に取得することが可能である。また、後者における時間の範囲は、注目断面をスキャンした時間の全体又は任意の一部である。 The blood flow data generation unit 33 can calculate the blood flow velocity in the cross section of interest of blood flowing in the blood vessel of interest based on the time-series change in the phase difference obtained as a phase image. The value calculated by this process may be the blood flow velocity at a certain point in time, or may be a time-series change in blood flow velocity (blood flow velocity change data). In the former case, for example, it is possible to selectively acquire the blood flow velocity at a predetermined time phase of the electrocardiogram (for example, the R wave time phase). Moreover, the time range in the latter case is the entire time or an arbitrary part of the time during which the cross section of interest was scanned.

血流速度変化データが得られた場合、血流データ生成部33は、当該時間の範囲における血流速度の統計値を算出することができる。この統計値としては、平均値、標準偏差、分散、中央値、最大値、最小値、極大値、極小値などがある。また、血流速度の値についてのヒストグラムを作成することもできる。 When the blood flow velocity change data is obtained, the blood flow data generation unit 33 can calculate the statistical value of the blood flow velocity in the relevant time range. These statistical values include an average value, standard deviation, variance, median value, maximum value, minimum value, local maximum value, local minimum value, etc. It is also possible to create a histogram of blood flow velocity values.

血流データ生成部33は、前述のようにドップラーOCTの手法を用いて血流速度を算出することができる。血流速度の算出には、例えば次の関係式が用いられる。 The blood flow data generation unit 33 can calculate the blood flow velocity using the Doppler OCT method as described above. For example, the following relational expression is used to calculate the blood flow velocity.

Figure 0007386949000001
Figure 0007386949000001

Δf:測定光の散乱光が受けるドップラーシフト
n:媒質(血液)の屈折率
v:媒質の流速(血流速度)
θ:測定光の入射方向と媒質の流れの方向とが成す角度(傾斜角度)
λ:測定光の中心波長
Δf: Doppler shift that the scattered light of the measurement light undergoes n: Refractive index of the medium (blood) v: Flow velocity of the medium (blood flow velocity)
θ: Angle between the direction of incidence of the measurement light and the direction of flow of the medium (tilt angle)
λ: Center wavelength of measurement light

典型的な例において、媒質の屈折力nと測定光の中心波長λはそれぞれ既知であり、ドップラーシフトΔfは位相差の時系列変化から得られ、傾斜角度θは傾斜角度算出処理又は血管角度分布から得られる。血流データ生成部33は、これらの値を上記関係式に代入することにより、血流速度vを算出することができる。 In a typical example, the refractive power n of the medium and the center wavelength λ of the measurement light are both known, the Doppler shift Δf is obtained from a time-series change in the phase difference, and the tilt angle θ is determined by the tilt angle calculation process or blood vessel angle distribution. obtained from. The blood flow data generation unit 33 can calculate the blood flow velocity v by substituting these values into the above relational expression.

血管径算出処理において、血流データ生成部33は、注目断面における注目血管の径を算出する。この算出方法の例として、眼底の正面画像を用いる第1の算出方法と、断面像を用いる第2の算出方法がある。 In the blood vessel diameter calculation process, the blood flow data generation unit 33 calculates the diameter of the blood vessel of interest in the cross section of interest. Examples of this calculation method include a first calculation method that uses a frontal image of the fundus, and a second calculation method that uses a cross-sectional image.

第1の算出方法が適用される場合、注目断面の位置を含む眼底の部位の撮影が予め行われる。この眼底撮影は、例えば正面画像取得部60により行われる。或いは、過去に取得されて保存された眼底の正面画像を読み出してもよい。また、血管強調画像を利用してもよい。 When the first calculation method is applied, a part of the fundus including the position of the cross section of interest is photographed in advance. This fundus photography is performed, for example, by the front image acquisition unit 60. Alternatively, a front image of the fundus that has been acquired and stored in the past may be read. Alternatively, a blood vessel enhanced image may be used.

血流データ生成部33は、撮影画角(撮影倍率)、ワーキングディスタンス、眼球光学系の情報など、画像上のスケールと実空間でのスケールとの関係を決定する各種ファクターに基づいて、眼底の正面画像におけるスケールを設定する。このスケールは実空間における長さを表す。具体例として、このスケールは、隣接する画素の間隔と、実空間におけるスケールとを対応付けたものである(例えば画素の間隔=10μm)。なお、上記ファクターの様々な値と、実空間でのスケールとの関係を予め算出し、この関係をテーブル形式やグラフ形式で表現した情報を記憶しておくことも可能である。この場合、上記ファクターに対応するスケールが選択的に適用される。 The blood flow data generation unit 33 calculates the size of the fundus based on various factors that determine the relationship between the scale on the image and the scale in real space, such as the imaging angle of view (imaging magnification), working distance, and information on the eyeball optical system. Set the scale in the front image. This scale represents the length in real space. As a specific example, this scale is a correspondence between the interval between adjacent pixels and the scale in real space (for example, pixel interval = 10 μm). Note that it is also possible to calculate the relationship between various values of the factors and the scale in real space in advance, and to store information expressing this relationship in a table format or a graph format. In this case, a scale corresponding to the above factors is selectively applied.

血流データ生成部33は、このスケールと血管領域に含まれる画素とに基づいて、注目断面における注目血管の径、つまり血管領域の径を算出する。具体例として、血流データ生成部33は、血管領域の様々な方向の径の最大値や平均値を求めることができる。或いは、血流データ生成部33は、血管領域の輪郭を円近似又は楕円近似し、その円又は楕円の径を求めることができる。なお、血管径が決まれば血管領域の面積を(実質的に)決定することができるので、血管径を求める代わりに当該面積を算出するようにしてもよい。 The blood flow data generation unit 33 calculates the diameter of the blood vessel of interest in the cross section of interest, that is, the diameter of the blood vessel region, based on this scale and the pixels included in the blood vessel region. As a specific example, the blood flow data generation unit 33 can determine the maximum value and average value of the diameter of the blood vessel region in various directions. Alternatively, the blood flow data generation unit 33 can approximate the contour of the blood vessel region to a circle or an ellipse, and obtain the diameter of the circle or ellipse. Note that once the blood vessel diameter is determined, the area of the blood vessel region can be determined (substantially), so the area may be calculated instead of determining the blood vessel diameter.

第2の算出方法について説明する。第2の算出方法では、注目断面における眼底の断面像が用いられる。この断面像は、本スキャンに基づく断面像でもよいし、これとは別に取得されたものでもよい。この断面像におけるスケールは、測定光のスキャン態様に応じて決定される。注目断面の長さは、ワーキングディスタンス、眼球光学系の情報など、画像上のスケールと実空間でのスケールとの関係を決定する各種ファクターに基づいて決定される。血流データ生成部33は、例えば、注目断面の長さに基づいて隣接する画素の間隔を求め、第1の算出方法と同様にして注目断面における注目血管の径を算出することができる。 The second calculation method will be explained. In the second calculation method, a cross-sectional image of the fundus in the cross-section of interest is used. This cross-sectional image may be a cross-sectional image based on the main scan, or may be obtained separately from this. The scale in this cross-sectional image is determined according to the scanning mode of the measurement light. The length of the cross section of interest is determined based on various factors that determine the relationship between the scale on the image and the scale in real space, such as working distance and information on the eyeball optical system. For example, the blood flow data generation unit 33 can calculate the interval between adjacent pixels based on the length of the cross section of interest, and calculate the diameter of the blood vessel of interest in the cross section of interest in the same manner as the first calculation method.

血流量算出処理において、血流データ生成部33は、血流速度の算出結果と血管径の算出結果とに基づいて、注目血管内を流れる血液の流量を算出する。この処理の一例を以下に説明する。 In the blood flow calculation process, the blood flow data generation unit 33 calculates the flow rate of blood flowing in the blood vessel of interest based on the blood flow velocity calculation result and the blood vessel diameter calculation result. An example of this process will be described below.

血管内における血流がハーゲン・ポアズイユ流(Hagen-Poiseuille flow)と仮定する。また、血管径をwとし、血流速度の最大値をVmとする。この場合、血流量Qは次の関係式で表される。 It is assumed that the blood flow in a blood vessel is a Hagen-Poiseuille flow. Further, the blood vessel diameter is assumed to be w, and the maximum value of blood flow velocity is assumed to be Vm. In this case, the blood flow Q is expressed by the following relational expression.

Figure 0007386949000002
Figure 0007386949000002

血流データ生成部33は、血管径算出処理により得られた血管径wと、血流速度算出処理により得られた血流速度における最大値Vmとを上記関係式に代入することにより、血流量Qを算出することができる。 The blood flow data generation unit 33 calculates the blood flow by substituting the blood vessel diameter w obtained by the blood vessel diameter calculation process and the maximum value Vm of the blood flow velocity obtained by the blood flow velocity calculation process into the above relational expression. Q can be calculated.

〈操作部50〉
操作部50は、眼科撮影装置1に対してユーザーが指示を入力するために使用される。操作部50は、眼科装置やコンピュータに用いられる公知の操作デバイスを含んでよい。例えば、操作部50は、マウス、タッチパッド、トラックボール、キーボード、ペンタブレット、操作パネル、ジョイスティック、ボタン、スイッチ等を含んでよい。
<Operation unit 50>
The operation unit 50 is used by a user to input instructions to the ophthalmologic imaging apparatus 1 . The operation unit 50 may include a known operation device used in ophthalmological apparatuses and computers. For example, the operation unit 50 may include a mouse, a touch pad, a trackball, a keyboard, a pen tablet, an operation panel, a joystick, buttons, switches, and the like.

操作部50は、タッチパネルを含んでもよい。この場合、表示制御部12は、指示や情報を入力するためのGUIをタッチパネルに表示することができる。 The operation unit 50 may include a touch panel. In this case, the display control unit 12 can display a GUI for inputting instructions and information on the touch panel.

〈正面画像取得部60〉
正面画像取得部60は、眼底の正面画像を取得する。正面画像を取得するための処理は任意である。第1の例において、正面画像取得部60は、眼底を撮影するための構成を含んでよい。例えば、正面画像取得部60は、眼底カメラの光学系、SLOの光学系などを含んでよい。
<Front image acquisition unit 60>
The front image acquisition unit 60 acquires a front image of the fundus. The processing for acquiring the front image is arbitrary. In the first example, the front image acquisition unit 60 may include a configuration for photographing the fundus. For example, the front image acquisition unit 60 may include an optical system of a fundus camera, an optical system of an SLO, and the like.

第2の例において、正面画像取得部60は、当該被検眼の眼底の正面画像を外部装置から取得するための構成を含んでよい。例えば、正面画像取得部60は、LAN、インターネット、専用線等の通信回線を介してデータの送受信を行うための通信デバイスを含んでよい。この場合、正面画像取得部60は、例えば電子カルテシステムや画像アーカイビングシステムに格納されている当該被検眼の眼底の正面画像を、患者IDやDICOMタグ等を検索クエリとして取得することができる。 In the second example, the front image acquisition unit 60 may include a configuration for acquiring a front image of the fundus of the subject's eye from an external device. For example, the front image acquisition unit 60 may include a communication device for transmitting and receiving data via a communication line such as a LAN, the Internet, or a dedicated line. In this case, the frontal image acquisition unit 60 can acquire a frontal image of the fundus of the eye to be examined, which is stored in, for example, an electronic medical record system or an image archiving system, using a patient ID, a DICOM tag, or the like as a search query.

第3の例において、正面画像取得部60は、OCTによって正面画像を形成するプロセッサを含んでよい。OCT正面画像としては、Cスキャン画像、プロジェクション画像、シャドウグラムなどがある。 In a third example, the frontal image acquisition unit 60 may include a processor that forms a frontal image using OCT. Examples of the OCT front image include a C scan image, a projection image, and a shadowgram.

〈動作〉
本実施形態に係る眼科撮影装置1の動作の例を説明する。眼科撮影装置1の動作の例を図3に示す。なお、患者ID等の入力、被検眼に対する光学系のアライメント、光学系のフォーカス調整、OCT光路長調整、固視位置の調整、OCTスキャン範囲の設定などの準備的処理は、既になされているものとする。
<motion>
An example of the operation of the ophthalmologic imaging apparatus 1 according to this embodiment will be described. FIG. 3 shows an example of the operation of the ophthalmologic imaging apparatus 1. Preparatory processes such as input of patient ID, alignment of the optical system with respect to the eye to be examined, focus adjustment of the optical system, OCT optical path length adjustment, adjustment of the fixation position, and setting of the OCT scan range have already been performed. shall be.

(S1:眼底のOCT血流計測を実行する)
眼科撮影装置1は、被検眼の眼底の注目血管の注目断面に対してOCT血流計測を実行する。OCT血流計測は、1以上の注目血管のそれぞれにおける1以上の注目断面のそれぞれに対して実行される。また、注目断面を通過する血管が複数存在する場合、これら血管の少なくとも一部を注目血管とすることができる。逆に、複数の注目血管を横切るように注目断面を設定することもできる。
(S1: Perform OCT blood flow measurement of the fundus)
The ophthalmologic imaging apparatus 1 performs OCT blood flow measurement on a cross section of a blood vessel of interest in the fundus of an eye to be examined. OCT blood flow measurement is performed for each of one or more cross sections of interest in each of one or more blood vessels of interest. Further, when there are a plurality of blood vessels passing through the cross section of interest, at least some of these blood vessels can be set as the blood vessels of interest. Conversely, it is also possible to set the cross section of interest so as to cross a plurality of blood vessels of interest.

OCT血流計測において、スキャン制御部11は、OCTスキャナ31に含まれる光源や光スキャナを制御する。スキャン制御部11による制御の下、OCTスキャナ31は、予め設定された計測位置(つまり注目断面)において注目血管に交差する第1断面を繰り返しスキャンして第1データを収集し、更に、注目断面の近傍において注目血管に交差する1以上の補助的断面をスキャンして第2データを収集する。なお、第1データの収集と第2データの収集の順序は任意である。 In OCT blood flow measurement, the scan control unit 11 controls the light source and optical scanner included in the OCT scanner 31. Under the control of the scan control unit 11, the OCT scanner 31 repeatedly scans a first cross-section intersecting the blood vessel of interest at a preset measurement position (that is, the cross-section of interest) to collect first data, and further collects first data from the cross-section of interest. Second data is collected by scanning one or more auxiliary cross-sections that intersect the blood vessel of interest in the vicinity of the blood vessel of interest. Note that the order of collecting the first data and collecting the second data is arbitrary.

(S2:形態画像を形成する)
画像形成部32は、ステップS1において注目断面を繰り返しスキャンして収集された第1データに基づいて、注目断面に対応する1以上の形態画像(Bスキャン画像)を形成する。典型的には、スキャンの繰り返し回数と同じ枚数の形態画像を形成することができる。これにより、注目断面に対応する時系列Bスキャン画像が得られる。なお、スキャンの繰り返し回数よりも少ない枚数の形態画像を形成するようにしてもよい。
(S2: Form a morphological image)
The image forming unit 32 forms one or more morphological images (B-scan images) corresponding to the cross section of interest based on the first data collected by repeatedly scanning the cross section of interest in step S1. Typically, the same number of morphological images can be formed as the number of repetitions of the scan. As a result, time-series B-scan images corresponding to the cross section of interest are obtained. Note that the number of morphological images that is smaller than the number of repetitions of scanning may be formed.

更に、画像形成部32は、ステップS2において1以上の補助的断面をスキャンして収集された第2データに基づいて、各補助的断面に対応する形態画像(Bスキャン画像)を形成する。 Furthermore, the image forming unit 32 forms a morphological image (B-scan image) corresponding to each auxiliary cross section based on the second data collected by scanning one or more auxiliary cross sections in step S2.

ステップS2において形成された各形態画像は、OCTデータ21として記憶部20に保存される。 Each morphological image formed in step S2 is stored in the storage unit 20 as OCT data 21.

(S3:注目血管の傾斜角度を求める)
血流データ生成部33は、ステップS2で形成された複数の形態画像のうちの2以上の形態画像に基づいて、注目断面における注目血管の傾斜角度を求める。この処理には、例えば、2つの補助的断面に対応する2つの形態画像の組み合わせ、又は、1つの補助的断面に対応する形態画像と注目断面に対応する形態画像との組み合わせが用いられる。
(S3: Find the inclination angle of the blood vessel of interest)
The blood flow data generation unit 33 determines the inclination angle of the blood vessel of interest in the cross section of interest based on two or more morphological images of the plurality of morphological images formed in step S2. This processing uses, for example, a combination of two morphological images corresponding to two auxiliary cross sections, or a combination of a morphological image corresponding to one auxiliary cross section and a morphological image corresponding to the cross section of interest.

(S4:位相画像を形成する)
画像形成部32は、ステップS1において注目断面を繰り返しスキャンして収集された第1データに基づいて、注目断面に対応する位相画像を形成する。
(S4: Form a phase image)
The image forming unit 32 forms a phase image corresponding to the cross section of interest based on the first data collected by repeatedly scanning the cross section of interest in step S1.

ステップS4において形成された位相画像は、OCTデータ21として記憶部20に保存される。 The phase image formed in step S4 is stored in the storage unit 20 as OCT data 21.

(S5:血流データを求める)
血流データ生成部33は、ステップS3で求められた注目血管の傾斜角度と、ステップS4で形成された位相画像とに基づいて、注目断面を通過する注目血管についての血流データを生成する。この血流データは、例えば、注目血管における血流の時系列変化を表すデータを含む。このようなデータの例として、ステップS1で実行されたOCT血流計測の計測期間(典型的には、1心周期以上の長さの期間)における血流速度の時系列変化や、当該計測期間における単位時間当たり血流量の時系列変化などがある。
(S5: Obtain blood flow data)
The blood flow data generation unit 33 generates blood flow data regarding the blood vessel of interest passing through the cross section of interest based on the inclination angle of the blood vessel of interest obtained in step S3 and the phase image formed in step S4. This blood flow data includes, for example, data representing time-series changes in blood flow in the blood vessel of interest. Examples of such data include time-series changes in blood flow velocity during the measurement period (typically, a period longer than one cardiac cycle) of the OCT blood flow measurement performed in step S1, and the measurement period. Examples include time-series changes in blood flow per unit time.

ステップS5において生成された血流データは、OCTデータ21として記憶部20に保存される。複数の注目血管を考慮する場合、複数の注目血管のそれぞれについて血流データが求められる。更に、複数の注目血管のそれぞれについて、その識別情報(例えば、注目血管の位置情報)と、対応する血流データとが互いに関連付けられて記憶部20に保存される。 The blood flow data generated in step S5 is stored in the storage unit 20 as OCT data 21. When considering a plurality of blood vessels of interest, blood flow data is obtained for each of the plurality of blood vessels of interest. Furthermore, for each of the plurality of blood vessels of interest, its identification information (for example, position information of the blood vessel of interest) and corresponding blood flow data are stored in the storage unit 20 in association with each other.

(S6:形態画像を表示する)
表示制御部12は、注目断面の形態画像を表示デバイス2に表示させる。表示される形態画像は、例えば、ステップS2で形成された注目断面のBスキャン画像を含む。OCT血管造影が行われた場合、表示される形態画像は血管強調画像であってもよい。また、表示される形態画像は、ステップS4で形成された位相画像でもよい。
(S6: Display morphological image)
The display control unit 12 causes the display device 2 to display the morphological image of the cross section of interest. The displayed morphological image includes, for example, the B-scan image of the cross section of interest formed in step S2. If OCT angiography is performed, the displayed morphological image may be a vessel-enhanced image. Further, the morphological image to be displayed may be the phase image formed in step S4.

表示される形態画像は、このBスキャン画像における血管断面領域に合成された血流状態画像を含んでもよい。血流状態画像については後述する。Bスキャン画像における血管断面領域は、血管(注目血管)の断面に相当する領域であり、例えば、Bスキャン画像及び位相画像の少なくとも一方を解析することで特定される。典型的には、表示制御部12及び/又はデータ取得部30は、次の一連の処理を実行する:位相画像を解析して血管断面領域を特定する処理;注目断面のBスキャン画像と位相画像との間の自明なレジストレーションを利用して、位相画像中の血管断面領域に対応するBスキャン画像中の画像領域を特定する処理。或いは、Bスキャン画像の輝度分布やパターンに基づいてBスキャン画像中の血管断面領域を特定してもよい。 The displayed morphological image may include a blood flow state image combined with the blood vessel cross-sectional area in this B-scan image. The blood flow state image will be described later. The blood vessel cross-sectional area in the B-scan image is an area corresponding to the cross-section of the blood vessel (blood vessel of interest), and is specified, for example, by analyzing at least one of the B-scan image and the phase image. Typically, the display control unit 12 and/or the data acquisition unit 30 executes the following series of processes: Analyzing a phase image to identify a blood vessel cross-sectional area; B-scan image and phase image of the cross-section of interest; A process of identifying an image region in a B-scan image that corresponds to a blood vessel cross-sectional region in a phase image using obvious registration between Alternatively, the blood vessel cross-sectional area in the B-scan image may be specified based on the brightness distribution or pattern of the B-scan image.

ステップS6で表示される形態画像の例を図4Aに示す。符号120は、ステップS6で表示される形態画像の例である。図4Aに示す例は、注目断面に4つの血管が検出された場合を表している。表示制御部12は、これら4つの血管に対応する形態画像120内の位置にそれぞれ血流状態画像131、132、133及び134を表示させる。なお、前述したように、血流状態画像を表示することは必須ではない。 An example of the morphological image displayed in step S6 is shown in FIG. 4A. Reference numeral 120 is an example of the morphological image displayed in step S6. The example shown in FIG. 4A represents a case where four blood vessels are detected in the cross section of interest. The display control unit 12 displays blood flow state images 131, 132, 133, and 134 at positions in the morphological image 120 corresponding to these four blood vessels, respectively. Note that, as described above, it is not essential to display the blood flow state image.

血流状態画像131は、例えば、血流速度の大きさを色で表現した画像である。表示制御部12は、血流速度の大きさと色との間の関係が記録された既定のルックアップテーブル(カラーマップ、濃度マップなど)を参照することにより、所定の時相における血流速度の大きさに対応する色(濃度)を求め、求められた色に基づいて血流状態画像131を表示させる。血流状態画像132~134についても同様の表示制御を実行することができる。また、単位時間当たり血流量が適用される場合においても同様の表示制御を実行することができる。 The blood flow state image 131 is, for example, an image in which the magnitude of blood flow velocity is expressed in color. The display control unit 12 determines the blood flow velocity at a predetermined time phase by referring to a predetermined lookup table (color map, density map, etc.) in which the relationship between the magnitude of blood flow velocity and color is recorded. A color (density) corresponding to the size is determined, and a blood flow state image 131 is displayed based on the determined color. Similar display control can be performed for the blood flow state images 132 to 134 as well. Further, similar display control can be performed even when blood flow per unit time is applied.

また、血流状態画像131は、血流の向きを色で表現した画像であってもよい。表示制御部12は、血流の向きと色との間の関係が記録された既定のルックアップテーブル(カラーマップなど)を参照することにより、所定の時相における血流の向きに対応する色を求め、求められた色に基づいて血流状態画像131を表示させる。血流状態画像132~134についても同様の表示制御を実行することができる。また、単位時間当たり血流量が適用される場合においても同様の表示制御を実行することができる。 Further, the blood flow state image 131 may be an image expressing the direction of blood flow using colors. The display control unit 12 selects a color corresponding to the direction of blood flow in a predetermined time phase by referring to a predetermined lookup table (such as a color map) in which the relationship between the direction of blood flow and color is recorded. is determined, and a blood flow state image 131 is displayed based on the determined color. Similar display control can be performed for the blood flow state images 132 to 134 as well. Further, similar display control can be performed even when blood flow per unit time is applied.

典型的な例において、血流状態画像131は、血流の向きを色で表現し、且つ、血流速度の大きさを色濃度で表現した画像であってよい。例えば、視神経乳頭から毛細血管に向かう血流(つまり、動脈内の血流)を赤色で表現し、毛細血管から視神経乳頭に向かう血流(つまり、静脈内の血流)を青色で表現し、更に、血流速度が大きくなるほど色濃度が高くなるように、ルックアップテーブルが設定される。血流状態画像132~134についても同様の表示制御を実行することができる。また、単位時間当たり血流量が適用される場合においても同様の表示制御を実行することができる。 In a typical example, the blood flow state image 131 may be an image in which the direction of blood flow is expressed by color, and the magnitude of blood flow velocity is expressed by color density. For example, the blood flow from the optic disc to the capillary (i.e. blood flow in the artery) is represented in red, the blood flow from the capillary to the optic disc (i.e. blood flow in the vein) is represented in blue, Further, the lookup table is set such that the color density increases as the blood flow velocity increases. Similar display control can be performed for the blood flow state images 132 to 134 as well. Further, similar display control can be performed even when blood flow per unit time is applied.

(S7:血管を指定する)
ユーザーは、ステップS6で表示された形態画像に描出されたいずれかの血管を、操作部50を用いて指定する。この操作は、例えば、形態画像に描出された血管のうち所望のものを、ポインティングデバイスでクリックすることにより実行される。表示制御部12は、ステップS7で指定された血管の表示態様を変更することができる。
(S7: Specify blood vessel)
The user uses the operation unit 50 to specify one of the blood vessels depicted in the morphological image displayed in step S6. This operation is performed, for example, by clicking on a desired blood vessel depicted in the morphological image with a pointing device. The display control unit 12 can change the display mode of the blood vessel specified in step S7.

(S8:血流グラフを表示する)
表示制御部12は、ステップS7で指定された血管の識別情報(例えば、前述した位置情報)を特定し、特定された位置情報に対応する血流データを記憶部20から読み出す。更に、表示制御部12(及び/又はデータ取得部30)は、読み出された血流データに基づく血流グラフを表示デバイス2に表示させる。
(S8: Display blood flow graph)
The display control unit 12 specifies the identification information (for example, the above-mentioned position information) of the blood vessel specified in step S7, and reads blood flow data corresponding to the specified position information from the storage unit 20. Furthermore, the display control unit 12 (and/or the data acquisition unit 30) causes the display device 2 to display a blood flow graph based on the read blood flow data.

ステップS8で表示される情報の例を図4Bに示す。ステップS7において血流状態画像132に対応する血管が指定されたとする。表示制御部12は、血流状態画像132の表示態様を変更する。つまり、血流状態画像131、133及び134と異なる態様で、血流状態画像132が表示される。更に、表示デバイス2には、ステップS6で表示された形態画像120とともに、血管断面領域132に対応する血流グラフ140が表示されている。 An example of the information displayed in step S8 is shown in FIG. 4B. Assume that a blood vessel corresponding to the blood flow state image 132 is specified in step S7. The display control unit 12 changes the display mode of the blood flow state image 132. That is, the blood flow state image 132 is displayed in a manner different from the blood flow state images 131, 133, and 134. Furthermore, a blood flow graph 140 corresponding to the blood vessel cross-sectional area 132 is displayed on the display device 2 together with the morphological image 120 displayed in step S6.

血流グラフ140は、血管断面領域132に対応する血管における血流の時系列変化を表す。本例の血流グラフ140は、横軸(第1座標軸)が時間tを示し、且つ、縦軸(第2座標軸)が血流速度(v)を示す2次元直交座標系により表現されている。 The blood flow graph 140 represents time-series changes in blood flow in the blood vessel corresponding to the blood vessel cross-sectional area 132. The blood flow graph 140 of this example is expressed by a two-dimensional orthogonal coordinate system in which the horizontal axis (first coordinate axis) indicates time t, and the vertical axis (second coordinate axis) indicates blood flow velocity (v). .

このような血流グラフ140は、OCT血流計測の計測期間にわたる(時系列)位相画像に基づいて作成される。このとき、縦軸の血流速度(v)は、例えば、対応する時相における血流状態画像132に含まれる複数の画素の値(つまり、血流速度の大きさなどに対応する値)の統計値であってよい。この統計値は、例えば、平均値、最大値、最小値などであってよい。或いは、縦軸の血流速度(v)は、血流状態画像132における所定の画素(例えば、中心に位置する画素、重心に位置する画素など)の値であってもよい。 Such a blood flow graph 140 is created based on (time-series) phase images over a measurement period of OCT blood flow measurement. At this time, the blood flow velocity (v) on the vertical axis is, for example, the value of a plurality of pixels included in the blood flow state image 132 in the corresponding time phase (that is, the value corresponding to the magnitude of the blood flow velocity, etc.). It may be a statistical value. This statistical value may be, for example, an average value, a maximum value, a minimum value, etc. Alternatively, the blood flow velocity (v) on the vertical axis may be the value of a predetermined pixel (for example, a pixel located at the center, a pixel located at the center of gravity, etc.) in the blood flow state image 132.

単位時間当たり血流量が適用される場合においても同様に、例えば、横軸が時間を示し、且つ、縦軸が単位時間当たり血流量を示す血流グラフを表示することができる。 Similarly, when blood flow per unit time is applied, for example, a blood flow graph can be displayed in which the horizontal axis represents time and the vertical axis represents blood flow per unit time.

(S9:観察終了?)
ユーザーは、他の所望の血管を指定することができる(S7)。表示制御部12は、新たに指定された血管に対応する血流グラフを表示デバイス2に表示させる。なお、2以上の血管を指定することができる。その場合、指定された2以上の血管に対応する2以上の血流グラフを並列的に表示させることができる。被検眼についてのデータや画像の観察が終了するまで、このような操作及び処理が繰り返される(S9:No)。観察が終了したら(S9:Yes)、本例の処理は終了となる(エンド)。
(S9: Observation finished?)
The user can specify other desired blood vessels (S7). The display control unit 12 causes the display device 2 to display a blood flow graph corresponding to the newly specified blood vessel. Note that two or more blood vessels can be specified. In that case, two or more blood flow graphs corresponding to two or more specified blood vessels can be displayed in parallel. Such operations and processing are repeated until observation of data and images regarding the eye to be examined is completed (S9: No). When the observation ends (S9: Yes), the process of this example ends (End).

本実施形態において表示可能な情報の他の例を図5に示す。符号100は、血流の時相の提示及び設定を行うためのスライダーを示す。スライダー100は、OCT血流計測の計測期間を示す時間軸(バー)に沿って移動可能なハンドル110を備える。 FIG. 5 shows another example of information that can be displayed in this embodiment. Reference numeral 100 indicates a slider for presenting and setting the time phase of blood flow. The slider 100 includes a handle 110 that is movable along a time axis (bar) indicating a measurement period of OCT blood flow measurement.

符号120は、ステップS6で表示された注目断面の形態画像である。ステップS2において注目断面に対応する複数の形態画像が形成された場合、表示制御部12は、スライダー100が現に提示している時相に対応する形態画像を選択して表示させることができる。すなわち、スライダー100のハンドル110の位置(時相)と、形態画像が示す時相とは、互いに対応している。 Reference numeral 120 is a morphological image of the cross section of interest displayed in step S6. When a plurality of morphological images corresponding to the cross section of interest are formed in step S2, the display control unit 12 can select and display the morphological image corresponding to the time phase currently presented by the slider 100. That is, the position (time phase) of the handle 110 of the slider 100 and the time phase indicated by the morphological image correspond to each other.

ステップS4において、形態画像120に対応する位相画像が形成され、且つ、ステップS5において、この位相画像から血流データが生成される。この血流データは、例えば、血流速度の時系列変化、又は、単位時間当たり血流量の時系列変化であってよい。図5に示す例では、血流速度(v)の時系列変化が採用されている。 In step S4, a phase image corresponding to the morphological image 120 is formed, and in step S5, blood flow data is generated from this phase image. This blood flow data may be, for example, time-series changes in blood flow velocity or time-series changes in blood flow per unit time. In the example shown in FIG. 5, time-series changes in blood flow velocity (v) are employed.

表示制御部12は、スライダー100が示す時相における血流の状態(血流速度、単位時間当たり血流量など)を示す血流状態画像を、(少なくとも)注目血管に対応する形態画像120内の位置に表示させる。 The display control unit 12 displays a blood flow state image indicating the state of blood flow (blood flow velocity, blood flow volume per unit time, etc.) in the time phase indicated by the slider 100 in (at least) the morphological image 120 corresponding to the blood vessel of interest. Display in position.

図5に示す例では、4つの血管に対応する形態画像120内の位置にそれぞれ血流状態画像131、132、133及び134が表示されている。表示制御部12は、血流速度の大きさと色との間の関係が記録された既定のルックアップテーブル(カラーマップ、濃度マップなど)を参照することにより、スライダー100が示す時相における血流速度の大きさに対応する色(濃度)を求め、求められた色に基づいて血流状態画像131を表示させる。血流状態画像132~134についても同様の表示制御を実行することができる。また、単位時間当たり血流量が適用される場合においても同様の表示制御を実行することができる。 In the example shown in FIG. 5, blood flow state images 131, 132, 133, and 134 are displayed at positions in the morphological image 120 corresponding to four blood vessels, respectively. The display control unit 12 determines the blood flow in the time phase indicated by the slider 100 by referring to a predetermined lookup table (color map, density map, etc.) in which the relationship between the magnitude of blood flow velocity and color is recorded. A color (density) corresponding to the magnitude of the velocity is determined, and a blood flow state image 131 is displayed based on the determined color. Similar display control can be performed for the blood flow state images 132 to 134 as well. Further, similar display control can be performed even when blood flow per unit time is applied.

また、表示制御部12は、血流の向きと色との間の関係が記録された既定のルックアップテーブル(カラーマップなど)を参照することにより、スライダー100が示す時相における血流の向きに対応する色を求め、求められた色に基づいて血流状態画像131を表示させる。血流状態画像132~134についても同様の表示制御を実行することができる。また、単位時間当たり血流量が適用される場合においても同様の表示制御を実行することができる。 The display control unit 12 also determines the direction of the blood flow in the time phase indicated by the slider 100 by referring to a predetermined lookup table (such as a color map) in which the relationship between the direction of the blood flow and the color is recorded. The color corresponding to is determined, and the blood flow state image 131 is displayed based on the determined color. Similar display control can be performed for the blood flow state images 132 to 134 as well. Further, similar display control can be performed even when blood flow per unit time is applied.

このように、スライダー100のハンドル110の位置(時相)と、血流状態画像131~134が示す時相とは、互いに対応している。 In this way, the position (time phase) of the handle 110 of the slider 100 and the time phases indicated by the blood flow state images 131 to 134 correspond to each other.

表示制御部12は、血流状態画像132に対応する血流グラフ140の時間軸(横軸)に沿って移動可能なウィジェット150)を表示させる。本例では、血流グラフ140上にウィジェット150が表示されているが、ウィジェット150の表示態様はこれに限定されず、ウィジェット150が示す時間軸上の位置が明確となるような表示態様であればよい。 The display control unit 12 displays a widget 150 that is movable along the time axis (horizontal axis) of the blood flow graph 140 corresponding to the blood flow state image 132. In this example, the widget 150 is displayed on the blood flow graph 140, but the display mode of the widget 150 is not limited to this, and may be any display mode that makes the position on the time axis indicated by the widget 150 clear. Bye.

スライダー100のハンドル110が移動されると、表示制御部12は、時間軸に対するウィジェット150の位置を、ハンドル110の移動に対応して変更する。逆に、時間軸に対するウィジェット150の位置が移動されると、表示制御部12は、スライダー100のハンドル110を、ウィジェット150の移動に対応して変更する。このように、スライダー100のハンドル110の位置(時相)と、ウィジェット150の位置(つまり、ウィジェット150が示す時間軸上の時相)とは、互いに対応している。 When the handle 110 of the slider 100 is moved, the display control unit 12 changes the position of the widget 150 with respect to the time axis in accordance with the movement of the handle 110. Conversely, when the position of the widget 150 with respect to the time axis is moved, the display control unit 12 changes the handle 110 of the slider 100 in accordance with the movement of the widget 150. In this way, the position (time phase) of the handle 110 of the slider 100 and the position of the widget 150 (that is, the time phase on the time axis indicated by the widget 150) correspond to each other.

以上のように、スライダー100のハンドル110が示す時相と、血流状態画像131~134が示す時相と、ウィジェット150が示す時相とは、互いに対応している。更に、時相が異なる複数の形態画像を選択的に表示する場合には、スライダー100のハンドル110が示す時相と、形態画像が示す時相と、血流状態画像131~134が示す時相と、ウィジェット150が示す時相とが、互いに対応している。 As described above, the time phase indicated by the handle 110 of the slider 100, the time phase indicated by the blood flow state images 131 to 134, and the time phase indicated by the widget 150 correspond to each other. Furthermore, when selectively displaying a plurality of morphological images having different time phases, the time phase indicated by the handle 110 of the slider 100, the time phase indicated by the morphological image, and the time phase indicated by the blood flow state images 131 to 134 are selected. and the time phase indicated by the widget 150 correspond to each other.

また、本例では、表示制御部12は、2つのウィジェット(スライダー100及びウィジェット150)を表示させ、且つ、これら2つのウィジェットの表示制御を血流の時相に応じて同期的に実行するようになっている。しかし、表示されるウィジェットは1つでもよい。或いは、3つ以上のウィジェットを表示させることも可能である。この場合、3つ以上のウィジェットのうちの少なくとも2つのウィジェットの表示制御を、血流の時相に応じて同期的に実行することができる。 Further, in this example, the display control unit 12 displays two widgets (slider 100 and widget 150), and controls the display of these two widgets synchronously according to the time phase of blood flow. It has become. However, only one widget may be displayed. Alternatively, it is also possible to display three or more widgets. In this case, display control of at least two of the three or more widgets can be performed synchronously according to the time phase of blood flow.

また、スライダー100の操作は、例えば、操作部50に含まれるポインティングデバイス(マウスなど)を用いてハンドル110をドラッグすることによって行われる。ウィジェット150の操作についても同様であってよい。 Further, the slider 100 is operated, for example, by dragging the handle 110 using a pointing device (such as a mouse) included in the operation unit 50. The same may apply to the operation of the widget 150.

表示制御部12は、血流状態画像131~134を動画として表示させることができる。この場合、表示制御部12は、血流状態画像131~134の時相に対応して形態画像120を逐次に更新することができる。つまり、表示制御部12は、血流状態画像131~134と形態画像120との全体を動画として表示させることができる。 The display control unit 12 can display the blood flow state images 131 to 134 as moving images. In this case, the display control unit 12 can sequentially update the morphological image 120 in accordance with the time phase of the blood flow state images 131 to 134. In other words, the display control unit 12 can display the blood flow state images 131 to 134 and the morphological image 120 as a whole as a moving image.

更に、表示制御部12は、スライダー100が示す時相(つまり、ハンドル110の位置)と、ウィジェット150が示す時相(つまり、時間軸に対するウィジェットの位置)とを、動画としての血流状態画像131~134(及び形態画像120)に同期して変更することができる。 Furthermore, the display control unit 12 converts the time phase indicated by the slider 100 (that is, the position of the handle 110) and the time phase indicated by the widget 150 (that is, the position of the widget with respect to the time axis) into a blood flow state image as a moving image. 131 to 134 (and the morphological image 120).

OCT血流計測に加えてOCT血管造影が実施された場合、表示制御部12は、OCT血管造影により取得された血管強調画像を表示デバイス2に表示させることができる。血管強調画像は、例えば、図3のステップS6において、形態画像とともに表示される。或いは、血管強調画像は、図3のステップS6の形態画像として表示される。 When OCT angiography is performed in addition to OCT blood flow measurement, the display control unit 12 can cause the display device 2 to display the blood vessel enhanced image acquired by the OCT angiography. The blood vessel enhanced image is displayed together with the morphological image in step S6 of FIG. 3, for example. Alternatively, the blood vessel enhanced image is displayed as the morphological image in step S6 of FIG.

図3のステップS6の形態画像として血管強調画像が表示される場合、例えば、画像形成部32は、OCT血管造影により取得されたデータに基づいて注目断面のBスキャン画像(Bスキャン血管強調画像)を形成する。更に、表示処理部12は、このBスキャン血管強調画像を形態画像(例えば、図5の形態画像120)として表示デバイス2に表示させる。 When a blood vessel-enhanced image is displayed as the morphological image in step S6 of FIG. 3, for example, the image forming unit 32 generates a B-scan image (B-scan blood vessel-enhanced image) of the cross section of interest based on data acquired by OCT angiography. form. Further, the display processing unit 12 causes the display device 2 to display this B-scan blood vessel enhanced image as a morphological image (for example, morphological image 120 in FIG. 5).

図3のステップS6の形態画像とともに血管強調画像が表示される場合、例えば、画像形成部32は、OCT血管造影により取得されたデータに基づいて、所定の断面における血管強調画像、又は、正面画像としての血管強調画像(正面血管強調画像)を形成する。所定の断面における血管強調画像の例として、形態画像と同じ断面(つまり、注目断面)におけるBスキャン血管強調画像がある。正面血管強調画像の例として、眼底の任意の深さ領域(例えば、網膜浅部、網膜深部、脈絡膜毛細血管板、強膜など)に対応する正面画像や、眼底の所定組織(例えば、内境界膜、神経線維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、網膜色素上皮、ブルッフ膜、脈絡膜、脈絡膜強膜境界、強膜、これらのいずれかの一部、これらの少なくとも2以上の組み合わせなど)に対応する正面画像がある。更に、表示処理部12は、形成された血管強調画像を形態画像(例えば、図5の形態画像120)と並列的に表示デバイス2に表示させる。 When a blood vessel enhanced image is displayed together with the morphological image in step S6 of FIG. A blood vessel-enhanced image (frontal blood vessel-enhanced image) is created. An example of a blood vessel emphasized image in a predetermined cross section is a B-scan blood vessel emphasized image in the same cross section as the morphological image (that is, the cross section of interest). Examples of frontal blood vessel-enhanced images include frontal images corresponding to arbitrary depth regions of the fundus (e.g., superficial retina, deep retina, choriocapillary plate, sclera, etc.), and predetermined tissues of the fundus (e.g., inner border). membrane, nerve fiber layer, ganglion cell layer, inner plexiform layer, inner nuclear layer, outer plexiform layer, outer nuclear layer, outer limiting membrane, retinal pigment epithelium, Bruch's membrane, choroid, choroidoscleral border, sclera, these There is a front image corresponding to a portion of any of the above, a combination of at least two or more of these, etc.). Further, the display processing unit 12 causes the display device 2 to display the formed blood vessel enhanced image in parallel with the morphological image (for example, the morphological image 120 in FIG. 5).

〈眼科情報処理装置〉
例示的な実施形態に係る眼科情報処理装置について説明する。本実施形態の眼科情報処理装置の構成例を図6に示す。眼科情報処理装置200は、OCT血流計測を用いて取得された眼底のデータを記憶し、記憶されたデータに基づいて眼底形態画像及び眼底血流データを生成し、これらに基づき各種情報を表示する。更に、眼科情報処理装置200は、OCT血管造影を用いて取得されたデータを記憶し、このデータに基づき情報を表示するように構成されてもよい。
<Ophthalmology information processing device>
An ophthalmological information processing device according to an exemplary embodiment will be described. FIG. 6 shows an example of the configuration of the ophthalmological information processing apparatus of this embodiment. The ophthalmological information processing device 200 stores fundus data acquired using OCT blood flow measurement, generates fundus morphological images and fundus blood flow data based on the stored data, and displays various information based on these. do. Further, the ophthalmological information processing device 200 may be configured to store data acquired using OCT angiography and display information based on this data.

眼科情報処理装置200は、眼底形態画像、血流情報、血管強調画像などの各種情報を、表示デバイス2に表示することができる。表示デバイス2は眼科情報処理装置200の一部であってもよいし、眼科情報処理装置200に接続された外部装置であってもよい。また、眼科情報処理装置200は、各種情報を、コンピュータ、記憶装置、眼科装置などに送ることができる。 The ophthalmological information processing apparatus 200 can display various information such as fundus morphological images, blood flow information, and blood vessel emphasis images on the display device 2. The display device 2 may be a part of the ophthalmological information processing apparatus 200 or may be an external device connected to the ophthalmological information processing apparatus 200. Further, the ophthalmological information processing device 200 can send various types of information to a computer, a storage device, an ophthalmological device, and the like.

眼科情報処理装置200は、制御部210と、記憶部220と、データ処理部230と、データ入力部240と、操作部250とを含む。制御部210は、表示制御部212を含む。記憶部220にはOCTデータ221が記憶される。 The ophthalmological information processing device 200 includes a control section 210, a storage section 220, a data processing section 230, a data input section 240, and an operation section 250. Control section 210 includes a display control section 212. OCT data 221 is stored in the storage unit 220.

眼科情報処理装置200の各要素は、例えば、前述した眼科撮影装置1に含まれる対応する要素と同様の構成及び機能を有する。すなわち、制御部210は制御部10と同様の構成及び機能を有し、表示制御部212は表示制御部12と同様の構成及び機能を有し、記憶部220は記憶部20と同様の構成及び機能を有し、操作部250は操作部50と同様の構成及び機能を有する。 Each element of the ophthalmologic information processing apparatus 200 has, for example, the same configuration and function as the corresponding element included in the ophthalmologic imaging apparatus 1 described above. That is, the control unit 210 has the same configuration and function as the control unit 10, the display control unit 212 has the same configuration and function as the display control unit 12, and the storage unit 220 has the same configuration and function as the storage unit 20. The operating section 250 has the same configuration and function as the operating section 50.

OCTデータ221は、OCTデータ21と同様の形態のデータであってよい。例えば、OCTデータ221は、次の(1)~(5)のいずれか1以上を含んでいてよい。
(1)眼底のOCTスキャンによって収集されたデータ(生データ)
(2)生データを処理して得られた画像データ
(3)生データから画像データを生成するための一連の処理の途中で得られた中間データ
(4)生データを処理して得られた血流データ
(5)生データから血流データを生成するための一連の処理の途中で得られた中間データ
The OCT data 221 may have the same format as the OCT data 21. For example, the OCT data 221 may include any one or more of the following (1) to (5).
(1) Data collected by OCT scan of the fundus (raw data)
(2) Image data obtained by processing raw data (3) Intermediate data obtained during a series of processing to generate image data from raw data (4) Image data obtained by processing raw data Blood flow data (5) Intermediate data obtained during a series of processes to generate blood flow data from raw data

データ処理部230は、各種データ処理を実行する。データ処理部230は、画像形成部32と同様の構成及び機能を有していてよい。例えば、OCTデータ221が上記OCTデータ(1)及び(3)の少なくともいずれかを含む場合、データ処理部230は、画像形成部32と同様の処理を実行することによりOCT画像(形態画像、位相画像など)を形成することができる。 The data processing unit 230 performs various data processing. The data processing section 230 may have the same configuration and functions as the image forming section 32. For example, when the OCT data 221 includes at least one of the above OCT data (1) and (3), the data processing unit 230 performs the same processing as the image forming unit 32 to generate an OCT image (morphological image, phase image, etc.). images, etc.).

データ処理部230は、血流データ生成部33と同様の構成及び機能を有していてよい。例えば、OCTデータ221が上記OCTデータ(1)、(4)及び(5)の少なくともいずれかを含む場合、データ処理部230は、血流データ生成部33と同様の処理を実行することにより血流データ(血流速度、血流量など)を生成することができる。 The data processing section 230 may have the same configuration and function as the blood flow data generation section 33. For example, when the OCT data 221 includes at least one of the above OCT data (1), (4), and (5), the data processing unit 230 performs the same process as the blood flow data generation unit 33 to generate blood flow data. Flow data (blood flow velocity, blood flow volume, etc.) can be generated.

データ入力部240は、OCTデータ221及び/又はその元になるデータを外部から眼科情報処理装置200に入力する。データ入力部240は、例えば、外部装置との間でデータ通信を行うための通信インターフェイス、記録媒体からデータを読み取る装置などを含んでいてよい。 The data input unit 240 inputs the OCT data 221 and/or its source data into the ophthalmological information processing apparatus 200 from the outside. The data input unit 240 may include, for example, a communication interface for performing data communication with an external device, a device for reading data from a recording medium, and the like.

表示制御部212は、図4A、図4B及び図5の少なくともいずれかと同様の情報を表示デバイス2に表示させるための制御を実行することができる。 The display control unit 212 can perform control to cause the display device 2 to display information similar to at least one of FIGS. 4A, 4B, and 5.

〈作用・効果〉
上記した例示的な実施形態に係る眼科撮影装置及び眼科情報処理装置の作用及び効果について説明する。
<Action/Effect>
The operations and effects of the ophthalmologic imaging device and ophthalmologic information processing device according to the exemplary embodiments described above will be described.

実施形態に係る眼科撮影装置(1)は、データ取得部(30)と、表示処理部(表示制御部12など)と、操作部(50)とを含む。データ取得部は、被検眼の眼底に少なくともOCT血流計測を適用してデータを取得する。表示処理部は、表示手段(表示デバイス2)に情報を表示させる。 The ophthalmologic imaging apparatus (1) according to the embodiment includes a data acquisition section (30), a display processing section (display control section 12, etc.), and an operation section (50). The data acquisition unit acquires data by applying at least OCT blood flow measurement to the fundus of the eye to be examined. The display processing section causes the display means (display device 2) to display information.

具体的には、表示処理部は、データ取得部により取得されたデータ(OCTデータ21)に基づいて、眼底の形態画像(120)を表示させる。更に、表示された形態画像に描出されたいずれかの血管が操作部を用いて指定されたとき、表示処理部は、指定された血管における血流の時系列変化を表す血流グラフを、データ取得部により取得されたデータ(OCTデータ21)に基づき表示させる。 Specifically, the display processing unit displays a fundus morphological image (120) based on the data (OCT data 21) acquired by the data acquisition unit. Furthermore, when any blood vessel depicted in the displayed morphological image is specified using the operation unit, the display processing unit generates a blood flow graph representing time-series changes in blood flow in the specified blood vessel as data. Display is performed based on the data (OCT data 21) acquired by the acquisition unit.

実施形態に係る眼科情報処理装置(200)は、記憶部(220)と、表示処理部(表示制御部212など)と、操作部(250)とを含む。記憶部は、被検眼の眼底にOCT血流計測を適用して取得されたデータ(OCTデータ221)を記憶する。表示処理部は、表示手段(表示デバイス2)に情報を表示させる。 The ophthalmological information processing device (200) according to the embodiment includes a storage section (220), a display processing section (display control section 212, etc.), and an operation section (250). The storage unit stores data (OCT data 221) obtained by applying OCT blood flow measurement to the fundus of the eye to be examined. The display processing section causes the display means (display device 2) to display information.

具体的には、表示処理部は、記憶部に記憶されたデータ(OCTデータ221)に基づいて、眼底の形態画像(120)を表示させる。更に、表示された形態画像に描出されたいずれかの血管が操作部を用いて指定されたとき、表示処理部は、指定された血管における血流の時系列変化を表す血流グラフを、データ取得部により取得されたデータ(OCTデータ221)に基づき表示させる。 Specifically, the display processing section displays a fundus morphological image (120) based on the data (OCT data 221) stored in the storage section. Furthermore, when any blood vessel depicted in the displayed morphological image is specified using the operation unit, the display processing unit generates a blood flow graph representing time-series changes in blood flow in the specified blood vessel as data. Display is performed based on the data (OCT data 221) acquired by the acquisition unit.

このような実施形態によれば、ユーザーは、形態画像により眼底の形態を観察しつつ、形態画像に描出されている所望の血管を指定することができる。更に、眼科撮影装置(1)又は眼科情報処理装置(200)は、ユーザーが指定した血管に対応する血流グラフを表示させることができる。このような新規な情報表示態様によれば、ユーザーは、所望の血管に対応する血流グラフを容易に観察することができる。 According to such an embodiment, the user can specify a desired blood vessel depicted in the morphological image while observing the morphology of the fundus using the morphological image. Furthermore, the ophthalmologic imaging device (1) or the ophthalmologic information processing device (200) can display a blood flow graph corresponding to a blood vessel specified by the user. According to such a novel information display mode, a user can easily observe a blood flow graph corresponding to a desired blood vessel.

実施形態において、血流グラフは、第1座標軸が時間を示し、且つ、第2座標軸が血流速度又は単位時間当たり血流量を示す2次元直交座標系により表現されるように構成されていてよい。 In an embodiment, the blood flow graph may be configured to be expressed by a two-dimensional orthogonal coordinate system in which the first coordinate axis indicates time and the second coordinate axis indicates blood flow velocity or blood flow volume per unit time. .

このような構成によれば、血流速度の時系列変化や、単位時間当たり血流量の時系列変化を、グラフとして提示することができる。それにより、ユーザーは、血流速度の時系列変化や、単位時間当たり血流量の時系列変化を容易に把握することができる。 According to such a configuration, time-series changes in blood flow velocity and time-series changes in blood flow per unit time can be presented as a graph. Thereby, the user can easily understand the time-series changes in blood flow velocity and the time-series changes in blood flow per unit time.

実施形態において、表示処理部は、Bスキャン画像及び位相画像の少なくとも一方を形態画像として表示させるように構成されていてよい。 In the embodiment, the display processing unit may be configured to display at least one of the B-scan image and the phase image as a morphological image.

このような構成によれば、ユーザーは、眼底のB断面の形態及び/又は位相状態を観察しつつ、このB断面における血流状態を容易に把握することができる。 According to such a configuration, the user can easily grasp the blood flow state in the B section of the fundus while observing the form and/or phase state of the B section.

実施形態において、表示処理部は、Bスキャン画像と、このBスキャン画像における血管断面領域に合成された血流状態画像とを、形態画像として表示させるように構成されていてよい。 In the embodiment, the display processing unit may be configured to display the B-scan image and the blood flow state image combined with the blood vessel cross-sectional area in the B-scan image as a morphological image.

このような構成によれば、ユーザーは、形態画像から容易に血流動態を把握することができる。 According to such a configuration, the user can easily understand blood flow dynamics from the morphological image.

なお、血流状態画像は、血流速度の大きさ又は単位時間当たり血流量の大きさを色で表現した画像を含んでいてよい。この構成によれば、血流速度の大きさや、単位時間当たり血流量の大きさを、色を用いて提示することができるので、ユーザーは、血流速度の大きさや、単位時間当たり血流量の大きさを容易に把握することができる。 Note that the blood flow state image may include an image in which the magnitude of blood flow velocity or the magnitude of blood flow per unit time is expressed in color. According to this configuration, the magnitude of the blood flow velocity and the magnitude of the blood flow per unit time can be presented using colors, so the user can display the magnitude of the blood flow velocity and the magnitude of the blood flow per unit time. The size can be easily grasped.

また、血流状態画像は、血流の向きを色で表現した画像を含んでいてよい。この構成によれば、色を用いて血流の向きを提示することができるので、ユーザーは、血流の向きを容易に把握することができる。 Further, the blood flow state image may include an image in which the direction of blood flow is expressed in color. According to this configuration, since the direction of blood flow can be presented using color, the user can easily understand the direction of blood flow.

実施形態に係る眼科撮影装置及び眼科情報処理装置の少なくとも一方は、眼底にOCT血管造影を適用して取得されたデータを扱うことができる。すなわち、実施形態に係る眼科撮影装置のデータ取得部は、眼底にOCT血管造影を適用してデータを取得できるように構成されてよい。一方、実施形態に係る眼科情報処理装置の記憶部は、眼底にOCT血管造影を適用して取得されたデータを記憶するように構成されてよい。更に、眼科撮影装置及び/又は眼科情報処理装置の表示処理部は、OCT血管造影により取得されたデータに基づいて血管強調画像を表示させるように構成されてよい。 At least one of the ophthalmologic imaging device and the ophthalmologic information processing device according to the embodiment can handle data acquired by applying OCT angiography to the fundus of the eye. That is, the data acquisition unit of the ophthalmologic imaging apparatus according to the embodiment may be configured to be able to acquire data by applying OCT angiography to the fundus of the eye. On the other hand, the storage unit of the ophthalmological information processing apparatus according to the embodiment may be configured to store data obtained by applying OCT angiography to the fundus of the eye. Furthermore, the display processing unit of the ophthalmologic imaging device and/or the ophthalmologic information processing device may be configured to display a blood vessel enhanced image based on data acquired by OCT angiography.

このような構成によれば、ユーザーは、眼底の形態や血流動態に加え、眼底血管の分布を把握することが可能となる。 According to such a configuration, the user can grasp the distribution of fundus blood vessels in addition to the shape and blood flow dynamics of the fundus.

なお、表示処理部は、例えば、Bスキャン画像として形成された血管強調画像を形態画像として表示させることもできるし、Bスキャン画像として形成された血管強調画像とOCT血流計測に基づく形態画像とを並列的に表示させることもできるし、正面画像として形成された血管強調画像と形態画像とを並列的に表示させることもできる。 Note that the display processing unit can, for example, display a blood vessel emphasized image formed as a B-scan image as a morphological image, or display a blood vessel-enhanced image formed as a B-scan image and a morphological image based on OCT blood flow measurement. can be displayed in parallel, or a blood vessel enhanced image formed as a frontal image and a morphological image can be displayed in parallel.

実施形態に係る眼科撮影装置において、データ取得部(30)は、OCT血流計測において次の一連の処理を実行するように構成されていてよい:予め設定された計測位置において血管に交差する第1断面を繰り返しスキャンして第1データを収集する;この計測位置の近傍において当該血管に交差する1以上の第2断面をスキャンして第2データを収集する;第2データに基づいて計測位置における当該血管の傾斜角度を算出する;算出された傾斜角度と第1データとに基づいて、第1断面を通過する血管における血流の時系列変化を表す血流データを取得する。 In the ophthalmologic imaging apparatus according to the embodiment, the data acquisition unit (30) may be configured to execute the following series of processes in OCT blood flow measurement: Collect first data by repeatedly scanning one cross-section; collect second data by scanning one or more second cross-sections that intersect the blood vessel in the vicinity of this measurement position; determine the measurement position based on the second data; calculate the inclination angle of the blood vessel; based on the calculated inclination angle and the first data, obtain blood flow data representing time-series changes in blood flow in the blood vessel passing through the first cross section;

このような構成によれば、OCT血流計測を好適に実行して血流データを生成することができ、更に、この血流データに基づいて血流グラフや血流状態画像を表示することができる。 According to such a configuration, it is possible to suitably perform OCT blood flow measurement to generate blood flow data, and furthermore, it is possible to display a blood flow graph and a blood flow state image based on this blood flow data. can.

実施形態に係る眼科撮影装置において、データ取得部(30)は、第1断面の繰り返しスキャンにより収集された第1データに基づいて、第1断面に対応する1以上のBスキャン画像を取得することができる。 In the ophthalmologic imaging apparatus according to the embodiment, the data acquisition unit (30) acquires one or more B-scan images corresponding to the first cross section based on first data collected by repeatedly scanning the first cross section. Can be done.

このような構成によれば、OCT血流計測で得られたデータから、血流データだけでなくBスキャン画像も取得することができる。したがって、Bスキャン画像を形成するためのOCTスキャンを、OCT血流計測とは別に実行する必要がない。また、血流状態の時系列変化に応じた複数のBスキャン画像(時系列Bスキャン画像)を取得することが可能である。 According to such a configuration, not only blood flow data but also a B-scan image can be acquired from data obtained by OCT blood flow measurement. Therefore, it is not necessary to perform an OCT scan for forming a B-scan image separately from OCT blood flow measurement. Furthermore, it is possible to obtain a plurality of B-scan images (time-series B-scan images) according to time-series changes in blood flow conditions.

実施形態の作用及び効果はこれらに限定されず、実施形態として説明されたそれぞれの事項が提供する作用及び効果や、複数の事項の組み合わせが提供する作用及び効果も考慮されるべきである。また、所望の作用及び/又は効果を得るために、又は他の目的のために、前述したいずれかの実施形態、他の実施形態、公知技術等を任意に組み合わせることが可能である。 The functions and effects of the embodiments are not limited to these, and the functions and effects provided by each item described as an embodiment and the functions and effects provided by a combination of multiple items should also be considered. Further, in order to obtain desired functions and/or effects or for other purposes, any of the embodiments described above, other embodiments, known techniques, etc. can be combined as desired.

以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。 The configuration described above is only one example for suitably implementing the present invention. Therefore, any modification (omission, substitution, addition, etc.) can be made as appropriate within the scope of the gist of the present invention.

1 眼科撮影装置
2 表示デバイス
10 制御部
11 スキャン制御部
12 表示制御部
20 記憶部
21 OCTデータ
30 データ取得部
31 OCTスキャナ
32 画像形成部
33 血流データ生成部
50 操作部
120 形態画像
131、132、133、134 血流状態画像
140 血流グラフ
200 眼科情報処理装置
210 制御部
212 表示制御部
220 記憶部
221 OCTデータ
230 データ処理部
240 データ入力部
250 操作部

1 Ophthalmology imaging apparatus 2 Display device 10 Control section 11 Scan control section 12 Display control section 20 Storage section 21 OCT data 30 Data acquisition section 31 OCT scanner 32 Image forming section 33 Blood flow data generation section 50 Operation section 120 Morphological images 131, 132 , 133, 134 Blood flow state image 140 Blood flow graph 200 Ophthalmic information processing device 210 Control section 212 Display control section 220 Storage section 221 OCT data 230 Data processing section 240 Data input section 250 Operation section

Claims (3)

被検眼の眼底に光コヒーレンストモグラフィ(OCT)血流計測を適用して取得されたデータを記憶する記憶部と、
表示手段に情報を表示させる表示処理部と
を含み、
前記表示処理部は、
前記データに基づいて、血流の時系列変化を表す血流グラフを表示させ、
前記血流グラフの時間軸である第1時間軸に沿って移動可能な第1ウィジェットを表示させ、
前記OCT血流計測の計測期間を示す第2時間軸に沿って移動可能な第2ウィジェットを表示させ、
前記第1時間軸に対する前記第1ウィジェットの位置を前記第2時間軸に対する前記第2ウィジェットの位置に対応させる、
眼科情報処理装置。
a storage unit that stores data obtained by applying optical coherence tomography (OCT) blood flow measurement to the fundus of the eye to be examined;
a display processing unit that displays information on a display means;
The display processing section includes:
Displaying a blood flow graph representing time-series changes in blood flow based on the data,
displaying a first widget movable along a first time axis that is the time axis of the blood flow graph;
displaying a second widget movable along a second time axis indicating a measurement period of the OCT blood flow measurement;
making the position of the first widget with respect to the first time axis correspond to the position of the second widget with respect to the second time axis;
Ophthalmology information processing device.
前記第2ウィジェットが前記第2時間軸に沿って移動されたとき、前記表示処理部は、前記第1時間軸に対する前記第1ウィジェットの位置を前記第2ウィジェットの移動に対応して変更する、
請求項1の眼科情報処理装置。
When the second widget is moved along the second time axis, the display processing unit changes the position of the first widget with respect to the first time axis in accordance with the movement of the second widget.
The ophthalmological information processing device according to claim 1.
前記第1ウィジェットが前記第1時間軸に沿って移動されたとき、前記表示処理部は、前記第2時間軸に対する前記第2ウィジェットの位置を前記第1ウィジェットの移動に対応して変更する、
請求項1又は2の眼科情報処理装置。
When the first widget is moved along the first time axis, the display processing unit changes the position of the second widget with respect to the second time axis in accordance with the movement of the first widget.
The ophthalmological information processing device according to claim 1 or 2.
JP2022152204A 2017-08-02 2022-09-26 Ophthalmology information processing device Active JP7386949B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022152204A JP7386949B2 (en) 2017-08-02 2022-09-26 Ophthalmology information processing device
JP2023126860A JP7529861B2 (en) 2017-08-02 2023-08-03 Ophthalmological information processing device and system
JP2024076241A JP2024096395A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device
JP2024076239A JP2024096393A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device
JP2024076240A JP2024096394A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017149582A JP2019025187A (en) 2017-08-02 2017-08-02 Ophthalmologic information processing device and ophthalmologic imaging device
JP2021144851A JP7228648B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device
JP2022152204A JP7386949B2 (en) 2017-08-02 2022-09-26 Ophthalmology information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021144851A Division JP7228648B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023126860A Division JP7529861B2 (en) 2017-08-02 2023-08-03 Ophthalmological information processing device and system

Publications (2)

Publication Number Publication Date
JP2022171989A JP2022171989A (en) 2022-11-11
JP7386949B2 true JP7386949B2 (en) 2023-11-27

Family

ID=65477171

Family Applications (10)

Application Number Title Priority Date Filing Date
JP2017149582A Pending JP2019025187A (en) 2017-08-02 2017-08-02 Ophthalmologic information processing device and ophthalmologic imaging device
JP2021144852A Active JP7157221B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device
JP2021144850A Active JP7228647B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device
JP2021144851A Active JP7228648B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device
JP2022152204A Active JP7386949B2 (en) 2017-08-02 2022-09-26 Ophthalmology information processing device
JP2022152205A Active JP7386950B2 (en) 2017-08-02 2022-09-26 Ophthalmology information processing device
JP2023126860A Active JP7529861B2 (en) 2017-08-02 2023-08-03 Ophthalmological information processing device and system
JP2024076241A Pending JP2024096395A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device
JP2024076239A Pending JP2024096393A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device
JP2024076240A Pending JP2024096394A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2017149582A Pending JP2019025187A (en) 2017-08-02 2017-08-02 Ophthalmologic information processing device and ophthalmologic imaging device
JP2021144852A Active JP7157221B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device
JP2021144850A Active JP7228647B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device
JP2021144851A Active JP7228648B2 (en) 2017-08-02 2021-09-06 Ophthalmic information processing device and ophthalmic photographing device

Family Applications After (5)

Application Number Title Priority Date Filing Date
JP2022152205A Active JP7386950B2 (en) 2017-08-02 2022-09-26 Ophthalmology information processing device
JP2023126860A Active JP7529861B2 (en) 2017-08-02 2023-08-03 Ophthalmological information processing device and system
JP2024076241A Pending JP2024096395A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device
JP2024076239A Pending JP2024096393A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device
JP2024076240A Pending JP2024096394A (en) 2017-08-02 2024-05-09 Ophthalmologic information processing device

Country Status (1)

Country Link
JP (10) JP2019025187A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6915381B2 (en) * 2017-05-30 2021-08-04 株式会社三洋物産 Pachinko machine

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004141290A (en) 2002-10-23 2004-05-20 Canon Inc Ophthalmic measurement instrument
WO2013137148A1 (en) 2012-03-12 2013-09-19 株式会社トプコン Optical image measurement device, image display device, and image display method
JP2013198719A (en) 2012-02-20 2013-10-03 Canon Inc Image processing apparatus and image processing method
JP2015042213A (en) 2013-08-26 2015-03-05 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Analyzer, control program of analyzer and ultrasonic diagnostic device
JP2019024617A (en) 2017-07-26 2019-02-21 株式会社トプコン Ophthalmologic information processing device and ophthalmologic imaging device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0428348A (en) * 1990-05-24 1992-01-30 Hitoshi Fujii Blood flow state image formation device
JPH0479942A (en) * 1990-07-20 1992-03-13 Toshiba Corp Ultrasonic diagnosing device
JP5085086B2 (en) 2006-10-04 2012-11-28 株式会社トプコン Fundus observation apparatus, fundus image display apparatus, and program
US8971600B2 (en) * 2009-04-10 2015-03-03 Hitachi Medical Corporation Ultrasonic diagnosis apparatus and method for constructing distribution image of blood flow dynamic state
JP5867720B2 (en) 2012-03-29 2016-02-24 株式会社トプコン Image display device, image display method, and program
JP6535985B2 (en) 2014-06-30 2019-07-03 株式会社ニデック Optical coherence tomography apparatus, optical coherence tomography computing method and optical coherence tomography computing program
JP6025882B2 (en) 2015-02-05 2016-11-16 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6427059B2 (en) * 2015-04-14 2018-11-21 株式会社トプコン Ophthalmic image display apparatus and ophthalmic photographing apparatus
JP6580448B2 (en) 2015-10-16 2019-09-25 株式会社トプコン Ophthalmic photographing apparatus and ophthalmic information processing apparatus
JP6922151B2 (en) 2015-10-21 2021-08-18 株式会社ニデック Ophthalmology analyzer, ophthalmology analysis program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004141290A (en) 2002-10-23 2004-05-20 Canon Inc Ophthalmic measurement instrument
JP2013198719A (en) 2012-02-20 2013-10-03 Canon Inc Image processing apparatus and image processing method
US20140354794A1 (en) 2012-02-20 2014-12-04 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2013137148A1 (en) 2012-03-12 2013-09-19 株式会社トプコン Optical image measurement device, image display device, and image display method
US20150313466A1 (en) 2012-03-12 2015-11-05 Kabushiki Kaisha Topcon Optical image measuring apparatus, image displaying apparatus and image displaying method
JP2015042213A (en) 2013-08-26 2015-03-05 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Analyzer, control program of analyzer and ultrasonic diagnostic device
JP2019024617A (en) 2017-07-26 2019-02-21 株式会社トプコン Ophthalmologic information processing device and ophthalmologic imaging device

Also Published As

Publication number Publication date
JP2024096395A (en) 2024-07-12
JP2023133539A (en) 2023-09-22
JP2024096394A (en) 2024-07-12
JP2022171989A (en) 2022-11-11
JP2024096393A (en) 2024-07-12
JP7228647B2 (en) 2023-02-24
JP2021183293A (en) 2021-12-02
JP7529861B2 (en) 2024-08-06
JP2021183292A (en) 2021-12-02
JP2022171990A (en) 2022-11-11
JP2019025187A (en) 2019-02-21
JP7157221B2 (en) 2022-10-19
JP7228648B2 (en) 2023-02-24
JP2021183291A (en) 2021-12-02
JP7386950B2 (en) 2023-11-27

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
JP6779690B2 (en) Ophthalmic image processing equipment and ophthalmic imaging equipment
JP6427059B2 (en) Ophthalmic image display apparatus and ophthalmic photographing apparatus
JP2017127506A (en) Image forming method and apparatus
CN112638234A (en) Image processing apparatus, image processing method, and program
JP6864450B2 (en) Ophthalmologic imaging equipment
JP6815798B2 (en) Ophthalmic imaging equipment and ophthalmic image processing equipment
JP2024096393A (en) Ophthalmologic information processing device
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
JP6892234B2 (en) Ophthalmologic imaging equipment
JP6849776B2 (en) Information processing device and information processing method
JP7111874B2 (en) ophthalmic imaging equipment
JP7191166B2 (en) Ophthalmic photographing device and ophthalmic information processing device
JP7007125B2 (en) Ophthalmology information processing equipment and ophthalmology imaging equipment
JP2020058615A (en) Image processing device, learned model, image processing method, and program
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP2019042263A (en) Ophthalmologic system, ophthalmologic imaging apparatus, and ophthalmologic information processing apparatus
JP2019198383A (en) Image processing system, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7386949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150