JP2022127783A - Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program - Google Patents

Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program Download PDF

Info

Publication number
JP2022127783A
JP2022127783A JP2021025971A JP2021025971A JP2022127783A JP 2022127783 A JP2022127783 A JP 2022127783A JP 2021025971 A JP2021025971 A JP 2021025971A JP 2021025971 A JP2021025971 A JP 2021025971A JP 2022127783 A JP2022127783 A JP 2022127783A
Authority
JP
Japan
Prior art keywords
blood flow
analysis
unit
depth
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021025971A
Other languages
Japanese (ja)
Inventor
英一郎 西原
Eiichiro Nishihara
振一郎 中村
Shinichiro Nakamura
晃敏 吉田
Akitoshi Yoshida
勇錫 宋
Youngseok Song
康文 福間
Yasufumi Fukuma
正博 秋葉
Masahiro Akiba
夏奈 南出
Kana MINAMIDE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Asahikawa Medical University NUC
Original Assignee
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Asahikawa Medical University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp, RIKEN Institute of Physical and Chemical Research, Asahikawa Medical University NUC filed Critical Topcon Corp
Priority to JP2021025971A priority Critical patent/JP2022127783A/en
Publication of JP2022127783A publication Critical patent/JP2022127783A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide a novel technique for correctly evaluating the state of a blood vessel of a subject.SOLUTION: A blood flow analysis apparatus comprises an analysis unit and a classification unit. The analysis unit performs time frequency analysis of time series data of a blood flow speed in an eyeground of a subject. The classification unit classifies the subject into one of a plurality of groups including a healthy person group and a sick person group based on the feature amount of analysis data obtained by the analysis unit.SELECTED DRAWING: Figure 7

Description

本発明は、血流解析装置、眼科装置、血流解析方法、及びプログラムに関する。 The present invention relates to a blood flow analysis device, an ophthalmologic device, a blood flow analysis method, and a program.

動脈硬化は、生活習慣病の原因の1つであり、自覚症状がないまま進行すると心疾患や脳血管疾患を引き起こす可能性があることが知られている。このような動脈硬化などの循環器系の疾患の診断及び予防には、血管状態の評価が有用である。 Arteriosclerosis is one of the causes of lifestyle-related diseases, and is known to cause heart disease and cerebrovascular disease if it progresses without subjective symptoms. Evaluation of vascular conditions is useful for diagnosing and preventing diseases of the circulatory system such as arteriosclerosis.

血管状態を評価するための指標として心臓足首血管指数(Cardio Ankle Vascular Index:CAVI)や、足関節上腕血圧比(Ankle Brachial Index:ABI)などがある。CAVIを評価することで、動脈の硬さが正常範囲であるか、動脈硬化の疑いがあるか、正常範囲と動脈強化の疑いとの境界領域であるかを判定することができる。ABIを評価することで、下肢動脈の閉塞状態が正常範囲であるか、軽度閉塞状態であるか、重篤閉塞状態であるかを判定することができる。 There are Cardio Ankle Vascular Index (CAVI), Ankle Brachial Index (ABI), and the like as indices for evaluating vascular conditions. By assessing CAVI, it is possible to determine whether arterial stiffness is in the normal range, suspected arteriosclerosis, or borderline between the normal range and suspected arterial stiffening. By evaluating the ABI, it is possible to determine whether the occlusion state of the lower extremity arteries is within the normal range, mild occlusion, or severe occlusion.

一方、近年では、全身循環の動態と網膜の血流との関係性を評価する手法が着目されている。例えば、特許文献1及び特許文献2には、被検者の眼底に対して光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を実行して眼底における血流情報を生成する手法が開示されている。 On the other hand, in recent years, a method for evaluating the relationship between the dynamics of systemic circulation and retinal blood flow has attracted attention. For example, Patent Literature 1 and Patent Literature 2 disclose a method of performing optical coherence tomography (OCT) on the fundus of a subject to generate blood flow information in the fundus.

特開2013-184018号公報JP 2013-184018 A 特開2019-034237号公報JP 2019-034237 A

本発明者らの調査によれば、CAVIを用いて被検者の血管状態を判定した場合、疾病者グループの15.8%は正常範囲であると判定され、健常者グループの18.2%は境界領域であると判定されることが判明した。同様に、ABIを用いて被検者の血管状態を判定した場合、疾病者グループの57.1%は正常範囲であると判定されることが判明した。 According to a survey by the present inventors, when the vascular status of subjects was determined using CAVI, 15.8% of the diseased group was determined to be within the normal range, and 18.2% of the healthy group was determined to be within the normal range. was determined to be a border region. Similarly, when ABI was used to determine the vascular status of subjects, 57.1% of the sick group was found to be within the normal range.

すなわち、現状では、CAVI又はABIだけで血管状態を正しく評価することは困難であり、被検者の血管状態を正しく評価するための新たな技術が望まれる。 That is, at present, it is difficult to correctly evaluate the vascular condition only with CAVI or ABI, and a new technique for correctly evaluating the vascular condition of a subject is desired.

本発明は、このような事情を鑑みてなされたものであり、その目的は、被検者の血管状態を正しく評価するための新たな技術を提供することにある。 The present invention has been made in view of such circumstances, and its object is to provide a new technique for correctly evaluating the vascular condition of a subject.

実施形態の第1態様は、被検者の眼底における血流速度の時系列データに対して時間周波数解析を行う解析部と、前記解析部により得られた解析データの特徴量に基づいて、前記被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する分類部と、を含む、血流解析装置である。 A first aspect of the embodiment includes an analysis unit that performs time-frequency analysis on time-series data of blood flow velocity in the fundus of a subject; a classifying unit that classifies a subject into one of a plurality of groups including a healthy subject group and a diseased subject group.

実施形態の第2態様では、第1態様において、前記解析部は、1拍動期間における前記時系列データに対してウェーブレット変換を行い、前記分類部は、前記解析部により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とに基づいて、前記被検者を前記複数のグループのいずれかに分類する。 In a second aspect of the embodiment, in the first aspect, the analysis unit performs wavelet transform on the time-series data in one beat period, and the classification unit performs wavelet transform data obtained by the analysis unit. The subject is classified into one of the plurality of groups based on the scale value and shift value of the mother wavelet at the feature position of .

実施形態の第3態様では、第1態様において、前記解析部は、1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行い、前記分類部は、前記解析部により得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する。 In the third aspect of the embodiment, in the first aspect, the analysis unit decomposes the time-series data in one beat period into an approximate term and a minute term at a first depth, and divides the m-th (m is 2 or more A multi-resolution analysis is performed by repeating the decomposition of the approximation term at the (m+1)th depth into the approximation term at the (m+1)th depth and the minute term at the nth (n is a natural number) depth, and the classification unit performs The subject is classified into one of the plurality of groups based on the sum of squares of approximate terms at the n-th depth and the sum of squares of minute terms at the n-th depth.

実施形態の第4態様では、第1態様において、前記解析部は、1拍動期間における前記時系列データに対してウェーブレット変換を行う第1解析部と、1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行う第2解析部と、を含み、前記分類部は、前記第1解析部により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、前記第2解析部により得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する。 In a fourth aspect of the embodiment, in the first aspect, the analysis unit includes a first analysis unit that performs wavelet transform on the time series data in one beat period, and the time series data in one beat period. The n-th ( n is a natural number); and a second analysis unit that performs multi-resolution analysis that repeats up to the depth. and placing the subject in one of the plurality of groups based on the sum of squares of approximate terms at the n-th depth and the sum of squares of minute terms at the n-th depth obtained by the second analysis unit Classify.

実施形態の第5態様では、第2態様又は第4態様において、前記特徴位置は、前記ウェーブレット変換データが最大となる位置である。 In a fifth aspect of the embodiment, in the second aspect or the fourth aspect, the feature position is a position where the wavelet transform data is maximum.

実施形態の第6態様では、第1態様~第5態様のいずれかにおいて、前記血流速度は、前記眼底に対してドップラーOCTを実行することにより得られる血流によるドップラー信号に基づいて取得される。 In the sixth aspect of the embodiment, in any one of the first to fifth aspects, the blood flow velocity is obtained based on a Doppler signal due to blood flow obtained by performing Doppler OCT on the fundus. be.

実施形態の第7態様は、前記眼底における計測部位に対して異なるタイミングでOCTを実行する光学系と、前記光学系により得られた複数の信号に基づいて前記眼底における血流速度を求める血流情報生成部と、第6態様に記載の血流解析装置と、を含む、眼科装置である。 A seventh aspect of the embodiment is an optical system that performs OCT on a measurement site in the fundus at different timings, and a blood flow that determines a blood flow velocity in the fundus based on a plurality of signals obtained by the optical system. An ophthalmologic apparatus including an information generator and the blood flow analysis apparatus according to the sixth aspect.

実施形態の第8態様は、被検者の眼底における血流速度の時系列データに対して時間周波数解析を行う解析ステップと、前記解析ステップにおいて得られた解析データの特徴量に基づいて、前記被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する分類ステップと、を含む、血流解析方法である。 An eighth aspect of the embodiment includes an analysis step of performing a time-frequency analysis on the time-series data of the blood flow velocity in the fundus of the subject, and based on the feature amount of the analysis data obtained in the analysis step, the above and a classification step of classifying the subject into one of a plurality of groups including a healthy subject group and a diseased subject group.

実施形態の第9態様では、第8態様において、前記解析ステップは、1拍動期間における前記時系列データに対してウェーブレット変換を行い、前記分類ステップは、前記解析ステップにおいて得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とに基づいて、前記被検者を前記複数のグループのいずれかに分類する。 In a ninth aspect of the embodiment, in the eighth aspect, the analyzing step performs wavelet transform on the time-series data in one beat period, and the classifying step performs wavelet transform data obtained in the analyzing step. The subject is classified into one of the plurality of groups based on the scale value and shift value of the mother wavelet at the feature position of .

実施形態の第10態様では、第8態様において、前記解析ステップは、1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行い、前記分類ステップは、前記解析ステップにおいて得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する。 In the tenth aspect of the embodiment, in the eighth aspect, the analyzing step decomposes the time-series data in one beat period into an approximate term and a minute term at a first depth, and divides the m-th (m is 2 or more A multi-resolution analysis is performed by repeating the decomposition of the approximate term at the (m+1)-th depth into the approximate term and the minute term at the (m+1)-th depth up to the n-th (n is a natural number) depth, and the classification step includes: The subject is classified into one of the plurality of groups based on the sum of squares of approximate terms at the n-th depth and the sum of squares of minute terms at the n-th depth.

実施形態の第11態様では、第8態様において、前記解析ステップは、1拍動期間における前記時系列データに対してウェーブレット変換を行う第1解析ステップと、1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行う第2解析ステップと、を含み、前記分類ステップは、前記第1解析ステップにおいて得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、前記第2解析ステップにおいて得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する。 In the eleventh aspect of the embodiment, in the eighth aspect, the analysis step includes: a first analysis step of performing a wavelet transform on the time-series data in one beat period; The n-th ( n is a natural number), and a second analysis step of performing multi-resolution analysis iteratively to the depth, wherein the classification step includes scale values and shift values of the mother wavelet at the feature positions of the wavelet transform data obtained in the first analysis step. and placing the subject in one of the plurality of groups based on the sum of squares of approximate terms at the n-th depth and the sum of squares of minute terms at the n-th depth obtained in the second analysis step Classify.

実施形態の第12態様では、第9態様又は第11態様において、前記特徴位置は、前記ウェーブレット変換データが最大となる位置である。 In a twelfth aspect of the embodiment, in the ninth aspect or the eleventh aspect, the feature position is a position where the wavelet transform data is maximum.

実施形態の第13態様では、第8態様~第12態様のいずれかにおいて、前記血流速度は、前記眼底に対してドップラーOCTを実行することにより得られる血流によるドップラー信号に基づいて取得される。 In the thirteenth aspect of the embodiment, in any one of the eighth to twelfth aspects, the blood flow velocity is obtained based on a Doppler signal due to blood flow obtained by performing Doppler OCT on the fundus. be.

実施形態の第14態様は、コンピュータに、第8態様~第13態様のいずれかの血流解析方法の各ステップを実行させるプログラムである。 A fourteenth aspect of the embodiment is a program that causes a computer to execute each step of the blood flow analysis method according to any one of the eighth aspect to the thirteenth aspect.

なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 Note that it is possible to arbitrarily combine the configurations according to the plurality of aspects described above.

本発明によれば、被検者の血管状態を正しく評価するための新たな技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the new technique for correctly evaluating the vascular condition of a subject can be provided.

第1実施形態に係る眼科装置の光学系の構成の一例を表す概略図である。It is a schematic diagram showing an example of the configuration of the optical system of the ophthalmologic apparatus according to the first embodiment. 第1実施形態に係る眼科装置の光学系の構成の一例を表す概略図である。It is a schematic diagram showing an example of the configuration of the optical system of the ophthalmologic apparatus according to the first embodiment. 第1実施形態に係る眼科装置の処理系の構成の一例を表す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a first embodiment; FIG. 第1実施形態に係る眼科装置の処理系の構成の一例を表す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a first embodiment; FIG. 第1実施形態に係る眼科装置の処理系の構成の一例を表す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a first embodiment; FIG. 第1実施形態に係る眼科装置の処理系の構成の一例を表す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a first embodiment; FIG. 第1実施形態に係る眼科装置の処理系の構成の一例を表す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a first embodiment; FIG. 第1実施形態に係る眼科装置の処理系の構成の一例を表す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a first embodiment; FIG. 第1実施形態に係る眼科装置の動作を説明するための概略図である。4A and 4B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the first embodiment; FIG. 第1実施形態に係る眼科装置の動作を説明するための概略図である。4A and 4B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the first embodiment; FIG. 第1実施形態に係る眼科装置の動作を説明するための概略図である。4A and 4B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the first embodiment; FIG. 第1実施形態に係る眼科装置の動作を説明するための概略図である。4A and 4B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the first embodiment; FIG. 第1実施形態に係る眼科装置の動作の一例を表すフロー図である。FIG. 4 is a flow chart showing an example of the operation of the ophthalmologic apparatus according to the first embodiment; 第1実施形態に係る眼科装置の動作の一例を表すフロー図である。FIG. 4 is a flow chart showing an example of the operation of the ophthalmologic apparatus according to the first embodiment; 第1実施形態に係る眼科装置の動作の一例を表すフロー図である。FIG. 4 is a flow chart showing an example of the operation of the ophthalmologic apparatus according to the first embodiment; 第1実施形態に係る眼科装置の動作を説明するための概略図である。4A and 4B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the first embodiment; FIG. 第1実施形態に係る眼科装置の動作を説明するための概略図である。4A and 4B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the first embodiment; FIG. 第2実施形態に係る眼科装置の処理系の構成例の一例を表す概略図である。FIG. 11 is a schematic diagram showing an example of a configuration example of a processing system of an ophthalmologic apparatus according to a second embodiment; 第2実施形態に係る眼科装置の動作を説明するための概略図である。FIG. 11 is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the second embodiment; 第2実施形態に係る眼科装置の動作を説明するための概略図である。FIG. 11 is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the second embodiment; 第2実施形態に係る眼科装置の動作の一例を表すフロー図である。FIG. 11 is a flow chart showing an example of the operation of the ophthalmologic apparatus according to the second embodiment; 第2実施形態に係る眼科装置の動作を説明するための概略図である。FIG. 11 is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the second embodiment; 第3実施形態に係る眼科装置の処理系の構成例の一例を表す概略図である。FIG. 11 is a schematic diagram showing an example of a configuration example of a processing system of an ophthalmologic apparatus according to a third embodiment; 第4実施形態に係る眼科装置の処理系の構成例の一例を表す概略図である。FIG. 11 is a schematic diagram showing an example of the configuration of a processing system of an ophthalmologic apparatus according to a fourth embodiment;

この発明に係る血流解析装置、眼科装置、血流解析方法、及びプログラムの実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。 Exemplary embodiments of a blood flow analysis device, an ophthalmologic device, a blood flow analysis method, and a program according to the present invention will be described in detail with reference to the drawings. It should be noted that the descriptions of the documents cited in this specification and any known techniques can be incorporated into the following embodiments.

実施形態に係る血流解析装置は、被検者の血流速度の時系列データに対して時間周波数解析を行い、時間周波数解析を行うことにより得られた解析データの特徴量に基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。いくつかの実施形態では、血流は、被検者の眼底における血流である。いくつかの実施形態では、時系列データは、波形情報である。時間周波数解析の例として、連続ウェーブレット変換(Continuous Wavelet Transform:CWT)、離散ウェーブレット変換(Discrete Wavelet Transform:DWT)、短時間フーリエ変換(Short-Time Fourier Transform:STFT)、多重解像度解析(Multiresolusion analysis:MRA)などがある。いくつかの実施形態では、2以上の時間周波数解析により得られた2以上の特徴量に基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。 The blood flow analysis apparatus according to the embodiment performs time-frequency analysis on time-series data of the blood flow velocity of the subject, and based on the feature amount of the analysis data obtained by performing the time-frequency analysis, Classify examiners into one of a plurality of groups including a healthy subject group and a diseased subject group. In some embodiments, the blood flow is blood flow in the subject's fundus. In some embodiments the time series data is waveform information. Examples of time-frequency analysis include Continuous Wavelet Transform (CWT), Discrete Wavelet Transform (DWT), Short-Time Fourier Transform (STFT), Multiresolution analysis: MRA), etc. In some embodiments, subjects are classified into one of a plurality of groups including a healthy subject group and a diseased subject group based on two or more feature amounts obtained by two or more time-frequency analyses.

健常者グループは、医師等によりあらかじめ健常者であると診断されたグループである。疾病者グループは、医師等によりあらかじめ疾病者であると診断されたグループである。いくつかの実施形態では、複数のグループは、健常者グループ、疾病者グループ、及び健常者と疾病者との中間領域のグループ(疾病者の疑いがあるグループ)を含む。 The healthy subject group is a group diagnosed as healthy subjects in advance by a doctor or the like. The sick group is a group diagnosed in advance by a doctor or the like as being sick. In some embodiments, the plurality of groups includes a healthy group, a diseased group, and an intermediate range group between healthy and diseased (suspected diseased group).

いくつかの実施形態では、血流速度の時系列データは、光コヒーレンストモグラフィ(OCT)を用いて取得される。いくつかの実施形態では、血流解析装置の機能は、被検眼に対してOCTを実行可能な眼科装置に搭載される。いくつかの実施形態では、血流解析装置は、OCTを実行することにより得られた血流速度の時系列データを外部から受信するように構成される。 In some embodiments, blood flow velocity time series data is obtained using optical coherence tomography (OCT). In some embodiments, the functionality of the blood flow analysis device is installed in an ophthalmic device capable of performing OCT on the subject's eye. In some embodiments, the blood flow analyzer is configured to externally receive blood flow velocity time series data obtained by performing OCT.

実施形態に係る血流解析方法は、実施形態に係る血流解析装置により実行される。実施形態に係るプログラムは、血流解析方法の各ステップをプロセッサ(コンピュータ)に実行させる。実施形態に係る記録媒体は、実施形態に係るプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体(記憶媒体)である。 A blood flow analysis method according to the embodiment is executed by the blood flow analysis device according to the embodiment. A program according to an embodiment causes a processor (computer) to execute each step of a blood flow analysis method. A recording medium according to the embodiment is a computer-readable non-temporary recording medium (storage medium) in which the program according to the embodiment is recorded.

本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。 In this specification, the "processor" includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (e.g., SPLD (Simple Programmable Logic Device (CPLD) Programmable Logic Device), FPGA (Field Programmable Gate Array)) or the like. The processor implements the functions according to the embodiment by, for example, reading and executing a program stored in a storage circuit or storage device.

以下の実施形態では、フーリエドメインタイプのOCTを実行する眼科装置が実施形態に係る血流解析装置の機能を実現する場合について説明する。 In the following embodiments, a case will be described in which an ophthalmologic apparatus that performs Fourier domain type OCT implements the functions of the blood flow analysis apparatus according to the embodiments.

また、以下では、スウェプトソースOCTと眼底カメラとを組み合わせた眼科装置について説明するが、実施形態に係る構成はこれに限定されない。例えば、OCTの種別はスウェプトソースOCTには限定されず、スペクトラルドメインOCT等であってもよい。スウェプトソースOCTは、波長可変光源(波長掃引光源)からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。換言すると、スウェプトソースOCTは時分割でスペクトル分布を取得する手法であり、スペクトラルドメインOCTは空間分割でスペクトル分布を取得する手法である。なお、実施形態に適用可能なOCTの手法はこれらに限定されず、他の任意の手法(例えば、タイムドメインOCT)を適用することが可能である。 Further, although an ophthalmologic apparatus combining a swept-source OCT and a retinal camera will be described below, the configuration according to the embodiment is not limited to this. For example, the type of OCT is not limited to swept source OCT, and may be spectral domain OCT or the like. Swept source OCT divides light from a wavelength tunable light source (wavelength swept light source) into measurement light and reference light, and generates interference light by superimposing return light of the measurement light from the object on the reference light, This interference light is detected by a balanced photodiode or the like, and Fourier transform or the like is performed on the detection data collected according to the wavelength sweep and measurement light scanning to form an image. Spectral domain OCT divides light from a low coherence light source into measurement light and reference light, generates interference light by superimposing the return light of the measurement light from the object on the reference light, and generates the interference light spectrum In this method, the distribution is detected by a spectrometer, and the detected spectral distribution is subjected to Fourier transform or the like to form an image. In other words, swept-source OCT is a method of obtaining spectral distributions in time division, and spectral-domain OCT is a method of obtaining spectral distributions in space division. Note that the OCT technique applicable to the embodiment is not limited to these, and any other technique (for example, time domain OCT) can be applied.

実施形態に係る眼科装置は、眼底カメラのような被検眼の写真(デジタル写真)を取得する機能を備えていてもよいし、備えていなくてもよい。また、眼底カメラの代わりに、走査型レーザ検眼鏡(SLO)や、スリットランプ顕微鏡や、前眼部撮影カメラや、手術用顕微鏡など、任意のモダリティが設けられてもよい。なお、眼底写真等の正面画像は、眼底の観察やスキャンエリアの設定やトラッキングなどに利用可能である。 The ophthalmologic apparatus according to the embodiment may or may not have a function of acquiring a photograph (digital photograph) of the subject's eye, such as a fundus camera. Also, any modality such as a scanning laser ophthalmoscope (SLO), a slit lamp microscope, an anterior segment imaging camera, or a surgical microscope may be provided instead of the fundus camera. A front image such as a photograph of the fundus can be used for observation of the fundus, setting of a scan area, tracking, and the like.

<第1実施形態>
[構成]
図1に示すように、血流解析装置としての機能を有する眼科装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、従来の眼底カメラとほぼ同様の光学系が設けられている。OCTユニット100には、OCTを実行するための光学系や機構が設けられている。演算制御ユニット200は、プロセッサを含む。被検者の顔を支持するための顎受けや額当てが、眼底カメラユニット2に対向する位置に設けられている。
<First Embodiment>
[Constitution]
As shown in FIG. 1 , an ophthalmologic apparatus 1 functioning as a blood flow analysis apparatus includes a fundus camera unit 2 , an OCT unit 100 and an arithmetic control unit 200 . The retinal camera unit 2 is provided with an optical system substantially similar to that of a conventional retinal camera. The OCT unit 100 is provided with an optical system and a mechanism for performing OCT. Arithmetic control unit 200 includes a processor. A chin rest and a forehead rest for supporting the subject's face are provided at a position facing the retinal camera unit 2 .

[光学系]
(眼底カメラユニット2)
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系や機構が設けられている。眼底Efを撮影して得られる画像(眼底像、眼底写真等と呼ばれる)には、観察画像や撮影画像がある。観察画像は、例えば、近赤外光を用いた動画撮影により得られる。撮影画像は、例えば、可視フラッシュ光を用いて得られるカラー画像若しくはモノクロ画像、又は近赤外フラッシュ光を用いて得られるモノクロ画像である。眼底カメラユニット2は、フルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能であってよい。
[Optical system]
(Fundus camera unit 2)
The fundus camera unit 2 is provided with an optical system and a mechanism for photographing the fundus Ef of the eye E to be examined. An image obtained by photographing the fundus oculi Ef (called a fundus image, a fundus photograph, etc.) includes an observed image and a photographed image. Observation images are obtained, for example, by video shooting using near-infrared light. The captured image is, for example, a color image or a monochrome image obtained using visible flash light, or a monochrome image obtained using near-infrared flash light. The fundus camera unit 2 may be capable of acquiring a fluorescein fluorescence image, an indocyanine green fluorescence image, an autofluorescence image, or the like.

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and an imaging optical system 30 . The illumination optical system 10 irradiates the eye E to be inspected with illumination light. The imaging optical system 30 detects return light of the illumination light from the eye E to be examined. The measurement light from the OCT unit 100 is guided to the subject's eye E through the optical path in the retinal camera unit 2, and its return light is guided to the OCT unit 100 through the same optical path.

照明光学系10の観察光源11は、例えばハロゲンランプ又は発光ダイオード(LED)である。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(特に眼底Ef)を照明する。 The observation light source 11 of the illumination optical system 10 is, for example, a halogen lamp or a light emitting diode (LED). Light (observation illumination light) output from an observation light source 11 is reflected by a reflecting mirror 12 having a curved reflecting surface, passes through a condenser lens 13, passes through a visible light cut filter 14, and becomes near-infrared light. Become. Furthermore, the observation illumination light is once converged near the photographing light source 15 , reflected by the mirror 16 , and passed through the relay lenses 17 and 18 , the diaphragm 19 and the relay lens 20 . Observation illumination light is reflected by the periphery of the perforated mirror 21 (area around the perforation), passes through the dichroic mirror 46, is refracted by the objective lens 22, and passes through the eye E (especially the fundus oculi Ef). Illuminate.

被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過する。孔部を通過した戻り光は、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、例えば所定のフレームレートで戻り光を検出する。なお、撮影光学系30のピントが眼底Efに合っている場合には眼底Efの観察画像が得られ、ピントが前眼部に合っている場合には前眼部の観察画像が得られる。 The return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22 , passes through the dichroic mirror 46 , and passes through the aperture formed in the central region of the apertured mirror 21 . The return light that has passed through the hole passes through the dichroic mirror 55 , passes through the imaging focusing lens 31 , and is reflected by the mirror 32 . Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the CCD image sensor 35 by the condenser lens . The CCD image sensor 35 detects return light at a predetermined frame rate, for example. When the imaging optical system 30 is focused on the fundus oculi Ef, an observed image of the fundus oculi Ef is obtained, and when the anterior ocular segment is focused on, an observed image of the anterior ocular segment is obtained.

撮影光源15は、例えば、キセノンランプ又はLEDを含む可視光源である。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。 The imaging light source 15 is a visible light source including, for example, a xenon lamp or an LED. The light (imaging illumination light) output from the imaging light source 15 irradiates the fundus oculi Ef through the same path as the observation illumination light. The return light of the imaging illumination light from the subject's eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33 , is reflected by the mirror 36 , is reflected by the condenser lens 37 . An image is formed on the light receiving surface of the CCD image sensor 38 .

液晶ディスプレイ(LCD)39は、被検眼Eを固視させるための固視標を表示する。LCD39から出力された光束(固視光束)は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した固視光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。LCD39の画面における固視標の表示位置を変更することにより被検眼Eの固視位置を変更できる。なお、LCD39の代わりに、複数のLEDが2次元的に配列されたマトリクスLEDや、光源と可変絞り(液晶絞り等)との組み合わせなどを、固視光束生成手段として用いることができる。 A liquid crystal display (LCD) 39 displays a fixation target for fixing the eye E to be examined. A part of the luminous flux (fixation luminous flux) output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the photographing focusing lens 31 and the dichroic mirror 55, and reaches the hole of the aperture mirror 21. pass through the department. The fixation light flux that has passed through the aperture of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus oculi Ef. By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the subject's eye E can be changed. Instead of the LCD 39, a matrix LED in which a plurality of LEDs are two-dimensionally arranged, a combination of a light source and a variable diaphragm (liquid crystal diaphragm, etc.), or the like can be used as fixation light beam generating means.

眼底カメラユニット2にはアライメント光学系50とフォーカス光学系60とが設けられている。アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント視標を生成する。フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット視標を生成する。 The retinal camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 . The alignment optical system 50 generates an alignment target used for alignment of the optical system with respect to the eye E to be examined. The focus optical system 60 generates a split target used for focus adjustment of the eye E to be examined.

アライメント光学系50のLED51から出力されたアライメント光は、絞り52及び53並びにリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投射される。 Alignment light output from the LED 51 of the alignment optical system 50 passes through the diaphragms 52 and 53 and the relay lens 54 , is reflected by the dichroic mirror 55 , and passes through the aperture of the apertured mirror 21 . The light passing through the hole of the perforated mirror 21 is transmitted through the dichroic mirror 46 and projected onto the subject's eye E by the objective lens 22 .

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、撮影合焦レンズ31を通過する。撮影合焦レンズ31を通過した角膜反射光は、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(2つの輝点からなるアライメント視標像)に基づき、従来と同様のマニュアルアライメントやオートアライメントを行うことができる。 The cornea-reflected light of the alignment light passes through the objective lens 22 , the dichroic mirror 46 and the hole, and a part of it passes through the dichroic mirror 55 and passes through the imaging focusing lens 31 . The corneal reflected light that has passed through the photographing focusing lens 31 is reflected by the mirror 32, transmitted through the half mirror 33A, reflected by the dichroic mirror 33, and projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens 34. Based on the received image (alignment target image consisting of two bright spots) by the CCD image sensor 35, manual alignment and auto alignment can be performed in the same manner as in the prior art.

フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。 The focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (illumination optical path) of the imaging optical system 30 . The reflecting bar 67 can be inserted into and removed from the illumination optical path.

フォーカス調整を行う際には、反射棒67の反射面が照明光路に斜設される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット視標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。 When performing focus adjustment, the reflecting surface of the reflecting bar 67 is obliquely provided in the illumination optical path. The focused light output from the LED 61 passes through a relay lens 62, is split into two light beams by a split optotype plate 63, passes through a two-hole diaphragm 64, is reflected by a mirror 65, and is reflected by a condenser lens 66 onto a reflecting rod. The light is once imaged on the reflecting surface 67 and reflected. Further, the focused light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

フォーカス光の眼底反射光は、アライメント光の角膜反射光と同じ経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(2つの輝線像からなるスプリット視標像)に基づき、従来と同様のマニュアルアライメントやオートアライメントを行うことができる。 The fundus reflected light of the focus light passes through the same path as the corneal reflected light of the alignment light and is detected by the CCD image sensor 35 . Manual alignment and auto-alignment can be performed in the same manner as in the prior art based on the received light image (split target image consisting of two bright line images) by the CCD image sensor 35 .

ダイクロイックミラー46は、眼底撮影用の光路とOCT用の光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用の光路には、OCTユニット100側から順に、コリメータレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 synthesizes the fundus imaging optical path and the OCT optical path. The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus imaging. The optical path for OCT is provided with a collimator lens unit 40, an optical path length changing section 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, and a relay lens 45 in this order from the OCT unit 100 side.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、例えばコーナーキューブと、これを移動する機構とを含む。 The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT. This change in the optical path length is used for correction of the optical path length according to the axial length of the eye E to be examined, adjustment of the interference state, and the like. The optical path length changer 41 includes, for example, a corner cube and a mechanism for moving it.

光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ42は、OCT用の光路を通過する測定光LSの進行方向を変更する。それにより、被検眼Eが測定光LSでスキャンされる。光スキャナ42は、xy平面の任意方向に測定光LSを偏向可能であり、例えば、測定光LSをx方向に偏向するガルバノミラーと、y方向に偏向するガルバノミラーとを含む。 The optical scanner 42 is arranged at a position optically conjugate with the pupil of the eye E to be examined. The optical scanner 42 changes the traveling direction of the measurement light LS passing through the optical path for OCT. Thereby, the subject's eye E is scanned with the measurement light LS. The optical scanner 42 can deflect the measurement light LS in any direction on the xy plane, and includes, for example, a galvanometer mirror that deflects the measurement light LS in the x direction and a galvanometer mirror that deflects the measurement light LS in the y direction.

(OCTユニット100)
図2に例示するように、OCTユニット100には、被検眼EのOCTを実行するための光学系が設けられている。この光学系の構成は、従来のスウェプトソースOCTと同様である。すなわち、この光学系は、光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する干渉光学系を含む。干渉光学系により得られる検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
(OCT unit 100)
As illustrated in FIG. 2, the OCT unit 100 is provided with an optical system for performing OCT of the eye E to be examined. The configuration of this optical system is similar to that of conventional swept-source OCT. That is, this optical system divides the light from the light source into measurement light and reference light, and superimposes the return light of the measurement light from the subject's eye E and the reference light that has passed through the reference light path to generate interference light. , includes an interference optical system for detecting this interference light. A detection result (detection signal) obtained by the interference optical system is a signal indicating the spectrum of the interference light, and is sent to the arithmetic control unit 200 .

光源ユニット101は、一般的なスウェプトソースOCTと同様に、出射光の波長を高速で変化させることが可能な波長可変光源を含む。波長可変光源は、例えば、近赤外レーザ光源である。 The light source unit 101 includes a wavelength tunable light source capable of changing the wavelength of emitted light at high speed, like a general swept source OCT. The variable wavelength light source is, for example, a near-infrared laser light source.

光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏波状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。 The light L0 output from the light source unit 101 is guided to the polarization controller 103 through the optical fiber 102, and its polarization state is adjusted. Further, the light L0 is guided by the optical fiber 104 to the fiber coupler 105 and split into the measurement light LS and the reference light LR.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。 The reference light LR is guided to the collimator 111 by the optical fiber 110 and converted into a parallel beam, and guided to the corner cube 114 via the optical path length correction member 112 and the dispersion compensation member 113 . The optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS.

コーナーキューブ114は、入射した参照光LRの進行方向を逆方向に折り返す。コーナーキューブ114に対する参照光LRの入射方向と出射方向は互いに平行である。コーナーキューブ114は、参照光LRの入射方向に移動可能であり、それにより参照光LRの光路長が変更される。 The corner cube 114 reverses the traveling direction of the incident reference light LR. The direction of incidence and the direction of emission of the reference light LR with respect to the corner cube 114 are parallel to each other. The corner cube 114 is movable in the incident direction of the reference light LR, thereby changing the optical path length of the reference light LR.

図1及び図2に示す構成では、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられている。いくつかの実施形態では、光路長変更部41とコーナーキューブ114のいずれか一方のみが設けられる。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。 In the configuration shown in FIGS. 1 and 2, an optical path length changing section 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS, and an optical path (reference optical path, reference arm) of the reference light LR. Both corner cubes 114 are provided to change the length. In some embodiments, only one of optical path length changer 41 and corner cube 114 is provided. It is also possible to change the difference between the measurement optical path length and the reference optical path length by using optical members other than these.

コーナーキューブ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏波状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。 The reference light LR that has passed through the corner cube 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112 , is converted by the collimator 116 from a parallel beam to a converged beam, and enters the optical fiber 117 . The reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 to adjust the polarization state, guided to the attenuator 120 by the optical fiber 119 to adjust the light amount, and is sent to the fiber coupler 122 by the optical fiber 121. be guided.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換される。平行光束に変換された測定光LSは、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light flux by the collimator lens unit 40 . The measurement light LS converted into a parallel light flux passes through the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, the mirror 44 and the relay lens 45, is reflected by the dichroic mirror 46, and is refracted by the objective lens 22. incident on the eye E to be examined. The measurement light LS is scattered and reflected at various depth positions of the eye E to be examined. The return light of the measurement light LS from the subject's eye E travels in the opposite direction along the same path as the forward path, is guided to the fiber coupler 105 , and reaches the fiber coupler 122 via the optical fiber 128 .

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 superimposes the measurement light LS input via the optical fiber 128 and the reference light LR input via the optical fiber 121 to generate interference light. The fiber coupler 122 generates a pair of interference lights LC by splitting the interference lights at a predetermined splitting ratio (for example, 1:1). A pair of interference lights LC are guided to detector 125 through optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオード(Balanced Photo Diode)である。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力する。検出器125は、その検出結果(検出信号)をDAQ(Data Acquisition System)130に送る。 Detector 125 is, for example, a Balanced Photo Diode. A balanced photodiode has a pair of photodetectors that respectively detect a pair of interference lights LC, and outputs the difference between the detection results of these. The detector 125 sends the detection result (detection signal) to a DAQ (Data Acquisition System) 130 .

DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、検出器125から入力される検出信号をクロックKCに基づきサンプリングする。DAQ130は、検出器125からの検出信号のサンプリング結果を演算制御ユニット200に送る。 A clock KC is supplied from the light source unit 101 to the DAQ 130 . The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the wavelength tunable light source. The light source unit 101, for example, optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then outputs the clock KC based on the result of detecting these combined lights. Generate. The DAQ 130 samples the detection signal input from the detector 125 based on the clock KC. DAQ 130 sends the sampling result of the detection signal from detector 125 to arithmetic control unit 200 .

(演算制御ユニット200)
演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。また、演算制御ユニット200は、各種の演算処理を実行する。例えば、演算制御ユニット200は、一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等の信号処理を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。そのための演算処理は、従来のスウェプトソースOCTと同様である。
(Arithmetic control unit 200)
The arithmetic control unit 200 controls each part of the retinal camera unit 2 , the display device 3 and the OCT unit 100 . Further, the arithmetic control unit 200 executes various kinds of arithmetic processing. For example, the arithmetic and control unit 200 performs signal processing such as Fourier transform on the spectral distribution based on the detection results obtained by the detector 125 for each series of wavelength scans (for each A line), thereby obtaining forming a reflection intensity profile; Furthermore, the arithmetic and control unit 200 forms image data by imaging the reflection intensity profile of each A line. Arithmetic processing therefor is the same as in conventional swept source OCT.

演算制御ユニット200は、例えば、プロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含む。ハードディスクドライブ等の記憶装置には各種のコンピュータプログラムが格納されている。演算制御ユニット200は、操作デバイス、入力デバイス、表示デバイスなどを含んでいてもよい。 The arithmetic control unit 200 includes, for example, a processor, RAM (Random Access Memory), ROM (Read Only Memory), hard disk drive, communication interface, and the like. Various computer programs are stored in a storage device such as a hard disk drive. The arithmetic and control unit 200 may include an operation device, an input device, a display device, and the like.

[処理系]
眼科装置1の処理系(制御系)は、演算制御ユニット200を中心に構成される。
[Processing system]
A processing system (control system) of the ophthalmologic apparatus 1 is configured around an arithmetic control unit 200 .

眼科装置1の処理系の構成例を図3~図8に示す。図3は、眼科装置1の処理系の機能ブロック図の一例を表す。図4は、図3の画像形成部220の機能ブロック図の一例を表す。図5は、図3のデータ処理部300の機能ブロック図の一例を表す。図6は、図5の血流情報生成部320の機能ブロック図の一例を表す。図7は、図5の血流情報解析部330の機能ブロック図の一例を表す。図8は、図7の解析部350の機能ブロック図の一例を表す。 3 to 8 show configuration examples of the processing system of the ophthalmologic apparatus 1. FIG. FIG. 3 shows an example of a functional block diagram of the processing system of the ophthalmologic apparatus 1. As shown in FIG. FIG. 4 shows an example of a functional block diagram of the image forming section 220 of FIG. FIG. 5 represents an example of a functional block diagram of the data processing unit 300 of FIG. FIG. 6 shows an example of a functional block diagram of the blood flow information generator 320 of FIG. FIG. 7 shows an example of a functional block diagram of the blood flow information analysis section 330 of FIG. FIG. 8 represents an example of a functional block diagram of the analysis unit 350 of FIG.

演算制御ユニット200は、図3に示すように、制御部210と、画像形成部220と、データ処理部300とを含む。 The arithmetic control unit 200 includes a control section 210, an image forming section 220, and a data processing section 300, as shown in FIG.

(制御部210)
制御部210は、眼科装置1の各部を制御する。制御部210は、プロセッサ、RAM、ROM、ハードディスクドライブなどを含む。制御部210の機能は、回路を含むハードウェアと、制御ソフトウェアとの協働により実現される。制御部210は、主制御部211と記憶部212とを含む。
(control unit 210)
The control section 210 controls each section of the ophthalmologic apparatus 1 . Control unit 210 includes a processor, RAM, ROM, hard disk drive, and the like. The functions of the control unit 210 are realized by cooperation between hardware including circuits and control software. Control unit 210 includes main control unit 211 and storage unit 212 .

(主制御部211)
主制御部211は各種の制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A及び43A、CCDイメージセンサ35及び38、LCD39、光路長変更部41、及び光スキャナ42などを制御する。また、主制御部211は、OCTユニット100の光源ユニット101、参照駆動部114A、検出器125、及びDAQ130などを制御する。更に、主制御部211は、図1及び図2に示す光学系を駆動する光学系駆動部(図示せず)を制御する。
(Main control unit 211)
A main control unit 211 performs various controls. In particular, the main control unit 211 controls the focus driving units 31A and 43A of the retinal camera unit 2, the CCD image sensors 35 and 38, the LCD 39, the optical path length changing unit 41, the optical scanner 42, and the like. The main controller 211 also controls the light source unit 101 of the OCT unit 100, the reference driver 114A, the detector 125, the DAQ 130, and the like. Further, the main controller 211 controls an optical system driver (not shown) that drives the optical system shown in FIGS.

合焦駆動部31Aは、主制御部211からの制御を受け、撮影光学系30の光軸に沿って撮影合焦レンズ31を移動させる。合焦駆動部31Aには、撮影合焦レンズ31を保持する保持部材と、この保持部材を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。それにより、主制御部211からの制御を受けた合焦駆動部31Aが撮影合焦レンズ31を移動することにより、撮影光学系30の合焦位置が変更される。なお、手動又はユーザーの操作部242に対する操作により合焦駆動部31Aが撮影光学系30の光軸に沿って撮影合焦レンズ31を移動するようにしてもよい。 The focus driving section 31A receives control from the main control section 211 and moves the photographing focusing lens 31 along the optical axis of the photographing optical system 30 . The focus driving section 31A is provided with a holding member that holds the photographing focusing lens 31, an actuator that generates driving force for moving the holding member, and a transmission mechanism that transmits this driving force. The actuator is composed of, for example, a pulse motor. The transmission mechanism is configured by, for example, a combination of gears, a rack and pinion, or the like. As a result, the focus driving section 31A controlled by the main control section 211 moves the photographing focusing lens 31, thereby changing the focus position of the photographing optical system 30. FIG. Note that the focus driving section 31A may move the photographing focusing lens 31 along the optical axis of the photographing optical system 30 manually or by the operation of the operation section 242 by the user.

合焦駆動部43Aは、主制御部211からの制御を受け、OCTユニット100における干渉光学系の光軸(測定光の光路)に沿ってOCT合焦レンズ43を移動させる。合焦駆動部43Aには、OCT合焦レンズ43を保持する保持部材と、この保持部材を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。それにより、主制御部211からの制御を受けた合焦駆動部43AがOCT合焦レンズ43を移動することにより、測定光の合焦位置が変更される。なお、手動又はユーザーの操作部242に対する操作により合焦駆動部43Aが干渉光学系の光軸に沿ってOCT合焦レンズ43を移動するようにしてもよい。 The focus driver 43A receives control from the main controller 211 and moves the OCT focus lens 43 along the optical axis of the interference optical system (the optical path of the measurement light) in the OCT unit 100 . The focus driving section 43A is provided with a holding member that holds the OCT focusing lens 43, an actuator that generates driving force for moving the holding member, and a transmission mechanism that transmits this driving force. The actuator is composed of, for example, a pulse motor. The transmission mechanism is configured by, for example, a combination of gears, a rack and pinion, or the like. As a result, the focus drive unit 43A controlled by the main control unit 211 moves the OCT focus lens 43, thereby changing the focus position of the measurement light. Note that the focus drive unit 43A may move the OCT focus lens 43 along the optical axis of the interference optical system either manually or by the user's operation on the operation unit 242 .

主制御部211は、CCDイメージセンサ35の露光時間(電荷蓄積時間)、感度、フレームレート等を制御することが可能である。主制御部211は、CCDイメージセンサ38の露光時間、感度、フレームレート等を制御することが可能である。 The main controller 211 can control the exposure time (charge accumulation time), sensitivity, frame rate, etc. of the CCD image sensor 35 . The main controller 211 can control the exposure time, sensitivity, frame rate, etc. of the CCD image sensor 38 .

主制御部211は、LCD39に対して固視標や視力測定用視標の表示制御を行うことが可能である。それにより、被検眼Eに呈示される視標の切り替えや視標の種別の変更が可能になる。また、LCD39における視標の表示位置を変更することにより、被検眼Eに対する視標呈示位置を変更することが可能である。 The main control unit 211 can control the display of the fixation target and visual acuity measurement target on the LCD 39 . As a result, it becomes possible to switch the visual target presented to the eye E to be examined and change the type of the visual target. Further, by changing the display position of the optotype on the LCD 39, it is possible to change the optotype presenting position for the eye E to be examined.

主制御部211は、光路長変更部41を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定の範囲に描出されるように光路長変更部41を制御する。具体的には、主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定のz位置(深さ方向の位置)に描出されるように光路長変更部41を制御することが可能である。 The main control unit 211 can relatively change the difference between the optical path length of the reference light LR and the optical path length of the measurement light LS by controlling the optical path length changing unit 41 . The main control unit 211 controls the optical path length changing unit 41 so that the target portion of the eye E to be examined is rendered in a predetermined range within the frame of the OCT image. Specifically, the main control unit 211 controls the optical path length changing unit 41 so that the target portion of the eye E to be examined is drawn at a predetermined z position (position in the depth direction) within the frame of the OCT image. is possible.

主制御部211は、光スキャナ42を制御することにより被検眼Eの眼底Ef又は前眼部における測定光LSの走査位置を変更することが可能である。光スキャナ42の制御には、測定光LSをx方向に偏向するガルバノミラーによる走査位置、走査範囲又は走査速度の制御、測定光LSをy方向に偏向するガルバノミラーによる走査位置、走査範囲又は走査速度の制御などがある。また、主制御部211は、光スキャナ42による測定光LSの走査態様を制御することができる。測定光LSの走査態様としては、例えば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋スキャンなどがある The main controller 211 can change the scanning position of the measurement light LS on the fundus Ef of the eye E to be examined or the anterior segment of the eye by controlling the optical scanner 42 . The control of the optical scanner 42 includes control of the scanning position, scanning range, or scanning speed by a galvanomirror that deflects the measurement light LS in the x direction; speed control, etc. Further, the main controller 211 can control the scanning mode of the measurement light LS by the optical scanner 42 . Scanning modes of the measurement light LS include, for example, horizontal scanning, vertical scanning, cross scanning, radial scanning, circular scanning, concentric scanning, and spiral scanning.

主制御部211は、光源ユニット101を制御することにより、光L0の点灯と消灯の切り替えや、光L0の光量の変更などを制御することが可能である。 By controlling the light source unit 101, the main control unit 211 can control switching between lighting and extinguishing of the light L0, change of the light amount of the light L0, and the like.

主制御部211は、参照駆動部114Aを制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。参照駆動部114Aは、参照光路に設けられたコーナーキューブ114を移動させる。それにより、参照光路の長さが変更される。主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定の範囲に描出されるように参照駆動部114Aを制御する。具体的には、主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定のz位置に描出されるように参照駆動部114Aを制御することが可能である。主制御部211は、光路長変更部41及び参照駆動部114Aの少なくとも一方を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。以下では、主制御部211は、光路長変更部41だけを制御することにより測定光LSと参照光LRとの光路長差調整を行うものとして説明するが、参照駆動部114Aだけを制御することにより参照光LRと測定光LSとの光路長差調整を行ってもよい。 The main controller 211 can relatively change the difference between the optical path length of the reference light LR and the optical path length of the measurement light LS by controlling the reference driver 114A. 114 A of reference drive parts move the corner cube 114 provided in the reference optical path. Thereby, the length of the reference optical path is changed. The main control unit 211 controls the reference driving unit 114A so that the target portion of the eye E to be examined is rendered in a predetermined range within the frame of the OCT image. Specifically, the main control unit 211 can control the reference driving unit 114A so that the target region of the subject's eye E is drawn at a predetermined z position within the frame of the OCT image. The main control unit 211 can relatively change the difference between the optical path length of the reference light LR and the optical path length of the measurement light LS by controlling at least one of the optical path length changing unit 41 and the reference driving unit 114A. is. In the following description, the main control unit 211 adjusts the optical path length difference between the measurement light LS and the reference light LR by controlling only the optical path length changing unit 41. However, it is possible to control only the reference driving unit 114A. may be used to adjust the optical path length difference between the reference light LR and the measurement light LS.

主制御部211は、検出器125の露光時間(電荷蓄積時間)、感度、フレームレート等を制御することが可能である。また、主制御部211は、DAQ130を制御することが可能である。 The main controller 211 can control the exposure time (charge accumulation time), sensitivity, frame rate, etc. of the detector 125 . Also, the main control unit 211 can control the DAQ 130 .

図示しない光学系駆動部は、眼科装置1に設けられた光学系(図1及び図2に示す光学系)を3次元的に移動する。主制御部211は、被検眼Eと装置光学系との位置関係を維持するように光学系駆動部を制御することが可能である。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、被検眼Eを動画撮影して得られる画像に基づき被検眼Eの位置や向きに合わせて装置光学系をリアルタイムで移動させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。 An optical system driving unit (not shown) three-dimensionally moves the optical system (the optical system shown in FIGS. 1 and 2) provided in the ophthalmologic apparatus 1 . The main controller 211 can control the optical system driver so as to maintain the positional relationship between the eye E to be examined and the apparatus optical system. This control is used in alignment and tracking. Tracking is to move the apparatus optical system according to the movement of the eye E to be examined. Alignment and focusing are performed in advance when tracking is performed. Tracking is performed by moving the optical system of the device in real time according to the position and orientation of the eye to be examined E based on the image obtained by moving image shooting of the eye to be examined E, thereby maintaining a suitable positional relationship in which alignment and focus are achieved. It is a function.

(記憶部212)
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、被検眼情報、データ処理部300による処理結果などがある。被検眼情報は、被検者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
(storage unit 212)
The storage unit 212 stores various data. The data stored in the storage unit 212 includes, for example, image data of an OCT image, image data of a fundus image, eye information to be examined, and processing results of the data processing unit 300 . The eye information to be examined includes subject information such as subject ID and name, left/right eye identification information, electronic medical record information, and the like.

(画像形成部220)
画像形成部220は、DAQ130によりサンプリングされた検出器125からの検出信号に基づいて、眼底Ef又は前眼部の断層像の画像データを形成する。画像形成部220はプロセッサを含む。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
(Image forming section 220)
The image forming unit 220 forms image data of a tomographic image of the fundus oculi Ef or the anterior segment based on the detection signal from the detector 125 sampled by the DAQ 130 . Image forming section 220 includes a processor. In this specification, "image data" and "images" based thereon may be regarded as the same.

図4に示すように、画像形成部220は、断層像形成部221を含む。 As shown in FIG. 4 , the image forming section 220 includes a tomographic image forming section 221 .

(断層像形成部221)
断層像形成部221は、DAQ130による検出信号のサンプリング結果に基づいて、眼底Efの断層像の画像データを形成する。断層像形成部221は、予備計測において取得されたデータに基づいて断層像を形成することができる。断層像形成部221が実行する処理は、従来のスペクトラルドメインOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などを含む。他のタイプのOCTが適用される場合、断層像形成部221は、そのタイプに応じた公知の処理を実行する。
(Tomographic image forming unit 221)
The tomographic image forming unit 221 forms image data of a tomographic image of the fundus oculi Ef based on the sampling result of the detection signal by the DAQ 130 . The tomographic image forming unit 221 can form a tomographic image based on data acquired in preliminary measurement. The processing executed by the tomogram forming unit 221 includes noise removal (noise reduction), filtering, FFT (Fast Fourier Transform), and the like, as in conventional spectral domain OCT. When another type of OCT is applied, the tomogram forming unit 221 performs known processing according to that type.

このような断層像形成部221は、血流計測(第1走査及び/又は第2走査)により取得されたデータに基づいて断層像を形成することが可能である。 Such a tomographic image forming unit 221 can form a tomographic image based on data obtained by blood flow measurement (first scanning and/or second scanning).

例えば、特開2017-79886号公報に開示されているように、実施形態では、血流計測の対象部位を設定するための走査(予備計測)と、予備計測の結果から設定された部位に関する血流情報を取得するための走査(血流計測)とが実行される。 For example, as disclosed in Japanese Unexamined Patent Application Publication No. 2017-79886, in the embodiment, scanning (preliminary measurement) for setting a target site for blood flow measurement and blood flow measurement for the site set from the result of the preliminary measurement are performed. Scanning for acquiring flow information (blood flow measurement) is performed.

予備計測では、眼底Efの複数の断面を測定光LSで反復的に走査する。複数の断面の走査は、例えば、互いに平行な複数の走査線に沿ったラスタースキャンである。ラスタースキャンの走査線の本数は例えば128本であり、それにより眼底Efの3次元領域が走査される(3次元スキャン)。なお、走査パターンや走査線の本数は本例に限定されない。 In the preliminary measurement, multiple cross sections of the fundus oculi Ef are repeatedly scanned with the measurement light LS. The scanning of multiple cross sections is, for example, raster scanning along multiple scanning lines parallel to each other. The number of scanning lines for raster scanning is, for example, 128, thereby scanning the three-dimensional region of the fundus oculi Ef (three-dimensional scanning). Note that the scanning pattern and the number of scanning lines are not limited to this example.

血流計測では、予備計測の結果から設定された眼底Efの部位に基づき2種類の走査(第1走査及び第2走査)が実行される。予備計測の結果から設定された部位を注目部位と呼ぶ。注目部位は、注目血管と注目断面とを含む。注目血管は、予備計測の結果から設定された眼底Efの血管である。注目血管は、脈波が明瞭に観察される血管であってよく、例えば動脈である。注目断面は、注目血管に交差する断面である。更に、注目部位は、注目断面の近傍に位置する1以上の断面を含んでいてよい。この1以上の断面は、注目血管の傾きを求めるためのOCTスキャンの対象となる。 In the blood flow measurement, two types of scanning (first scanning and second scanning) are performed based on the site of the fundus oculi Ef set from the result of the preliminary measurement. A part set based on the result of the preliminary measurement is called a target part. The site of interest includes a blood vessel of interest and a section of interest. The blood vessel of interest is the blood vessel of the fundus oculi Ef set from the result of preliminary measurement. A blood vessel of interest may be a blood vessel in which a pulse wave is clearly observed, such as an artery. The cross section of interest is a cross section that intersects the blood vessel of interest. Furthermore, the region of interest may include one or more cross-sections located near the cross-section of interest. The one or more cross-sections are subjected to an OCT scan to determine the inclination of the vessel of interest.

第1走査では、注目血管に交差する2以上の断面が測定光LSで走査される。第1走査により取得されたデータは、注目断面における注目血管の傾き(向き)を求めるために用いられる。一方、第2走査は、注目血管に交差する注目断面が測定光LSで反復的に走査される。第1走査が行われる断面は、注目断面の近傍に配置される。第2走査は、OCTを用いたドップラー計測(ドップラーOCT)である。 In the first scan, two or more sections that intersect the blood vessel of interest are scanned with the measurement light LS. The data acquired by the first scan are used to obtain the inclination (orientation) of the target blood vessel in the target cross section. On the other hand, in the second scan, the section of interest that intersects the blood vessel of interest is repeatedly scanned with the measurement light LS. The cross section on which the first scan is performed is placed near the cross section of interest. The second scan is Doppler measurement using OCT (Doppler OCT).

第1走査及び第2走査の対象断面は、xy面において、注目血管の走行方向に対して直交するように向き付けられることが望ましい。図9の眼底像Dに示すように、実施形態では、例えば、視神経乳頭Daの近傍に、第1走査が行われる2つの断面C11及びC12と、第2走査が行われる注目断面C2とが注目血管Dbに交差するように設定される。2つの断面C11及びC12の一方は注目断面C2に対して注目血管Dbの上流側に位置し、他方は下流側に位置する。注目断面C2に対する各断面C11及びC12の距離(断面間距離)は、事前に決定される。 It is desirable that the target cross sections of the first scan and the second scan are oriented perpendicularly to the running direction of the blood vessel of interest in the xy plane. As shown in the fundus image D of FIG. 9, in the embodiment, for example, two cross-sections C11 and C12 on which the first scan is performed and a cross-section of interest C2 on which the second scan is performed are focused in the vicinity of the optic papilla Da. It is set to cross the blood vessel Db. One of the two cross sections C11 and C12 is positioned upstream of the target blood vessel Db with respect to the target cross section C2, and the other is positioned downstream. The distance (distance between cross sections) of each cross section C11 and C12 from the target cross section C2 is determined in advance.

第2走査は、被検者の心臓の少なくとも1心周期の間にわたって実行されることが望ましい。それにより、心臓の全ての時相における血流情報が得られる。第2走査の実行時間は、あらかじめ設定された一定の時間(例えば2秒間)であってもよいし、被検者ごとに又は検査毎に設定された時間であってもよい。後者の一例において、心電計を用いて得られる被検者の心拍データを利用することができる。 The second scan is preferably performed over at least one cardiac cycle of the subject's heart. Thereby, blood flow information in all phases of the heart is obtained. The execution time of the second scan may be a preset constant time (for example, two seconds), or may be a time set for each subject or each examination. In one example of the latter, heartbeat data of the subject obtained using an electrocardiograph can be utilized.

例えば、断層像形成部221は、断面C11及びC12に対する第1走査により得られた干渉光LCの検出結果に基づいて、断面C11の形態を表す断層像と、断面C12の形態を表す断層像とを形成する。このとき、断面C11を1回走査して1枚の断層像を形成し、且つ、断面C12を1回走査して1枚の断層像を形成することができる。或いは、断面C11を複数回走査して得られた複数の断層像に基づき1枚の断層像を取得し、且つ、断面C12を複数回走査して得られた複数の断層像に基づき1枚の断層像を取得することができる。複数の断層像から1枚の断層像を取得する処理の例として、複数の断層像を平均して画質向上を図る処理や、複数の断層像から最適な1枚を選択する処理がある。 For example, the tomographic image forming unit 221 generates a tomographic image representing the morphology of the cross section C11 and a tomographic image representing the morphology of the cross section C12 based on the detection result of the interference light LC obtained by the first scanning of the cross sections C11 and C12. to form At this time, one tomographic image can be formed by scanning the cross section C11 once, and one tomographic image can be formed by scanning the cross section C12 once. Alternatively, one tomographic image is obtained based on a plurality of tomographic images obtained by scanning the cross section C11 multiple times, and one tomographic image is obtained based on a plurality of tomographic images obtained by scanning the cross section C12 multiple times. A tomogram can be acquired. Examples of processing for obtaining one tomogram from multiple tomograms include processing for improving image quality by averaging multiple tomograms and processing for selecting an optimum one from multiple tomograms.

また、断層像形成部221は、注目断面C2に対する第2走査により得られた干渉光LCの検出結果に基づいて、注目断面C2の形態の時系列変化を表す断層像群を形成する。この処理についてより詳しく説明する。第2走査では、上記のように注目断面C2が繰り返し走査される。断層像形成部221には、第2走査に応じて、OCTユニット100の検出器125から検出信号が逐次入力される。断層像形成部221は、注目断面C2の1回分の走査に対応する検出信号群に基づいて、注目断面C2の1枚の断層像を形成する。断層像形成部221は、この処理を第2走査の反復回数だけ繰り返すことで、時系列に沿った一連の断層像を形成する。ここで、これら断層像を複数の群に分割し、各群の断層像を平均して画質の向上を図ってもよい。 Further, the tomographic image forming unit 221 forms a group of tomographic images representing time-series changes in the form of the cross section of interest C2 based on the detection result of the interference light LC obtained by the second scanning of the cross section of interest C2. This processing will be described in more detail. In the second scan, the section of interest C2 is repeatedly scanned as described above. Detection signals are sequentially input to the tomogram forming unit 221 from the detector 125 of the OCT unit 100 according to the second scan. The tomographic image forming unit 221 forms one tomographic image of the cross section of interest C2 based on the detection signal group corresponding to one scan of the cross section of interest C2. The tomographic image forming unit 221 repeats this process the number of times the second scan is repeated, thereby forming a series of tomographic images in time series. Here, these tomographic images may be divided into a plurality of groups, and the tomographic images of each group may be averaged to improve image quality.

(ユーザーインターフェイス240)
眼科装置1には、ユーザーインターフェイス240が設けられている。ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科装置に接続された外部装置であってよい。
(User interface 240)
The ophthalmologic apparatus 1 is provided with a user interface 240 . User interface 240 includes display unit 241 and operation unit 242 . Display unit 241 includes display device 3 . The operation unit 242 includes various operation devices and input devices. The user interface 240 may include a device, such as a touch panel, that combines a display function and an operation function. It is also possible to construct embodiments that do not include at least a portion of user interface 240 . For example, the display device may be an external device connected to the ophthalmic equipment.

(データ処理部300)
データ処理部300は、画像形成部220により形成された画像データに対して各種のデータ処理(画像処理)や解析処理を施す。例えば、データ処理部300は、画像の輝度補正や分散補正等の補正処理を実行する。また、データ処理部300は、CCDイメージセンサ35、38を用い得られた画像(前眼部像等)に対して各種の画像処理や解析処理を施す。
(Data processing unit 300)
The data processing unit 300 performs various data processing (image processing) and analysis processing on the image data formed by the image forming unit 220 . For example, the data processing unit 300 executes correction processing such as luminance correction and dispersion correction of an image. The data processing unit 300 also performs various image processing and analysis processing on images (anterior segment images, etc.) obtained using the CCD image sensors 35 and 38 .

データ処理部300は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼Eのボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部300は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。 The data processing unit 300 can form volume data (voxel data) of the subject's eye E by executing known image processing such as interpolation processing for interpolating pixels between tomographic images. When displaying an image based on volume data, the data processing unit 300 performs rendering processing on this volume data to form a pseudo-three-dimensional image when viewed from a specific line-of-sight direction.

データ処理部300は、取得されたボリュームデータ(3次元データセット、スタックデータ等)に各種のレンダリングを施すことで画像を形成することが可能である。データ処理部300により形成される画像として、任意断面におけるBモード画像(縦断面像、軸方向断面像)、任意断面におけるCモード画像(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどがある。Bモード画像やCモード画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。Cモード画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。 The data processing unit 300 can form an image by performing various types of rendering on the acquired volume data (three-dimensional data set, stack data, etc.). Images formed by the data processing unit 300 include B-mode images (longitudinal cross-sectional images, axial cross-sectional images) at arbitrary cross-sections, C-mode images (cross-sectional images, horizontal cross-sectional images) at arbitrary cross-sections, projection images, shadowgrams, and the like. There is An arbitrary cross-sectional image, such as a B-mode image or a C-mode image, is formed by selecting pixels (pixels, voxels) on a specified cross-section from a three-dimensional data set. A projection image is formed by projecting a three-dimensional data set in a predetermined direction (z direction, depth direction, axial direction). A shadowgram is formed by projecting a portion of the three-dimensional data set (for example, partial data corresponding to a specific layer) in a predetermined direction. An image such as a C-mode image, a projection image, or a shadowgram whose viewpoint is the front side of the subject's eye is called an en-face image.

また、データ処理部300は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBモード画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。 The data processing unit 300 also generates a B-mode image or a front image (vessel-enhanced image, angiographic image, etc.) in which retinal vessels and choroidal vessels are emphasized based on data (for example, B-scan image data) collected in time series by OCT. gram) can be constructed. For example, time-series OCT data can be collected by repeatedly scanning substantially the same portion of the eye E to be examined.

いくつかの実施形態では、データ処理部300は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部300は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTアンギオグラムを形成する。 In some embodiments, the data processing unit 300 compares time-series B-scan images obtained by B-scans of approximately the same site, and converts the pixel values of the portions where the signal intensity changes to the pixel values corresponding to the changes. An enhanced image in which the changed portion is emphasized is constructed by the conversion. Furthermore, the data processing unit 300 extracts information for a predetermined thickness in a desired region from the constructed multiple enhanced images and constructs an en-face image to form an OCT angiogram.

更に、データ処理部300は、画像形成部220により形成された断層像において、所定の層領域を特定することが可能である。特定可能な層領域として、内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、網膜色素上皮層、脈絡膜、強膜、各層領域の界面などがある。 Furthermore, the data processing unit 300 can specify a predetermined layer area in the tomographic image formed by the image forming unit 220 . The identifiable layer regions include the inner limiting membrane, nerve fiber layer, ganglion cell layer, inner reticular layer, inner nuclear layer, outer reticular layer, outer nuclear layer, outer limiting membrane, photoreceptor layer, retinal pigment epithelium layer, and choroid. , sclera, interfaces of each layer region, and the like.

断層像から所定の層領域を特定する処理は、典型的には、セグメンテーション処理を含む。セグメンテーション処理は、断層像中の部分領域を特定するための公知の処理である。データ処理部300は、例えば、断層像における各画素の輝度値に基づきセグメンテーション処理を行う。すなわち、眼底Efのそれぞれの層領域は特徴的な反射率を有し、これら層領域に相当する画像領域もそれぞれ特徴的な輝度値を有する。データ処理部300は、これら特徴的な輝度値に基づきセグメンテーション処理を実行することにより、目的の画像領域(層領域)を特定することができる。データ処理部300は、少なくとも網膜動脈又は網膜静脈が存在する層領域(例えば、内境界膜からブルッフ膜までの間の層領域)を特定する。いくつかの実施形態では、データ処理部300は、断層像において特定された層領域に対応する位相画像(後述)中の画像領域を特定する。 The process of specifying a predetermined layer area from the tomogram typically includes segmentation process. Segmentation processing is a known processing for identifying partial regions in a tomogram. The data processing unit 300 performs segmentation processing, for example, based on the luminance value of each pixel in the tomographic image. That is, each layer region of the fundus oculi Ef has a characteristic reflectance, and the image regions corresponding to these layer regions also have characteristic luminance values. The data processing unit 300 can specify a target image region (layer region) by executing segmentation processing based on these characteristic luminance values. The data processing unit 300 identifies a layer region where at least a retinal artery or a retinal vein exists (for example, a layer region between the internal limiting membrane and Bruch's membrane). In some embodiments, the data processor 300 identifies image regions in the phase image (discussed below) that correspond to layer regions identified in the tomogram.

データ処理部300は、画像形成部220により形成された画像に基づいて血流情報を生成し、生成された血流情報を解析して被検者が疾病者(健常者)グループであるか否かを分類することが可能である。血流情報は、眼底Efにおける血流速度を含む。このようなデータ処理部300は、図5に示すように、位相画像形成部310と、血流情報生成部320と、血流情報解析部330とを含む。 The data processing unit 300 generates blood flow information based on the image formed by the image forming unit 220, analyzes the generated blood flow information, and determines whether the subject belongs to the sick (healthy) group. It is possible to classify The blood flow information includes blood flow velocity in the fundus oculi Ef. Such a data processing unit 300 includes a phase image forming unit 310, a blood flow information generating unit 320, and a blood flow information analyzing unit 330, as shown in FIG.

(位相画像形成部310)
位相画像形成部310は、眼底Efの(略同一の)所定部位を繰り返しOCTスキャンすることにより得られたデータ(OCTデータ)に基づいて位相画像を形成する。位相画像形成部310は、予備計測において取得されたデータに基づいて、スキャンされた断面における位相差の時系列変化を表す位相画像を形成する。予備計測では、眼底Efの複数の断面が繰り返し走査される。位相画像形成部310は、予備計測により取得されたデータに基づいて、これら断面のそれぞれにおける位相画像を形成する。
(Phase image forming unit 310)
The phase image forming unit 310 forms a phase image based on data (OCT data) obtained by repeatedly performing OCT scans on a (substantially identical) predetermined region of the fundus oculi Ef. The phase image forming unit 310 forms a phase image representing time-series changes in the phase difference in the scanned cross section based on the data acquired in the preliminary measurement. In the preliminary measurement, multiple cross-sections of the fundus oculi Ef are repeatedly scanned. The phase image forming unit 310 forms a phase image in each of these cross sections based on the data obtained by preliminary measurement.

また、位相画像形成部310は、血流計測の第2走査により取得されたデータに基づいて位相画像を形成する。例えば、位相画像形成部310は、注目断面C2に対する第2走査により得られた干渉光LSの検出結果に基づいて、注目断面C2における位相差の時系列変化を表す位相画像を形成する。 Also, the phase image forming unit 310 forms a phase image based on the data acquired by the second scan for blood flow measurement. For example, the phase image forming unit 310 forms a phase image representing the time-series change of the phase difference in the cross section of interest C2 based on the detection result of the interference light LS obtained by the second scanning of the cross section of interest C2.

位相画像の形成に用いられるデータは、断層像形成部221が断層像を形成するために用いられるデータと同じであってよい。この場合、スキャンされた断面の断層像と位相画像とを容易に位置合わせすることができる。つまり、同じデータに基づき形成された断層像と位相画像とについて、断層像の画素と位相画像の画素とを自然に対応付けることが可能である。 The data used to form the phase image may be the same as the data used by the tomographic image forming unit 221 to form the tomographic image. In this case, it is possible to easily align the tomographic image and the phase image of the scanned cross section. That is, for a tomographic image and a phase image formed based on the same data, it is possible to naturally associate the pixels of the tomographic image with the pixels of the phase image.

位相画像の形成方法の例を説明する。本例の位相画像は、隣り合うAライン複素信号(隣接する走査点に対応する信号)の位相差を算出することにより得られる。換言すると、本例の位相画像は、スキャンされた断面の断層像の各画素について、その画素の画素値(輝度値)の時系列変化に基づき形成される。任意の画素について、位相画像形成部310は、その輝度値の時系列変化のグラフを考慮する。位相画像形成部310は、このグラフにおいて所定の時間間隔Δtだけ離れた2つの時点t1及びt2(t2=t1+Δt)の間における位相差Δφを求める。そして、この位相差Δφを時点t1(より一般に2つの時点t1及びt2の間の任意の時点)における位相差Δφ(t1)として定義する。あらかじめ設定された多数の時点のそれぞれについてこの処理を実行することで、当該画素における位相差の時系列変化が得られる。 An example of a method of forming a phase image will be described. The phase image of this example is obtained by calculating the phase difference between adjacent A-line complex signals (signals corresponding to adjacent scanning points). In other words, the phase image of this example is formed based on the time-series change of the pixel value (luminance value) of each pixel of the tomographic image of the scanned cross section. For any pixel, the phase imager 310 considers a graph of its luminance value over time. The phase image forming unit 310 obtains the phase difference Δφ between two points in time t1 and t2 (t2=t1+Δt) separated by a predetermined time interval Δt in this graph. Then, this phase difference Δφ is defined as the phase difference Δφ(t1) at time t1 (more generally, any time between two times t1 and t2). By executing this process for each of a large number of preset time points, a time-series change in the phase difference at the pixel is obtained.

位相画像は、各画素の各時点における位相差の値を画像として表現したものである。この画像化処理は、例えば、位相差の値を表示色や輝度で表現することで実現できる。このとき、時系列に沿って位相が増加したことを表す色(例えば赤)と、減少したことを表す色(例えば青)とを違えることができる。また、位相の変化量の大きさを表示色の濃さで表現することもできる。このような表現方法を採用することで、血流の向きや大きさを色や濃度で提示することが可能となる。以上の処理を各画素について実行することにより位相画像が形成される。 A phase image is an image representing the phase difference value of each pixel at each point in time. This imaging processing can be realized, for example, by expressing the value of the phase difference by display color or brightness. At this time, the color (for example, red) indicating that the phase has increased along the time series can be made different from the color (for example, blue) that indicates that the phase has decreased. Also, the magnitude of the phase change amount can be expressed by the intensity of the display color. By adopting such an expression method, it is possible to present the direction and size of blood flow in colors and densities. A phase image is formed by executing the above processing for each pixel.

なお、位相差の時系列変化は、上記の時間間隔Δtを十分に小さくして位相の相関を確保することにより得られる。このとき、測定光LSの走査において断層像の分解能に相当する時間未満の値に時間間隔Δtを設定したオーバーサンプリングが実行される。 The time-series change of the phase difference can be obtained by sufficiently reducing the time interval Δt to secure the phase correlation. At this time, oversampling is performed by setting the time interval Δt to a value less than the time corresponding to the resolution of the tomographic image in the scanning of the measurement light LS.

(血流情報生成部320)
血流情報生成部320は、画像形成部220により形成された断層像(具体的には、位相画像形成部310により形成された位相画像)において上記のように特定された所定の層領域(例えば、内境界膜からブルッフ膜までの間の層領域)の血流情報を生成する。
(Blood flow information generator 320)
The blood flow information generation unit 320 generates a predetermined layer region (for example, , the layer region between the inner limiting membrane and Bruch's membrane).

血流情報生成部320は、予備計測に基づいて設定された部位の血流計測にて取得されたデータの処理を実行する。本例において、血流情報生成部320は、1本の血管について、第1走査により取得されたデータに基づいて、注目断面における注目血管の傾きを求める。更に、血流情報生成部320は、第1走査に基づき求められた注目血管の傾きと、第2走査により取得されたデータとに基づいて、注目血管に関する血流情報を求める。血流情報は、例えば、血流速度と、血流量とを含む。このような血流情報生成部320は、図6に示すように、血管領域特定部321と、傾き算出部322と、血流速度算出部323と、血管径算出部324と、血流量算出部325とを含む。 The blood flow information generator 320 processes the data obtained by blood flow measurement of the site set based on the preliminary measurement. In this example, the blood flow information generation unit 320 obtains the inclination of the target blood vessel in the target cross section based on the data acquired by the first scan for one blood vessel. Furthermore, the blood flow information generation unit 320 obtains blood flow information regarding the target blood vessel based on the inclination of the target blood vessel obtained based on the first scan and the data obtained by the second scan. Blood flow information includes, for example, blood flow velocity and blood flow volume. As shown in FIG. 6, the blood flow information generation unit 320 includes a blood vessel region identification unit 321, an inclination calculation unit 322, a blood flow velocity calculation unit 323, a blood vessel diameter calculation unit 324, and a blood flow amount calculation unit. 325.

(血管領域特定部321)
血管領域特定部321は、断層像形成部221により形成された断層像において、注目血管に対応する血管領域を特定する。更に、血管領域特定部321は、位相画像形成部310により形成された位相画像において、注目血管に対応する血管領域を特定する。血管領域の特定は、各画像の画素値を解析することにより行われる(例えば閾値処理)。いくつかの実施形態では、血管領域特定部321は、断層像又は位相画像に対して、閾値処理、エッジ検出、二値化、細線化、領域拡張法(リージョングローイング)などの公知の画像処理を実行することにより血管領域を特定する。
(Vascular region identification unit 321)
The blood vessel region identifying unit 321 identifies a blood vessel region corresponding to the target blood vessel in the tomographic image formed by the tomographic image forming unit 221 . Furthermore, the blood vessel region identifying section 321 identifies a blood vessel region corresponding to the target blood vessel in the phase image formed by the phase image forming section 310 . Identification of the blood vessel region is performed by analyzing the pixel values of each image (for example, thresholding). In some embodiments, the blood vessel region identifying unit 321 performs known image processing such as threshold processing, edge detection, binarization, thinning, and region growing on the tomogram or phase image. Identify the vascular region by executing

いくつかの実施形態では、位相画像に描出される血管領域の形状が略円形状である場合、血管領域特定部321は、輝度差又は位相差の変化が大きい略円形状の領域を特定することにより血管領域を特定する。 In some embodiments, when the shape of the blood vessel region depicted in the phase image is substantially circular, the blood vessel region identifying unit 321 identifies substantially circular regions with large changes in luminance difference or phase difference. to identify the blood vessel region.

この実施形態では、同じデータから断層像と位相画像とを形成することが可能である。それにより、血管領域特定部321は、断面形態が比較的明瞭に描出される断層像内の血管領域を特定し、特定された血管領域に対応する位相画像内の領域を血管領域として特定することが可能である。また、断層像と位相画像とが異なるデータから作成された場合であっても、それらのレジストレーションが直接的又は間接的に可能である場合には、一方の画像の血管領域の特定結果を他方の画像の血管領域の特定に利用することができる。 In this embodiment, it is possible to form a tomogram and a phase image from the same data. As a result, the vascular region identifying unit 321 identifies a vascular region in the tomographic image in which the cross-sectional shape is rendered relatively clearly, and identifies a region in the phase image corresponding to the identified vascular region as the vascular region. is possible. Further, even if the tomographic image and the phase image are created from different data, if their registration is possible directly or indirectly, the identification result of the blood vessel region of one image can be used for the other image. can be used to identify the blood vessel region of the image.

いくつかの実施形態では、血管領域特定部321は、ユーザーによる操作部242に対する操作内容に基づいて指定された血管領域を特定する。ユーザーは、主制御部211により表示部241に表示された眼底Efの正面画像又は断面の位相画像を見ながら操作部242に対して操作を行うことにより、所望の注目血管に対応する血管領域を指定することができる。 In some embodiments, the blood vessel region identification unit 321 identifies the designated blood vessel region based on the operation content of the operation unit 242 by the user. The user operates the operation unit 242 while viewing the front image or the cross-sectional phase image of the fundus oculi Ef displayed on the display unit 241 by the main control unit 211 to select the blood vessel region corresponding to the desired blood vessel of interest. can be specified.

(傾き算出部322)
傾き算出部322は、第1走査により取得されたデータに基づいて注目断面C2における注目血管Dbの傾きを算出する。このとき、第2走査により得られたデータを更に用いることも可能である。傾き算出部322は、断面間距離と血管領域の特定結果とに基づいて、注目断面C2における注目血管Dbの傾きを算出する。断面間距離は、断面C11と断面C12との間の距離を含んでよい。また、断面間距離は、断面C11と注目断面C2との間の距離と、断面C12と注目断面C2との間の距離とを含んでよい。
(Inclination calculator 322)
The inclination calculator 322 calculates the inclination of the target blood vessel Db in the target cross section C2 based on the data acquired by the first scan. At this time, it is also possible to further use the data obtained by the second scan. The inclination calculator 322 calculates the inclination of the target blood vessel Db in the target cross section C2 based on the cross-sectional distance and the result of specifying the blood vessel region. The inter-section distance may include the distance between the section C11 and the section C12. Also, the cross-section distance may include the distance between the cross section C11 and the cross section C2 of interest and the distance between the cross section C12 and the cross section of interest C2.

注目血管Dbの傾きの算出方法の例を、図10を参照しつつ説明する。断層像G11及びG12は、それぞれ、第1走査が適用される断面C11を表す断層像及び断面C12を表す断層像である。また、断層像G2は、第2走査が適用される注目断面C2を表す断層像である。符号V11、V12及びV2は、それぞれ、断層像G11内の血管領域、断層像G12内の血管領域、及び断層像G2内の血管領域を示す。なお、これら血管領域は注目血管Dbの断面に相当する。図10において、z座標軸は下方向を向いており、これは測定光LSの照射方向(測定光LSの光路の光軸の方向、軸線方向、Aライン方向)と実質的に一致するものとする。また、隣接する断層像(断面)の間隔をLとする。 An example of a method of calculating the inclination of the target blood vessel Db will be described with reference to FIG. Tomographic images G11 and G12 are respectively a tomographic image representing a cross section C11 and a tomographic image representing a cross section C12 to which the first scanning is applied. Also, the tomographic image G2 is a tomographic image representing the target cross section C2 to which the second scanning is applied. References V11, V12, and V2 indicate the vascular region in the tomographic image G11, the vascular region in the tomographic image G12, and the vascular region in the tomographic image G2, respectively. Note that these blood vessel regions correspond to the cross section of the target blood vessel Db. In FIG. 10, the z-coordinate axis faces downward, which substantially coincides with the irradiation direction of the measurement light LS (the direction of the optical axis of the optical path of the measurement light LS, the axial direction, and the A-line direction). . Also, let L be the interval between adjacent tomographic images (cross sections).

1つの例において、傾き算出部322は、3つの血管領域V11、V12及びV2の位置関係に基づいて、注目断面C2における注目血管Dbの傾きUを算出する。この位置関係は、例えば、3つの血管領域V11、V12及びV2を結ぶことによって得られる。具体的には、傾き算出部322は、3つの血管領域V11、V12及びV2のそれぞれの特徴点を特定し、これら特徴点を結ぶ。この特徴点としては、中心位置、重心位置、最上部(z座標値が最小の位置)、最下部(z座標値が最大の位置)などがある。また、これら特徴点の結び方としては、線分で結ぶ方法、近似曲線(スプライン曲線、ベジェ曲線等)で結ぶ方法などがある。 In one example, the tilt calculator 322 calculates the tilt U of the target blood vessel Db in the target cross section C2 based on the positional relationship between the three blood vessel regions V11, V12, and V2. This positional relationship is obtained, for example, by connecting three blood vessel regions V11, V12 and V2. Specifically, the slope calculator 322 identifies feature points in each of the three blood vessel regions V11, V12, and V2, and connects these feature points. The feature points include the center position, the center of gravity position, the top (the position with the smallest z-coordinate value), the bottom (the position with the largest z-coordinate value), and the like. Further, as a method of connecting these feature points, there are a method of connecting with a line segment, a method of connecting with an approximation curve (spline curve, Bezier curve, etc.), and the like.

更に、傾き算出部322は、これら特徴点を結ぶ線に基づいて傾きUを算出する。線分が用いられる場合、例えば、注目断面C2内の血管領域V2の特徴点と断面C11内の血管領域V11の特徴点とを結ぶ第1線分の傾きと、血管領域V2の当該特徴点と断面C12内の血管領域V12の特徴点とを結ぶ第2線分の傾きとに基づいて、傾きUが算出される。この算出処理の例として、2つの線分の傾きの平均値を求めることができる。また、近似曲線で結ぶ場合の例として、近似曲線と注目断面C2との交差位置における近似曲線の傾きを求めることができる。なお、断面間距離Lは、線分や近似曲線を求める処理において、これら断層像G11、G12及びG2をxyz座標系に埋め込むときに用いられる。 Further, the tilt calculator 322 calculates the tilt U based on the line connecting these feature points. When line segments are used, for example, the slope of the first line segment connecting the feature point of the blood vessel region V2 in the cross section C2 of interest and the feature point of the blood vessel region V11 in the cross section C11 and the feature point of the blood vessel region V2 The slope U is calculated based on the slope of the second line segment connecting the feature points of the blood vessel region V12 in the cross section C12. As an example of this calculation process, the average value of the slopes of two line segments can be obtained. Further, as an example of connecting with an approximated curve, the slope of the approximated curve at the intersection position of the approximated curve and the target cross-section C2 can be obtained. Note that the cross-sectional distance L is used when embedding these tomographic images G11, G12, and G2 in the xyz coordinate system in the process of obtaining line segments and approximated curves.

本例では、3つの断面における血管領域を考慮しているが、2つの断面の血管領域を考慮して傾きを求めることも可能である。具体例として、断面C11内の血管領域V11と断面C12内の血管領域V12とに基づいて、注目断面C2における注目血管Dbの傾きUを求めるよう構成できる。或いは、上記第1線分又は第2線分の傾きを傾きUとして用いることも可能である。 In this example, the vascular regions in three cross sections are considered, but it is also possible to determine the inclination by considering the vascular regions in two cross sections. As a specific example, the inclination U of the target blood vessel Db in the target cross section C2 can be obtained based on the blood vessel region V11 in the cross section C11 and the blood vessel region V12 in the cross section C12. Alternatively, it is also possible to use the slope of the first line segment or the second line segment as the slope U.

注目断面における注目血管の傾きを算出する方法は、上記のものには限定されない。例えば、次のような方法を適用することができる。まず、注目断面に交差し、かつ注目血管に沿う断面に対してOCTスキャンを行う。次に、このOCTスキャンにより取得されたデータに基づいて断層像を形成し、この断層像のセグメンテーションを行って所定組織に相当する画像領域(層領域)が特定される。特定される層領域は、例えば、内境界膜に相当する層領域(ILM領域)である。内境界膜は、網膜と硝子体との境界を規定する網膜の組織であり、比較的明瞭に描出される。更に、特定された層領域の形状を近似する線分を求め、その傾きを求める。近似線分の傾きは、例えば、z座標軸に対する角度として、又は、xy面(つまりz座標軸に直交する平面)に対する角度として表現される。 The method for calculating the inclination of the target blood vessel in the target cross section is not limited to the above. For example, the following method can be applied. First, an OCT scan is performed on a section intersecting the section of interest and along the blood vessel of interest. Next, a tomographic image is formed based on the data acquired by this OCT scanning, and the tomographic image is segmented to specify an image region (layer region) corresponding to a predetermined tissue. The specified layer region is, for example, a layer region (ILM region) corresponding to the inner limiting membrane. The inner limiting membrane is a retinal tissue that defines the boundary between the retina and the vitreous body, and is relatively clearly delineated. Furthermore, a line segment that approximates the shape of the identified layer region is obtained, and the slope thereof is obtained. The inclination of the approximated line segment is expressed, for example, as an angle with respect to the z-coordinate axis or as an angle with respect to the xy plane (that is, a plane perpendicular to the z-coordinate axis).

(血流速度算出部323)
血流速度算出部323は、位相画像として得られる位相差の時系列変化に基づいて、注目血管Db内を流れる血液の注目断面C2における血流速度を算出する。この算出対象は、或る時点における血流速度でもよいし、この血流速度の時系列変化(血流速度変化情報)でもよい。前者の場合、例えば心電図の所定の時相(例えばR波の時相)における血流速度を選択的に取得することが可能である。また、後者における時間の範囲は、注目断面C2を走査した時間の全体又は任意の一部である。
(Blood flow velocity calculator 323)
The blood flow velocity calculation unit 323 calculates the blood flow velocity of the blood flowing through the blood vessel Db of interest in the cross section C2 of interest based on the time series change of the phase difference obtained as the phase image. This calculation target may be the blood flow velocity at a certain point in time, or the time-series change in the blood flow velocity (blood flow velocity change information). In the former case, for example, it is possible to selectively acquire the blood flow velocity at a predetermined time phase of the electrocardiogram (for example, the time phase of the R wave). Also, the time range in the latter is the whole or an arbitrary part of the time during which the section of interest C2 is scanned.

血流速度変化情報が得られた場合、血流速度算出部323は、当該時間の範囲における血流速度の統計値を算出することができる。この統計値としては、平均値、標準偏差、分散、中央値、最大値、最小値、極大値、極小値などがある。また、血流速度の値についてのヒストグラムを作成することもできる。 When the blood flow velocity change information is obtained, the blood flow velocity calculation unit 323 can calculate the statistic value of the blood flow velocity in the range of time. These statistics include mean, standard deviation, variance, median, maximum, minimum, maximum and minimum. It is also possible to create a histogram of blood velocity values.

血流速度算出部323は、前述のようにドップラーOCTの手法を用いて血流速度を算出する。このとき、傾き算出部322により算出された注目断面C2における注目血管Dbの傾きUが考慮される。具体的には、傾き算出部322は次式を用いる。 The blood flow velocity calculator 323 calculates the blood flow velocity using the Doppler OCT method as described above. At this time, the inclination U of the target blood vessel Db in the target cross section C2 calculated by the inclination calculator 322 is taken into consideration. Specifically, the slope calculator 322 uses the following equation.

Figure 2022127783000002
Figure 2022127783000002

式(1)において、Δfは、測定光LSの散乱光が受けるドップラーシフトを表し、nは、媒質(血液)の屈折率を表し、vは、媒質の流速(血流速度)を表す。また、θは、測定光LSの入射方向と媒質の流れの方向(傾きU)とが成す角度を表し、λは、測定光LSの中心波長を表す。 In equation (1), Δf represents the Doppler shift received by the scattered light of the measurement light LS, n represents the refractive index of the medium (blood), and v represents the flow velocity (blood velocity) of the medium. θ represents the angle between the direction of incidence of the measurement light LS and the direction of flow of the medium (inclination U), and λ represents the central wavelength of the measurement light LS.

実施形態では、nとλは既知であり、Δfは位相差の時系列変化から得られ、θは傾きUから得られる(又はθは傾きUとして得られる)。これらの値を式(1)に代入することにより、血流速度vが算出される。 In an embodiment, n and λ are known, Δf is obtained from the time-series variation of the phase difference, and θ is obtained from the slope U (or θ is obtained as the slope U). By substituting these values into equation (1), the blood flow velocity v is calculated.

(血管径算出部324)
血管径算出部324は、眼底像又はOCT画像を解析することにより、注目断面C2における注目血管Dbの径を算出する。眼底像が用いられる場合、注目断面C2の位置を含む眼底Efの部位の撮影が行われ、それにより得られた眼底像(例えば、カラー眼底像、レッドフリー画像等)に基づいて、注目断面C2における注目血管Dbの径、つまり血管領域V2の径を算出する。OCT画像が用いられる場合、このOCT画像は、例えば、第2走査に基づき形成された断層像、又は、予備計測に基づき形成された画像である。このような血管径の算出は、従来と同様にして実行される。
(Blood vessel diameter calculator 324)
The blood vessel diameter calculator 324 calculates the diameter of the target blood vessel Db in the target cross section C2 by analyzing the fundus image or the OCT image. When the fundus image is used, the part of the fundus oculi Ef including the position of the cross section C2 of interest is photographed, and the cross section of interest C2 is obtained based on the fundus image thus obtained (for example, a color fundus image, a red-free image, etc.). , that is, the diameter of the blood vessel region V2. When an OCT image is used, this OCT image is, for example, a tomographic image formed based on the second scan or an image formed based on preliminary measurement. Calculation of such a blood vessel diameter is performed in a conventional manner.

(血流量算出部325)
血流量算出部325は、血流速度の算出結果と血管径の算出結果とに基づいて、注目血管Db内を流れる血液の流量を算出する。この処理の一例を以下に説明する。
(Blood flow calculation unit 325)
The blood flow rate calculator 325 calculates the flow rate of blood flowing through the target blood vessel Db based on the blood flow velocity calculation result and the blood vessel diameter calculation result. An example of this processing is described below.

血管内における血流がハーゲン・ポアズイユ流(Hagen-Poiseuille flow)と仮定する。また、血管径をwとし、血流速度の最大値をVmとすると、血流量Qは次式で表される。 Assume that the blood flow in the blood vessel is Hagen-Poiseuille flow. Further, when the blood vessel diameter is w and the maximum value of the blood flow velocity is Vm, the blood flow rate Q is expressed by the following equation.

Figure 2022127783000003
Figure 2022127783000003

血流量算出部325は、血管径算出部324による血管径の算出結果wと、血流速度算出部323による血流速度の算出結果に基づく最大値Vmとを式(2)に代入することにより、血流量Qを算出する。 The blood flow volume calculation unit 325 substitutes the blood vessel diameter calculation result w by the blood vessel diameter calculation unit 324 and the maximum value Vm based on the blood flow velocity calculation result by the blood flow velocity calculation unit 323 into Equation (2). , the blood flow Q is calculated.

(血流情報解析部330)
血流情報解析部330は、血流情報生成部320により生成された血流情報を用いて解析処理を実行する。本例において、血流情報生成部320は、1本の網膜動脈又は網膜静脈の血流速度を血流情報として生成する。血流情報解析部330は、血流情報生成部320により生成された血流情報の経時的変化を表す血流情報の時系列データ(すなわち、血流速度の経時的変化を表すデータ)を生成する。血流情報解析部330は、生成された血流情報の時系列データに対して時間周波数解析を行うことにより血流情報の特徴量を取得し、取得された特徴量に基づいて被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。
(Blood flow information analysis unit 330)
The blood flow information analysis unit 330 uses the blood flow information generated by the blood flow information generation unit 320 to perform analysis processing. In this example, the blood flow information generator 320 generates the blood flow velocity of one retinal artery or retinal vein as blood flow information. The blood flow information analysis unit 330 generates time-series data of the blood flow information (that is, data representing the time change of the blood flow velocity) representing the change over time of the blood flow information generated by the blood flow information generation unit 320. do. The blood flow information analysis unit 330 acquires the feature amount of the blood flow information by performing time-frequency analysis on the generated time-series data of the blood flow information, and determines the subject based on the acquired feature amount. Classify into one of a plurality of groups, including a healthy group and a sick group.

このような血流情報解析部330は、図7に示すように、抽出部340と、解析部350と、分類部360と、学習部370とを含む。 Such a blood flow information analysis unit 330 includes an extraction unit 340, an analysis unit 350, a classification unit 360, and a learning unit 370, as shown in FIG.

(抽出部340)
抽出部340は、血流情報生成部320により生成された血流情報(血流速度の時系列データ)から1拍動期間の血流情報(血流速度の時系列データ)を抽出する。抽出部340は、心周期特定部341と、補間部342と、正規化部343とを含む。
(Extraction unit 340)
The extraction unit 340 extracts blood flow information (time series data of blood flow velocity) for one beat period from the blood flow information (time series data of blood flow velocity) generated by the blood flow information generation unit 320 . The extractor 340 includes a cardiac cycle identifier 341 , an interpolator 342 and a normalizer 343 .

(心周期特定部341)
心周期特定部341は、血流速度の時系列データから心周期(1拍動期間)を特定する。血流速度は、心臓の拍動に起因して変化する。心周期特定部341は、例えば、拍動に対応した血流速度の変化点を特定することにより心周期を特定する。
(Cardiac cycle identification unit 341)
The cardiac cycle identifying unit 341 identifies a cardiac cycle (one beat period) from the blood flow velocity time-series data. Blood flow velocity changes due to the heartbeat. The cardiac cycle identifying unit 341 identifies the cardiac cycle by, for example, identifying points of change in blood flow velocity corresponding to the pulsations.

図11に、抽出部340の動作説明図を示す。図11は、血流速度の時系列データである血流速度波形の一例を表す。図11において、横軸は時間を表し、縦軸は血流速度を表す。 FIG. 11 shows an operation explanatory diagram of the extraction unit 340. As shown in FIG. FIG. 11 shows an example of a blood flow velocity waveform, which is time-series data of blood flow velocity. In FIG. 11, the horizontal axis represents time, and the vertical axis represents blood flow velocity.

心周期特定部341は、血流速度の時系列データから血流速度が所定の値となる2つのタイミングの間の期間を1心拍に要する心周期(1拍動期間)THRとして特定する。所定の値として、極小値、極大値、最小値、最大値などがある。実施形態では、心周期特定部341は、血流速度が最小値となる2つのタイミングの間の期間を心周期THRとして特定する。心周期特定部341は、血流速度の時系列データから特定された2以上の心周期の統計値を心周期THRとして出力してもよい。この統計値としては、平均値、標準偏差、分散、中央値、最大値、最小値、極大値、極小値などがある。 The cardiac cycle identifying unit 341 identifies the period between two timings at which the blood flow velocity reaches a predetermined value as the cardiac cycle (1 beat period) THR required for one heartbeat from the blood flow velocity time-series data. Predetermined values include a minimum value, a maximum value, a minimum value, a maximum value, and the like. In the embodiment, the cardiac cycle identification unit 341 identifies the period between two timings at which the blood flow velocity reaches its minimum value as the cardiac cycle THR . The cardiac cycle identification unit 341 may output the statistic values of two or more cardiac cycles identified from the blood flow velocity time-series data as the cardiac cycle THR . These statistics include mean, standard deviation, variance, median, maximum, minimum, maximum and minimum.

(補間部342)
補間部342は、心周期特定部341により特定された心周期THRの間の血流速度の時系列データを時間軸方向に正規化する。時間軸方向の正規化は、心周期の正規化に相当する。具体的には、補間部342は、心周期特定部341により心周期が特定された血流速度の時系列データに対して、所定の期間における計測サンプリング数が所定のサンプリング数になるように補間処理を実行する。所定の期間として、例えば、1拍動期間、1秒間、2秒間などがある。所定のサンプリング数として、2(kは自然数、例えばk=7)点などがある。この実施形態では、補間部342は、1拍動期間においてサンプリング数が2(=128)点(次元)になるように補間処理を実行する。
(Interpolation unit 342)
The interpolation unit 342 normalizes the time-series data of the blood flow velocity during the cardiac cycle THR specified by the cardiac cycle specifying unit 341 along the time axis. Normalization in the direction of the time axis corresponds to normalization of the cardiac cycle. Specifically, the interpolating unit 342 interpolates the time-series data of the blood flow velocity whose cardiac cycle is specified by the cardiac cycle specifying unit 341 so that the number of measurement samplings in a specified period becomes a specified number of samplings. Execute the process. The predetermined period includes, for example, one beat period, one second, two seconds, and the like. As the predetermined sampling number, there are 2 k (k is a natural number, eg, k=7) points. In this embodiment, the interpolation unit 342 performs interpolation processing so that the number of samplings is 2 7 (=128) points (dimensions) in one beat period.

所定の期間における計測サンプリング数が所定のサンプリング数に満たない場合、補間部342は、1以上のサンプリング点における血流速度を補間により追加することが可能である。いくつかの実施形態では、補間部342は、線形補間、ラグランジュ補間、スプライン補間等の公知の補間方法を用いて1以上のサンプリング点を追加する。 When the number of measurement samplings in the predetermined period is less than the predetermined number of samplings, the interpolator 342 can add blood flow velocities at one or more sampling points by interpolation. In some embodiments, interpolator 342 adds one or more sampling points using known interpolation methods such as linear interpolation, Lagrangian interpolation, spline interpolation, or the like.

所定の期間における計測サンプリング数が所定のサンプリング数を越える場合、補間部342は、1以上のサンプリング点における血流速度を間引くことが可能である。 When the number of measurement samplings in a predetermined period exceeds the predetermined number of samplings, the interpolator 342 can thin out blood flow velocities at one or more sampling points.

このように血流速度の時系列データに対して時間軸方向に正規化を行うことによって、心拍数(心周期)が異なる複数の被検者の時系列データに対する解析精度を向上させることが可能になる。 By normalizing the time-series data of blood flow velocity along the time axis in this way, it is possible to improve the analysis accuracy of the time-series data of multiple subjects with different heart rates (cardiac cycles). become.

(正規化部343)
正規化部343は、補間部342によりサンプリング点の追加(又は間引き)が行われた血流速度の時系列データを血流速度軸方向に正規化する。血流速度軸方向の正規化は、血流速度(振幅)の正規化に相当する。具体的には、正規化部343は、図11に示すように、心周期THR内の血流速度を最大値で正規化する。例えば、正規化部343は、心周期THR内の血流速度の最大値と最小値との差VHRを最大値が「1」になり最小値が「0」になるように血流速度を正規化する。
(Normalization unit 343)
The normalization unit 343 normalizes the blood flow velocity time-series data to which sampling points have been added (or thinned out) by the interpolation unit 342 in the blood flow velocity axis direction. Normalization of the blood velocity axial direction corresponds to normalization of the blood velocity (amplitude). Specifically, the normalization unit 343 normalizes the blood flow velocity within the cardiac cycle THR by the maximum value, as shown in FIG. For example, the normalization unit 343 calculates the difference VHR between the maximum value and the minimum value of the blood flow velocity within the cardiac cycle THR so that the maximum value is "1" and the minimum value is "0". normalize .

このように血流速度の時系列データに対して血流速度軸方向に正規化を行うことによって、血流速度の最大値、最小値、又は変動幅が異なる複数の被検者の血流速度の時系列データに対する解析精度を向上させることが可能になる。 By normalizing the time-series data of blood flow velocity in the direction of the blood flow velocity axis in this way, the blood flow velocity of a plurality of subjects with different maximum values, minimum values, or fluctuation widths of blood flow velocity can be obtained. It is possible to improve the analysis accuracy for time-series data of

いくつかの実施形態では、補間部342により補間処理が施された血流速度の時系列データに対して、正規化部343による正規化処理が省略される。いくつかの実施形態では、正規化部343により正規化された血流速度の時系列データに対して、補間部342は、上記の補間処理を実行するように構成される。 In some embodiments, the normalization processing by the normalization unit 343 is omitted for the blood velocity time-series data that has been subjected to the interpolation processing by the interpolation unit 342 . In some embodiments, the interpolator 342 is configured to perform the interpolation process described above on the time-series data of blood flow velocity normalized by the normalizer 343 .

(解析部350)
解析部350は、抽出部340により抽出された血流速度の時系列データに対して時間周波数解析を行い、取得された解析データの特徴量を求める。この実施形態では、解析部350は、1拍動期間における血流速度の時系列データに対して連続ウェーブレット変換を行い、取得されたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とを求める。以下、連続ウェーブレット変換を単に「ウェーブレット変換」と表記する。
(analysis unit 350)
The analysis unit 350 performs time-frequency analysis on the time-series data of the blood flow velocity extracted by the extraction unit 340, and obtains the feature amount of the acquired analysis data. In this embodiment, the analysis unit 350 performs a continuous wavelet transform on the time-series data of the blood flow velocity in one pulsation period, and calculates the scale value and the shift value of the mother wavelet at the feature position of the acquired wavelet transform data. Ask for Hereinafter, continuous wavelet transform is simply referred to as "wavelet transform".

このような解析部350は、図8に示すように、ウェーブレット変換部351と、特徴位置探索部352と、特徴量特定部353とを含む。 Such an analysis unit 350 includes a wavelet transform unit 351, a feature position search unit 352, and a feature amount identification unit 353, as shown in FIG.

(ウェーブレット変換部351)
ウェーブレット変換部351は、1拍動期間における血流速度の時系列データに対してウェーブレット変換を行う。
(Wavelet transform unit 351)
The wavelet transform unit 351 performs wavelet transform on the time-series data of the blood flow velocity in one pulsation period.

例えば、基底に用いるウェーブレット関数Ψa,b(t)(tは時間)を式(3)のように定義する。式(3)において、「a」は時間軸を「1/a」倍に変換するスケール値を表し、「b」は時間軸上を「b」だけ移動させるシフト値を表す。 For example, a wavelet function Ψ a,b (t) (t is time) used as a basis is defined as shown in Equation (3). In equation (3), "a" represents a scale value that converts the time axis to "1/a" times, and "b" represents a shift value that moves the time axis by "b".

Figure 2022127783000004
Figure 2022127783000004

また、マザーウェーブレットとして、例えば、次の式(4)のようにメキシカンハット(Mexican Hat)ウェーブレットを採用した場合、式(3)のウェーブレット関数Ψa,b(t)は、式(5)のように表される。 Further, as the mother wavelet, for example, when a Mexican Hat wavelet is adopted as in the following equation (4), the wavelet function Ψ a,b (t) in equation (3) is replaced by is represented as

Figure 2022127783000005
Figure 2022127783000005

Figure 2022127783000006
Figure 2022127783000006

ここで、抽出部340により抽出された1拍動期間における血流速度の時系列データを被解析信号x(t)とする。ウェーブレット変換部351は、式(6)に従って被解析信号x(t)に対してウェーブレット変換を行い、スケール値「a」とシフト値「b」の関数である変換データWΨ[x(t)]を求める。 Here, the time-series data of the blood flow velocity in one pulsation period extracted by the extraction unit 340 is assumed to be the analyzed signal x(t). The wavelet transform unit 351 performs wavelet transform on the signal to be analyzed x(t) according to equation (6), and converts the transformed data W Ψ [x(t), which is a function of the scale value “a” and the shift value “b”. ].

Figure 2022127783000007
Figure 2022127783000007

(特徴位置探索部352)
特徴位置探索部352は、ウェーブレット変換部351により得られた変換データWΨ[x(t)]の特徴位置を探索する。特徴位置探索部352は、変換データWΨ[x(t)]に基づいて特徴位置を探索する。特徴位置の例として、変換データWΨ[x(t)]の最大を示す位置、変換データWΨ[x(t)]の最小を示す位置、変換データWΨ[x(t)]の平均値(中央値)を示す位置などがある。この実施形態では、特徴位置探索部352は、変換データWΨ[x(t)]が最大を示す位置を特徴位置として探索する。
(Characteristic position searching unit 352)
The feature position search unit 352 searches for feature positions of the transformed data W Ψ [x(t)] obtained by the wavelet transform unit 351 . The feature position searching unit 352 searches for feature positions based on the transformed data W[psi][ x (t)]. Examples of feature positions include the position showing the maximum of the transformed data W Ψ [x(t)], the position showing the minimum of the transformed data W Ψ [x(t)], and the average of the transformed data W Ψ [x(t)]. There is a position indicating a value (median value). In this embodiment, the feature position searching unit 352 searches for the position where the transformed data W Ψ [x(t)] is maximum as the feature position.

(特徴量特定部353)
特徴量特定部353は、ウェーブレット変換部351により得られた変換データWΨ[x(t)]の特徴量を特定する。具体的には、特徴量特定部353は、特徴位置探索部352により探索された特徴位置における変換データWΨ[x(t)]の特徴量を特定する。特徴量は、スケール値「a」及びシフト値「b」を含む。この実施形態では、特徴量特定部353は、変換データWΨ[x(t)]が最大を示す位置におけるスケール値「a」及びシフト値「b」を特徴量として特定する。
(Feature amount specifying unit 353)
The feature quantity specifying unit 353 specifies the feature quantity of the transformed data W Ψ [x(t)] obtained by the wavelet transform unit 351 . Specifically, the feature quantity specifying unit 353 specifies the feature quantity of the transformed data W Ψ [x(t)] at the feature positions searched by the feature position searching unit 352 . The features include a scale value 'a' and a shift value 'b'. In this embodiment, the feature quantity specifying unit 353 specifies the scale value “a” and the shift value “b” at the position where the transformed data W Ψ [x(t)] is maximum as the feature quantity.

図12に、解析部350の動作説明図を示す。図12は、縦軸をスケール値「a」とし、横軸をシフト値「b」としたとき、式(6)を用いて算出された変換データWΨ[x(t)]のプロット図を模式的に表したものである。なお、図12において、縦軸及び横軸のそれぞれは最大値で規格化(正規化)されている。 FIG. 12 shows an operation explanatory diagram of the analysis unit 350. As shown in FIG. FIG. 12 is a plot of the converted data W Ψ [x(t)] calculated using Equation (6), with the vertical axis representing the scale value “a” and the horizontal axis representing the shift value “b”. This is a schematic representation. In addition, in FIG. 12, each of the vertical axis and the horizontal axis is standardized (normalized) by the maximum value.

すなわち、ウェーブレット変換部351は、式(6)に従って被解析信号x(t)に対してウェーブレット変換を行う。それにより、スケール値[a]とシフト値「b」の関数である変換データWΨ[x(t)]は、図12に示すように分布する。なお、図12では、各座標位置における変換データWΨ[x(t)]の値を濃淡で表す(値が大きいほど濃い)。 That is, the wavelet transform unit 351 performs wavelet transform on the signal to be analyzed x(t) according to Equation (6). As a result, the transformed data W[psi][ x (t)], which is a function of the scale value [a] and the shift value "b", is distributed as shown in FIG. In addition, in FIG. 12, the value of the conversion data W[psi][ x (t)] at each coordinate position is indicated by gradation (the larger the value, the darker the value).

特徴位置探索部352は、ウェーブレット変換部351により算出された変換データWΨ[x(t)]の最大を示す位置を探索し、特徴位置CPを特定する。特徴量特定部353は、特徴位置探索部352により特定された特徴位置CPにおけるスケール値a0及びシフト値b0を特徴量として特定する。 The feature position searching unit 352 searches for the position showing the maximum of the transformed data W Ψ [x(t)] calculated by the wavelet transform unit 351, and specifies the feature position CP. The feature quantity specifying unit 353 specifies the scale value a0 and the shift value b0 at the feature position CP specified by the feature position searching unit 352 as feature quantities.

(分類部360)
分類部360は、解析部350により得られた変換データWΨ[x(t)]の特徴位置におけるマザーウェーブレットのスケール値とシフト値とに基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。上記のように、健常者グループは、医師によりあらかじめ健常者であると診断されたグループであり、疾病者グループは、医師によりあらかじめ疾病者であると診断されたグループである。
(Classification unit 360)
The classifying unit 360 classifies the subject into a healthy subject group and a diseased subject group based on the scale value and shift value of the mother wavelet at the feature position of the transformed data W Ψ [x(t)] obtained by the analyzing unit 350. classified into one of several groups, including As described above, the healthy subject group is a group that has been diagnosed by a doctor as being healthy in advance, and the sick group is a group that has been previously diagnosed as being ill by a doctor.

いくつかの実施形態では、分類部360は、上記のスケール値及びシフト値に基づいて、被検者を健常者グループ及び疾病者グループのいずれかに分類する。 In some embodiments, the classifier 360 classifies the subject into either the healthy group or the sick group based on the scale value and shift value.

いくつかの実施形態では、複数のグループは、健常者グループ、疾病者グループ、及び健常者と疾病者との中間領域のグループを含む。この場合、分類部360は、上記のスケール値及びシフト値に基づいて、被検者を健常者グループ、疾病者グループ、及び中間領域のグループのいずれかに分類する。被検者を中間領域のグループに分類することで、当該被検者に対する精密検査の検査結果を特に注意深く精査する必要があることを、被検者、検者、又は医師等に促すことができる。 In some embodiments, the plurality of groups includes a healthy group, a sick group, and an intermediate range of healthy and sick groups. In this case, the classification unit 360 classifies the subject into one of the healthy subject group, the diseased subject group, and the intermediate area group based on the scale value and the shift value. By classifying the subject into the intermediate range group, it is possible to prompt the subject, the examiner, the doctor, etc., to scrutinize the test results of the detailed examination of the subject particularly carefully. .

いくつかの実施形態では、分類部360は、上記のスケール値及びシフト値に基づいて、被検者を中間領域のグループ及びそれ以外のグループに分類する。 In some embodiments, the classifier 360 classifies the subject into the middle region group and the rest group based on the scale value and the shift value.

いくつかの実施形態では、分類部360は、上記のスケール値及びシフト値の少なくとも1つを所定の閾値と比較することにより、被検者を上記のように分類する。 In some embodiments, the classifier 360 classifies the subject as described above by comparing at least one of the scale value and shift value described above to a predetermined threshold.

いくつかの実施形態では、分類部360は、複数の被検者の血流速度の時系列データを事前に解析することにより得られた分類モデルを用いて、上記のスケール値及びシフト値に基づいて被検者を上記のように分類する。複数の被検者の血流速度の時系列データに対する事前の解析には、回帰分析(単回帰分析、重回帰分析)、機械学習等の公知の解析手法が用いられる。機械学習による解析手法として、線形サポートベクタマシン、非線形サポートベクタマシン、決定木法、ランダムフォレスト法、k近傍法などの分類モデルの学習などがある。この場合、分類部360は、回帰分析により得られた回帰直線又は回帰曲線を用いて、上記のスケール値及びシフト値に基づいて被検者を上記のように分類することができる。或いは、分類部360は、機械学習により得られた分類モデル(学習済みモデル)を用いて、上記のスケール値及びシフト値に基づいて被検者を上記のように分類することができる。この実施形態では、分類部360は、非線形サポートベクタマシンとして機能する分類モデルを用いて、上記のスケール値及びシフト値に基づいて被検者を上記のように分類する。 In some embodiments, the classification unit 360 uses a classification model obtained by pre-analyzing time-series data of blood flow velocities of a plurality of subjects, based on the scale value and shift value classify subjects as above. Known analysis techniques such as regression analysis (single regression analysis, multiple regression analysis), machine learning, etc. are used for prior analysis of the time-series data of blood flow velocities of multiple subjects. Analysis methods based on machine learning include learning of classification models such as linear support vector machines, nonlinear support vector machines, decision tree methods, random forest methods, and k-nearest neighbor methods. In this case, the classification unit 360 can classify the subject as described above based on the scale value and the shift value using the regression line or curve obtained by the regression analysis. Alternatively, the classifier 360 can classify the subject as described above based on the scale value and the shift value using a classification model (learned model) obtained by machine learning. In this embodiment, the classifier 360 uses a classification model that functions as a non-linear support vector machine to classify subjects as described above based on the scale and shift values described above.

(学習部370)
学習部370は、分類部360により被検者の分類に用いられる分類モデルを生成する。学習部370は、被検者の血流速度の時系列データから得られたスケール値及びシフト値の組み合わせを訓練データとし、訓練データの分類結果を教師データとする公知の教師あり機械学習を実行することにより分類モデルを生成する。分類結果は、事前に医師等により上記の複数のグループのいずれに分類されるかが判断されたものである。
(Learning unit 370)
The learning unit 370 generates a classification model that is used by the classification unit 360 to classify subjects. The learning unit 370 executes known supervised machine learning using combinations of scale values and shift values obtained from time-series data of the blood flow velocity of the subject as training data and classification results of the training data as teacher data. to generate a classification model. As for the classification results, it is determined in advance by a doctor or the like which of the plurality of groups the patient should be classified into.

上記のデータ処理部300の機能は、1以上のプロセッサにより実現される。いくつかの実施形態では、データ処理部300の機能は、データ処理部300の各部の機能を実行する複数のプロセッサにより実現される。 The functions of the data processing unit 300 described above are realized by one or more processors. In some embodiments, the functionality of data processing unit 300 is implemented by multiple processors that perform the functionality of each unit of data processing unit 300 .

眼科装置1又は血流情報解析部330は、実施形態に係る「血流解析装置」の一例である。ドップラーシフトΔfは、実施形態に係る「ドップラー信号」の一例である。図1において対物レンズ22からOCTユニット100までの光学系は、実施形態に係る「光学系」の一例である。 The ophthalmologic apparatus 1 or the blood flow information analysis unit 330 is an example of the "blood flow analysis apparatus" according to the embodiment. The Doppler shift Δf is an example of a “Doppler signal” according to the embodiment. The optical system from the objective lens 22 to the OCT unit 100 in FIG. 1 is an example of the "optical system" according to the embodiment.

[動作]
実施形態に係る眼科装置1の動作について説明する。
[motion]
The operation of the ophthalmologic apparatus 1 according to the embodiment will be described.

眼科装置1の動作の例を図13~図15に示す。図13は、眼科装置1の動作例のフロー図を表す。図14は、図13のステップS1の処理例のフロー図を表す。図15は、図13のステップS5の処理例のフロー図を表す。記憶部212には、図13~図15に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図13~図15に示す処理を実行する。なお、アライメント、フォーカス調整、干渉感度調整、z位置調整など、一般的な準備処理は既に完了しているものとする。 Examples of operations of the ophthalmologic apparatus 1 are shown in FIGS. 13 to 15. FIG. FIG. 13 represents a flow diagram of an operation example of the ophthalmologic apparatus 1 . FIG. 14 shows a flow diagram of a process example of step S1 in FIG. FIG. 15 shows a flow diagram of an example of processing in step S5 of FIG. The storage unit 212 stores computer programs for realizing the processes shown in FIGS. The main control unit 211 executes the processes shown in FIGS. 13 to 15 by operating according to this computer program. It is assumed that general preparatory processes such as alignment, focus adjustment, interference sensitivity adjustment, and z-position adjustment have already been completed.

(S1:血流情報を生成)
まず、制御部210(主制御部211)は、被検眼Eの1本の網膜動脈又は網膜静脈の血流速度を含む血流情報を血流情報生成部320に生成させる。続いて、制御部210は、血流情報解析部330を制御して、血流情報生成部320により生成された血流速度の時系列データを生成させる。
(S1: Generate blood flow information)
First, the control unit 210 (main control unit 211) causes the blood flow information generation unit 320 to generate blood flow information including the blood flow velocity of one retinal artery or retinal vein of the eye E to be examined. Subsequently, the control unit 210 controls the blood flow information analysis unit 330 to generate the blood flow velocity time series data generated by the blood flow information generation unit 320 .

具体的には、制御部210は、OCTユニット100等の光学系を制御してOCT計測を実行させ、取得された計測結果を用いて血流情報を血流情報生成部320に生成させる。血流情報解析部330は、血流情報生成部320により生成された血流情報を時系列に配列することにより血流情報の時系列データ(血流速度の時系列データ)を生成する。ステップS1の詳細は後述する。 Specifically, the control unit 210 controls the optical system such as the OCT unit 100 to perform OCT measurement, and causes the blood flow information generation unit 320 to generate blood flow information using the acquired measurement results. The blood flow information analysis unit 330 generates time series data of blood flow information (time series data of blood flow velocity) by arranging the blood flow information generated by the blood flow information generation unit 320 in time series. The details of step S1 will be described later.

(S2:心周期を特定)
次に、制御部210は、ステップS1において生成された時系列データから上記のように心周期を心周期特定部341に特定させる。
(S2: Identify cardiac cycle)
Next, the control unit 210 causes the cardiac cycle identifying unit 341 to identify the cardiac cycle from the time-series data generated in step S1 as described above.

(S3:補間)
続いて、制御部210は、ステップS2において特定された心周期における血流速度の時系列データを上記のように補間部342に補間させる。
(S3: interpolation)
Subsequently, the control unit 210 causes the interpolating unit 342 to interpolate the time-series data of the blood flow velocity in the cardiac cycle specified in step S2 as described above.

(S4:正規化)
続いて、制御部210は、ステップS3において補間された血流速度の時系列データを上記のように正規化部343に正規化させる。
(S4: normalization)
Subsequently, the control unit 210 causes the normalization unit 343 to normalize the blood flow velocity time series data interpolated in step S3 as described above.

(S5:解析)
次に、制御部210は、ステップS4において正規化された血流速度の時系列データに対する時間周波数解析を解析部350に実行させる。ステップS5の詳細は後述する。
(S5: analysis)
Next, in step S4, the control unit 210 causes the analysis unit 350 to perform time-frequency analysis on the time-series data of the normalized blood flow velocity. The details of step S5 will be described later.

(S6:分類)
次に、制御部210は、ステップS5において実行された時間周波数解析により得られた特徴量に基づいて、被検者を健常者グループ及び疾病者グループのいずれかに分類する。ここで、特徴量は、ウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値である。
(S6: classification)
Next, the control unit 210 classifies the subject into either the healthy subject group or the sick subject group based on the feature amount obtained by the time-frequency analysis performed in step S5. Here, the feature amount is the scale value and shift value of the mother wavelet at the feature position of the wavelet transform data.

以上で、眼科装置1の動作は終了である(エンド)。 With this, the operation of the ophthalmologic apparatus 1 is completed (end).

図13のステップS1の処理は、図14に示すように行われる。 The process of step S1 in FIG. 13 is performed as shown in FIG.

(S11:計測位置を指定)
まず、ユーザー又は制御部210は、予備計測のスキャン範囲を設定する。スキャン範囲の設定においては、例えば、リアルタイムで取得される眼底Efの赤外観察像、或いは、過去に取得された眼底Efのデータ(眼底像、OCT画像、SLO画像、位相画像等)が参照される。
(S11: Specify measurement position)
First, the user or control unit 210 sets the scan range for preliminary measurement. In setting the scan range, for example, an infrared observation image of the fundus oculi Ef acquired in real time or data of the fundus oculi Ef acquired in the past (a fundus image, an OCT image, an SLO image, a phase image, etc.) is referred to. be.

制御部210は、OCTユニット100等を制御することにより、設定されたスキャン範囲(複数の断面)に対して予備計測を実行させる。一例として、設定されるスキャン範囲は3次元領域であり、この3次元領域のラスタースキャンが繰り返し実行される。位相画像形成部310は、予備計測により取得されたデータに基づいて、複数の断面のそれぞれについて位相画像を形成する。 The control unit 210 controls the OCT unit 100 and the like to perform preliminary measurement on the set scan range (a plurality of cross sections). As an example, the set scan range is a three-dimensional area, and raster scanning of this three-dimensional area is repeatedly performed. The phase image forming unit 310 forms a phase image for each of a plurality of cross sections based on data obtained by preliminary measurement.

(S12:計測位置近傍の断面を設定)
次に、制御部210は、眼底Efの正面画像を表示させる。正面画像は、例えば、リアルタイムで取得される赤外観察像、又は、過去に取得された画像である。ユーザーは、表示された情報を参照し、血流計測の対象となる断面(注目断面C2)を設定する。例えば、ユーザーは、眼底Efの正面画像とともに表示された設定支援情報を参照することにより、この正面画像内の所望の動脈領域(注目血管Db)を指定する。
(S12: Set a cross section near the measurement position)
Next, the control unit 210 displays a front image of the fundus oculi Ef. The front image is, for example, an infrared observation image acquired in real time or an image acquired in the past. The user refers to the displayed information and sets a cross section (target cross section C2) to be subjected to blood flow measurement. For example, the user refers to the setting support information displayed together with the front image of the fundus oculi Ef to designate a desired arterial region (target blood vessel Db) in this front image.

本例では注目断面C2の設定を手動で行っているが、これに限定されない。例えば、眼底Efの赤外観察像と計測部位情報とに基づいて、注目血管Dbや注目断面C2を自動で設定することができる。注目血管Dbの設定は、例えば、動脈領域のいずれか(例えば最も太いもの)を選択することにより行われる。また、注目断面C2は、例えば、注目血管Dbの向きが所定の許容範囲内である位置に、注目血管Dbの走行方向に対して直交するように設定される。 In this example, the cross section of interest C2 is set manually, but the setting is not limited to this. For example, it is possible to automatically set the target blood vessel Db and target cross section C2 based on the infrared observation image of the fundus oculi Ef and the measurement site information. The target blood vessel Db is set, for example, by selecting one of the arterial regions (for example, the thickest one). Further, the target cross section C2 is set, for example, at a position where the orientation of the target blood vessel Db is within a predetermined allowable range, and orthogonal to the running direction of the target blood vessel Db.

更に、ユーザー又は制御部210(又はデータ処理部300)は、第1走査の対象となる断面C11及びC12の設定を行う。 Further, the user or the control unit 210 (or the data processing unit 300) sets cross sections C11 and C12 that are targets of the first scan.

(S13:OCT計測)
続いて、制御部210は、ステップS12において設定された断面C11及びC12のOCTスキャンを実行する(第1走査)。更に、制御部210は、ステップS12において設定された注目断面C2の反復的なOCTスキャンを実行する(第2走査)。
(S13: OCT measurement)
Subsequently, the control unit 210 executes an OCT scan of the cross-sections C11 and C12 set in step S12 (first scan). Furthermore, the control unit 210 executes repetitive OCT scanning of the cross section of interest C2 set in step S12 (second scanning).

(S14:画像を形成)
制御部210は、ステップS13における第1走査により取得されたデータに基づいて、断面C11及びC12に対応する断層像G11及びG12を断層像形成部221に形成させる。また、制御部210は、ステップS13における第2走査により取得されたデータに基づいて、注目断面C2の位相画像を位相画像形成部310に形成させる。また、断層像形成部221は、当該データに基づいて注目断面C2の断層像を形成する。
(S14: Form an image)
The control unit 210 causes the tomographic image forming unit 221 to form tomographic images G11 and G12 corresponding to the cross sections C11 and C12 based on the data acquired by the first scan in step S13. Further, the control unit 210 causes the phase image forming unit 310 to form a phase image of the cross section C2 of interest based on the data acquired by the second scanning in step S13. Further, the tomographic image forming unit 221 forms a tomographic image of the target cross section C2 based on the data.

(S15:血管領域を特定)
制御部210は、ステップS14において形成された断層像における注目血管Dbを特定させる。このとき、制御部210は、データ処理部300によるセグメンテーション処理により特定された所定の層領域(例えば、内境界膜からブルッフ膜までの間の層領域)における注目血管Dbに相当する画像領域を血管領域として特定する。
(S15: identify the blood vessel region)
The control unit 210 specifies the target blood vessel Db in the tomographic image formed in step S14. At this time, the control unit 210 selects an image region corresponding to the target blood vessel Db in a predetermined layer region (for example, a layer region between the internal limiting membrane and Bruch's membrane) specified by the segmentation processing by the data processing unit 300. Identify as a region.

(S16:血管の傾きを算出)
続いて、制御部210は、上記のように注目断面C2における注目血管Dbの傾きUを傾き算出部322に算出させる。
(S16: Calculate inclination of blood vessel)
Subsequently, the control unit 210 causes the inclination calculation unit 322 to calculate the inclination U of the target blood vessel Db in the target cross section C2 as described above.

(S17:血流速度を算出)
続いて、制御部210は、ステップS13における第1走査に基づき算出された傾きUと、ステップS13における第2走査により取得された位相画像とに基づいて、注目断面C2における血流速度を血流速度算出部323に算出させる。
(S17: Calculate blood flow velocity)
Subsequently, the control unit 210 calculates the blood flow velocity in the target cross section C2 based on the gradient U calculated based on the first scan in step S13 and the phase image acquired in the second scan in step S13. The speed calculator 323 is made to calculate.

(S18:血管径を算出)
次に、制御部210は、注目断面C2における注目血管Dbの径を血管径算出部324に算出させる。
(S18: Calculate blood vessel diameter)
Next, the control unit 210 causes the blood vessel diameter calculation unit 324 to calculate the diameter of the target blood vessel Db in the target cross section C2.

(S19:血流量を算出)
続いて、制御部210は、ステップS17において算出された血流速度と、ステップS18において算出された血管径とに基づいて、注目血管Db内を流れる血液の流量を血流量算出部325に算出させる。
(S19: Calculate blood flow)
Subsequently, the control unit 210 causes the blood flow calculation unit 325 to calculate the flow rate of blood flowing through the target blood vessel Db based on the blood flow velocity calculated in step S17 and the blood vessel diameter calculated in step S18. .

制御部210は、以上のように算出された血流速度、血管径、及び血流量の少なくとも1つを含む血流情報を血流情報生成部320に生成させることが可能である。この実施形態では、制御部210は、少なくとも血流速度を含む血流情報を血流情報生成部320に生成させる。更に、制御部210は、血流情報解析部330を制御することにより、血流情報生成部320により生成された少なくとも1心周期より長い期間にわたる血流速度の時系列データを含む血流情報を生成させる。 The control unit 210 can cause the blood flow information generation unit 320 to generate blood flow information including at least one of the blood flow velocity, blood vessel diameter, and blood flow volume calculated as described above. In this embodiment, the controller 210 causes the blood flow information generator 320 to generate blood flow information including at least the blood flow velocity. Furthermore, the control unit 210 controls the blood flow information analysis unit 330 to generate the blood flow information including time-series data of the blood flow velocity over a period longer than at least one cardiac cycle generated by the blood flow information generation unit 320. generate.

以上で、図13のステップS1の処理は終了である(エンド)。 With this, the processing of step S1 in FIG. 13 is completed (end).

図13のステップS5の処理は、図15に示すように行われる。 The process of step S5 in FIG. 13 is performed as shown in FIG.

(S21:ウェーブレット変換)
図13のステップS5では、制御部210は、ステップS4において正規化された血流速度の時系列データに対するウェーブレット変換をウェーブレット変換部351に実行させる。
(S21: wavelet transform)
In step S5 of FIG. 13, the control unit 210 causes the wavelet transform unit 351 to perform wavelet transform on the time-series data of the blood flow velocity normalized in step S4.

ウェーブレット変換部351は、上記のように、血流速度の時系列データを被解析信号x(t)として、式(6)に従ってウェーブレット変換を行い、スケール値とシフト値の関数である変換データWΨ[x(t)]を求める。 As described above, the wavelet transform unit 351 performs wavelet transform using the time-series data of the blood flow velocity as the signal to be analyzed x(t) according to the equation (6), and converts the transformed data W Obtain Ψ [x(t)].

(S22:最大となる位置を探索)
続いて、制御部210は、ステップS21において求められた変換データWΨ[x(t)]の特徴位置を特徴位置探索部352に探索させる。
(S22: search for maximum position)
Subsequently, the control section 210 causes the feature position searching section 352 to search for the feature positions of the transformed data W Ψ [x(t)] obtained in step S21.

特徴位置探索部352は、変換データWΨ[x(t)]が最大を示す位置を特徴位置(例えば、図12の特徴位置CP)として探索する。 The feature position searching unit 352 searches for the position where the transformed data W Ψ [x(t)] is maximum as a feature position (for example, the feature position CP in FIG. 12).

(S23:スケール値とシフト値とを特定)
次に、制御部210は、ステップS22において特定された特徴位置におけるスケール値及びシフト値(例えば、図12のスケール値a0及びシフト値b0)を特徴量として特徴量特定部353に特定させる。
(S23: Identify scale value and shift value)
Next, the control unit 210 causes the feature amount specifying unit 353 to specify the scale value and the shift value (for example, the scale value a0 and the shift value b0 in FIG. 12) at the feature position specified in step S22 as the feature amount.

以上で、図13のステップS5の処理は終了である(エンド)。 With this, the process of step S5 in FIG. 13 is completed (end).

ここで、医師によりあらかじめ健常者グループに分類された36名の被検者、及び医師によりあらかじめ疾病者グループに分類された8名の被検者について、血流速度の時系列データを第1実施形態に適用した例について説明する。なお、疾病者グループに分類された被検者は、包括的高度慢性下肢虚血(Chronic limb-threatening ischemia:CLTI)、腹部大動脈瘤(Abdominal Aortic Aneurysm:AAA)、急性大動脈解離(Acute Aortic Dissection)、急性冠症候群(Acute Coronary Syndrome:ACS)のいずれかの疾病を伴うと診断された被検者である。 Here, the time-series data of the blood flow velocity for 36 subjects preliminarily classified into the healthy group by the doctor and 8 subjects preliminarily classified into the diseased group by the doctor were obtained. An example applied to a form will be described. In addition, the subjects classified into the disease group are comprehensive chronic limb-threating ischemia (CLTI), abdominal aortic aneurysm (Abdominal Aortic Aneurysm: AAA), acute aortic dissection (Acute Aortic Dissection) , Acute Coronary Syndrome (ACS).

図16に、健常者グループに分類された被検者の血流速度の時系列データと、疾病者グループに分類された被検者の血流速度の時系列データの一例を示す。図16において、各時系列データは、補間部342により1拍動期間に2個のサンプリング数となるように補間され、且つ、正規化部343による正規化処理と同様に正規化されている。 FIG. 16 shows an example of time-series data of blood flow velocities of subjects classified into the healthy group and time-series data of blood flow velocities of subjects classified into the sick group. In FIG. 16, each time-series data is interpolated by the interpolator 342 so that the number of samples is 27 in one beat period, and normalized in the same manner as the normalization process by the normalizer 343. .

図16に示すように、健常者グループと疾病者グループとの間で血流速度の変化の差違を明確に識別することは非常に困難である。 As shown in FIG. 16, it is very difficult to clearly identify the difference in blood flow velocity between the healthy subject group and the diseased subject group.

図17に、図16に示す血流速度の時系列データから算出されたウェーブレット変換データの特徴位置における特徴量の分布の一例を示す。図17において、横軸はシフト値を表し、縦軸はスケール値を表す。 FIG. 17 shows an example of distribution of feature quantities at feature positions of wavelet transform data calculated from the time-series data of blood flow velocity shown in FIG. In FIG. 17, the horizontal axis represents the shift value and the vertical axis represents the scale value.

図17に示すように、血流速度の時系列データに対してウェーブレット変換を行うことにより算出された特徴量は、範囲GR0、GR1のいずれかに含まれる。範囲GR0は、健常者グループに分類された被検者が分布する範囲である。範囲GR1は、疾病者グループに分類された被検者が分布する範囲である。例えば、分類部360は、解析対象の被検者の血流速度の時系列データに対してウェーブレット変換を行うことにより算出された特徴量が、範囲GR0、GR1に含まれるか否かを判別することにより、被検者を分類する。それにより、解析対象の被検者を健常者グループ及び疾病者グループのいずれかに高精度に分類することができる。 As shown in FIG. 17, the feature amount calculated by performing wavelet transform on the time-series data of blood flow velocity is included in either range GR0 or GR1. A range GR0 is a range in which subjects classified into the healthy subject group are distributed. A range GR1 is a range in which subjects classified into the patient group are distributed. For example, the classification unit 360 determines whether or not the feature amount calculated by wavelet transforming the time-series data of the blood flow velocity of the subject to be analyzed is included in the ranges GR0 and GR1. Classify the subject by As a result, the subject to be analyzed can be classified into either the healthy subject group or the diseased subject group with high accuracy.

分類部360は、上記のように、回帰分析により得られた回帰直線又は回帰曲線、或いは、機械学習により得られた分類モデル(学習済みモデル)を用いて、解析対象の被検者を健常者グループ及び疾病者グループのいずれかに高精度に分類することができる。 As described above, the classification unit 360 uses a regression line or curve obtained by regression analysis, or a classification model (learned model) obtained by machine learning, to classify subjects to be analyzed as healthy subjects. It can be classified with high accuracy into either the group and the sick group.

範囲GR0、GR1が重複する範囲GR2は、健常者と疾病者との中間領域の被検者が分布する範囲である。従って、解析対象の被検者が範囲GR2に含まれるか否かを判別することにより、解析対象の被検者に対する精密検査の検査結果を特に注意深く精査する必要があることを、被検者、検者、又は医師等に促すことができる。 A range GR2 in which the ranges GR0 and GR1 overlap is a range in which subjects in an intermediate region between healthy subjects and diseased subjects are distributed. Therefore, by determining whether or not the subject to be analyzed is included in the range GR2, the subject, It is possible to prompt the examiner or the doctor.

以上説明したように、第1実施形態によれば、被検眼の眼底における1拍動期間の血流速度の時系列データに対してウェーブレット変換を行うことにより、血流速度の時系列データの特徴量を取得することができる。取得された特徴量に基づいて被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類することで、被検者の血管状態を高精度に評価することができるようになる。 As described above, according to the first embodiment, the wavelet transform is performed on the time-series data of the blood flow velocity in the fundus of the eye to be inspected for one pulsation period, thereby obtaining the characteristics of the time-series data of the blood flow velocity. quantity can be obtained. By classifying the subject into one of a plurality of groups including a healthy subject group and a diseased subject group based on the acquired feature amount, the vascular state of the subject can be evaluated with high accuracy. Become.

<第2実施形態>
第1実施形態では、時間周波数解析としてウェーブレット変換を行う場合について説明したが、実施形態に係る構成はこれに限定されるものではない。第2実施形態では、時間周波数解析として多重解像度解析を行う。
<Second embodiment>
In the first embodiment, the case of performing wavelet transform as time-frequency analysis has been described, but the configuration according to the embodiment is not limited to this. In the second embodiment, multiresolution analysis is performed as time-frequency analysis.

以下、第2実施形態について、第1実施形態との相違点を中心に説明する。 The second embodiment will be described below, focusing on the differences from the first embodiment.

第2実施形態に係る眼科装置の構成が第1実施形態に係る眼科装置1の構成と異なる点は、解析部350に代えて解析部350aが設けられている点である。 The configuration of the ophthalmologic apparatus according to the second embodiment differs from the configuration of the ophthalmologic apparatus 1 according to the first embodiment in that an analysis section 350a is provided instead of the analysis section 350. FIG.

(解析部350a)
図18に、解析部350aの機能ブロック図の一例を示す。
(analysis unit 350a)
FIG. 18 shows an example of a functional block diagram of the analysis unit 350a.

解析部350aは、1拍動期間における2(kは2以上の自然数)次元の血流速度の時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数、n<k)深度まで繰り返し分解する多重解像度解析を行い、第n深度における近似項の2k-n個の項の二乗和と第n深度における微小項の2k-(n-1)個の項の二乗和とを特徴量として求める。このような解析部350aは、多重解像度解析部351aと、特徴量算出部352aとを含む。 Analysis unit 350a decomposes 2 k (k is a natural number of 2 or more)-dimensional blood flow velocity time-series data in one pulsation period into approximate terms and minute terms at the first depth, and m-th (m is A multiresolution analysis is performed by repeatedly decomposing the approximation term at the (m+1)th depth into the approximation term and the minute term at the (m+1)th depth up to the nth (n is a natural number, n<k) depth, and A square sum of 2 k−n approximate terms at n depths and a square sum of 2 k−(n−1) minute terms at n-th depth are obtained as feature amounts. Such an analysis unit 350a includes a multi-resolution analysis unit 351a and a feature quantity calculation unit 352a.

(多重解像度解析部351a)
多重解像度解析部351aは、1拍動期間における2次元(2個のサンプリング点)の血流速度の時系列データに対して多重解像度解析を行う。
(Multi-resolution analysis unit 351a)
The multiresolution analysis unit 351a performs multiresolution analysis on 2 k -dimensional (2 k sampling points) blood flow velocity time-series data in one pulsation period.

ここで、血流速度の時系列データをf(0)(x)とし、スケーリング関数である近似項(approximation)をf(j)(x)(jは深度(次数))とし、ウェーブレット関数である微小項(detail coefficient)をg(j)(x)とする。多重解像度解析部351aは、次の式(7)に従ってf(0)(x)を分解する(式(7)において、n=1の場合)。 Here, let f (0) (x) be the time series data of the blood flow velocity, let f (j) (x) (j be the depth (order)) be the approximation term that is the scaling function, and let the wavelet function Let g (j) (x) be a certain detail coefficient. The multi-resolution analysis unit 351a decomposes f (0) (x) according to the following equation (7) (when n=1 in equation (7)).

Figure 2022127783000008
Figure 2022127783000008

すなわち、多重解像度解析部351aは、所定の深度(例えば、深度n=5)までf(0)(x)を式(8)に示すように分解する。 That is, the multiresolution analysis unit 351a decomposes f (0) (x) up to a predetermined depth (for example, depth n=5) as shown in Equation (8).

Figure 2022127783000009
Figure 2022127783000009

式(8)において、スケーリング関数(ファーザーウェーブレット)及びウェーブレット関数(マザーウェーブレット)を下記のように定義すると、f(j)(x)は式(9)、式(10)のように表され、g(j)(x)は式(11)、式(12)のように表される。 In equation (8), when the scaling function (father wavelet) and wavelet function (mother wavelet) are defined as follows, f (j) (x) is represented by equations (9) and (10), g (j) (x) is represented by equations (11) and (12).

Figure 2022127783000010
Figure 2022127783000010

Figure 2022127783000011
Figure 2022127783000011

図19A及び図19Bに、多重解像度解析部351aの動作説明図を示す。図19Aは、深度が「5」になるまで血流速度の時系列データf(0)(x)(original)を近似項と微小項とに繰り返し分解する様子を模式的に表す。なお、図19Aでは、各深度において、近似項と微小項とにより再現される波形(時系列データ)が模式的に図示されている。図19Bは、各深度における近似項数と微小項数とを模式的に表す。 19A and 19B are diagrams for explaining the operation of the multi-resolution analysis unit 351a. FIG. 19A schematically shows how the blood flow velocity time-series data f (0) (x) (original) is repeatedly decomposed into approximate terms and minute terms until the depth reaches “5”. Note that FIG. 19A schematically illustrates waveforms (time-series data) reproduced by approximate terms and minute terms at each depth. FIG. 19B schematically represents the number of approximate terms and the number of minute terms at each depth.

図19Aに示すように、多重解像度解析部351aは、血流速度の時系列データf(0)(x)を近似項f(1)(x)と微小項g(1)(x)とに分解し(深度=1、第1深度)、f(1)(x)を近似項f(2)(x)と微小項g(2)(x)とに分解し(深度=2、第2深度)、・・・、f(4)(x)を近似項f(5)(x)と微小項g(5)(x)とに分解する(深度=5、第5深度)。これ以降も同様に分解することが可能である。 As shown in FIG. 19A, the multi-resolution analysis unit 351a divides the blood flow velocity time-series data f (0) (x) into an approximation term f (1) (x) and a minute term g (1) (x). (depth=1, first depth), f (1) (x) is decomposed into approximate term f (2) (x) and minute term g (2) (x) (depth=2, second depth ) , . After that, it is possible to decompose in the same way.

すなわち、多重解像度解析部351aは、1拍動期間における血流速度の時系列データを第1深度における近似項と微小項とに分解すると共に、第m深度の近似項を第(m+1)深度の近似項と微小項とに分解することを第n深度(所定の深度)まで繰り返す多重解像度解析を行う。 That is, the multiresolution analysis unit 351a decomposes the time-series data of the blood flow velocity in one pulsation period into an approximation term and a minute term at the first depth, and converts the approximation term at the m-th depth to the (m+1)-th depth. A multi-resolution analysis is performed by repeating decomposition into approximation terms and minute terms up to the n-th depth (predetermined depth).

図19Bに示すように、第1深度では、2(例えば、k=7)個の項数を有する2次元の元の時系列データ(original)が2k-1次元の近似項と2次元の微小項とに分解される。第2深度では、第1深度における2k-1次元の近似項が2k-2次元の近似項と2k-1次元の微小項とに分解される。第n深度では、第(n-1)深度における2k-(n-1)次元の近似項が2k-n次元の近似項と2k-(n-1)次元の微小項とに分解される。すなわち、深度が深くなるに従って次元数(項数)が減少する。このような近似項の項数と微小項の項数との関係は、式(7)、式(8)から導き出される。 As shown in FIG. 19B, at the first depth, the 2 k -dimensional original time series data (original) having 2 k (for example, k=7) terms are combined with 2 k−1 dimensional approximation terms and 2 k−1 approximation terms. is decomposed into k -dimensional fractional terms. At the second depth, the 2 k−1 dimensional approximation terms at the first depth are decomposed into 2 k−2 dimensional approximation terms and 2 k−1 dimensional minute terms. At the nth depth, the 2 k−(n−1) dimensional approximation term at the (n−1)th depth is decomposed into 2 k−n dimensional approximation terms and 2 k−(n−1) dimensional minute terms. be done. That is, the number of dimensions (number of terms) decreases as the depth increases. The relationship between the number of approximate terms and the number of minute terms is derived from equations (7) and (8).

なお、図19Aに示す各深度における再現波形に基づいて、近似項と微小項との分解の繰り返し回数(次数、深度)を決定することが可能である。或いは、各深度における再現波形と直前の深度における再現波形との差分に基づいて、近似項と微小項との分解の繰り返し回数を決定することが可能である。 Note that it is possible to determine the number of repetitions (order, depth) of the decomposition of the approximation term and the minute term based on the reproduced waveform at each depth shown in FIG. 19A. Alternatively, it is possible to determine the number of repetitions of the decomposition of the approximation term and the minute term based on the difference between the reproduced waveform at each depth and the reproduced waveform at the immediately preceding depth.

(特徴量算出部352a)
特徴量算出部352aは、多重解像度解析部351aにより所定の深度まで分解された近似項と微小項とに基づいて特徴量を算出する。
(Feature amount calculator 352a)
The feature quantity calculation unit 352a calculates a feature quantity based on the approximation term and the minute term resolved to a predetermined depth by the multiresolution analysis unit 351a.

特徴量算出部352aは、式(13)、式(14)に示すように、多重解像度解析部351aにより得られた第n深度における近似項の2k-n個(次元)の項の二乗和Aと第n深度における微小項の2k-(n-1)個(次元)の項の二乗和Dとを特徴量として算出する。式(13)において、a は、第n深度における近似項のq番目の項を表す。式(14)において、d は、第n深度における微小項のq番目の項を表す。例えば、n=5、k=7である。 The feature amount calculation unit 352a calculates the sum of squares of 2 k−n (dimension) terms of the approximation terms at the n-th depth obtained by the multi-resolution analysis unit 351a, as shown in equations (13) and (14). A n and the sum of squares D n of 2 k−(n−1) (dimensions) of minute terms at the n-th depth are calculated as feature amounts. In Equation (13), a q n represents the q-th term of the approximation terms at the n-th depth. In equation (14), d q n represents the qth term of the microterms at the nth depth. For example, n=5 and k=7.

Figure 2022127783000012
Figure 2022127783000012

第2実施形態に係る眼科装置の動作は、第1実施形態に係る眼科装置1の動作とほぼ同様である。図13のステップS5の処理は、図20に示すように行われる。 The operation of the ophthalmologic apparatus according to the second embodiment is substantially the same as the operation of the ophthalmologic apparatus 1 according to the first embodiment. The process of step S5 in FIG. 13 is performed as shown in FIG.

図20に、図13のステップS5の処理例のフロー図を表す。記憶部212には、図13、図14、及び図20に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図13、図14、及び図20に示す処理を実行する。 FIG. 20 shows a flow chart of a processing example of step S5 in FIG. The storage unit 212 stores computer programs for realizing the processes shown in FIGS. 13, 14, and 20. FIG. The main control unit 211 executes the processes shown in FIGS. 13, 14 and 20 by operating according to this computer program.

(S31:多重解像度解析)
図13のステップS5では、制御部210は、ステップS4において正規化された血流速度の時系列データに対する多重解像度解析を多重解像度解析部351aに実行させる。
(S31: Multi-resolution analysis)
In step S5 of FIG. 13, the control unit 210 causes the multiresolution analysis unit 351a to perform multiresolution analysis on the time-series data of the blood flow velocity normalized in step S4.

多重解像度解析部351aは、上記のように、血流速度の時系列データに対して、式(7)~式(12)に従って多重解像度解析を行う。上記のように、例えば、n=5、k=7である。 As described above, the multi-resolution analysis unit 351a performs multi-resolution analysis on the blood flow velocity time-series data according to equations (7) to (12). As above, for example n=5 and k=7.

(S32:近似項の二乗和と微小項の二乗和を算出)
続いて、制御部210は、ステップS31において求められた近似項及び微小項を用いて特徴量を特徴量算出部352aに算出させる。
(S32: Calculate sum of squares of approximate terms and sum of squares of minute terms)
Subsequently, the control unit 210 causes the feature amount calculation unit 352a to calculate the feature amount using the approximation term and the minute term obtained in step S31.

特徴量算出部352aは、上記のように、ステップS31において得られた第5深度における近似項の27-5(=2)個の項の二乗和と第5深度における微小項の27-4(=2)個の項の二乗和とを特徴量として算出する。 As described above, the feature amount calculation unit 352a calculates the sum of squares of 2 7−5 (=2 2 ) approximate terms at the fifth depth obtained in step S31 and 2 7 −4 (=2 3 ) terms and the sum of squares are calculated as feature quantities.

以上で、図13のステップS5の処理は終了である(エンド)。 With this, the process of step S5 in FIG. 13 is completed (end).

ここで、第1実施形態と同様に、あらかじめ健常者グループに分類された36名の被検者、及びあらかじめ疾病者グループに分類された8名の被検者(図16参照)について、血流速度の時系列データを第2実施形態に適用した例について説明する。 Here, similarly to the first embodiment, the blood flow was measured for 36 subjects preliminarily classified into the healthy subject group and 8 subjects preliminarily classified into the diseased subject group (see FIG. 16). An example in which speed time series data is applied to the second embodiment will be described.

図21に、図16に示す血流速度の時系列データに対して多重解像度解析を行うことにより算出された特徴量(第5深度における近似項の2個の項と第5深度における微小項の2個の項の二乗和)の分布の一例を示す。図21において、横軸は第5深度における近似項の2個の項の二乗和を表し、縦軸は第5深度における微小項の2個の項の二乗和を表す。 FIG . 21 shows the feature values calculated by performing multiresolution analysis on the time-series data of blood flow velocity shown in FIG. An example of the distribution of the sum of squares of 23 terms of . In FIG. 21, the horizontal axis represents the square sum of 22 approximate terms at the fifth depth, and the vertical axis represents the square sum of 23 minute terms at the fifth depth.

図21に示すように、血流速度の時系列データに対して多重解像度解析を行うことにより算出された特徴量は、範囲GR10、GR11のいずれかに含まれる。範囲GR10は、健常者グループに分類された被検者が分布する範囲である。範囲GR11は、疾病者グループに分類された被検者が分布する範囲である。例えば、分類部360は、解析対象の被検者の血流速度の時系列データに対して多重解像度解析を行うことにより算出された特徴量が、範囲GR10、GR11に含まれるか否かを判別することにより、被検者を分類する。それにより、解析対象の被検者を健常者グループ及び疾病者グループのいずれかに高精度に分類することができる。 As shown in FIG. 21, the feature amount calculated by performing multi-resolution analysis on the time-series data of blood flow velocity is included in either range GR10 or GR11. A range GR10 is a range in which subjects classified into the healthy subject group are distributed. A range GR11 is a range in which subjects classified into the patient group are distributed. For example, the classification unit 360 determines whether or not the feature amount calculated by performing multiresolution analysis on the time-series data of the blood flow velocity of the subject to be analyzed is included in the ranges GR10 and GR11. Classify the subject by As a result, the subject to be analyzed can be classified into either the healthy subject group or the diseased subject group with high accuracy.

分類部360は、上記のように、回帰分析により得られた回帰直線又は回帰曲線、或いは、機械学習により得られた分類モデル(学習済みモデル)を用いて、解析対象の被検者を健常者グループ及び疾病者グループのいずれかに高精度に分類することができる。 As described above, the classification unit 360 uses a regression line or curve obtained by regression analysis, or a classification model (learned model) obtained by machine learning, to classify subjects to be analyzed as healthy subjects. It can be classified with high accuracy into either the group and the sick group.

第2実施形態では、学習部370は、被検者の血流速度の時系列データから得られた上記の第5深度における近似項の2k-n個の項の二乗和及び第5深度における微小項の2k-(n-1)個の項の二乗和の組み合わせを訓練データとし、訓練データの分類結果を教師データとする公知の教師あり機械学習を実行することにより分類部360の機能を実現する分類モデルを生成する。ここで、分類結果は、事前に医師等により上記の複数のグループのいずれに分類されるかが判断されたものである。 In the second embodiment, the learning unit 370 obtains the sum of squares of the approximation terms at the fifth depth obtained from the time - series data of the blood flow velocity of the subject and the sum of squares at the fifth depth The function of the classification unit 360 is performed by executing known supervised machine learning using a combination of sums of squares of 2 k-(n-1) terms of the minute terms as training data and using the classification results of the training data as teacher data. Generate a classification model that implements Here, the classification results are obtained by determining which of the plurality of groups the patient should be classified into in advance by a doctor or the like.

範囲GR10、GR11が重複する範囲GR12は、健常者と疾病者との中間領域の被検者が分布する範囲である。従って、解析対象の被検者が範囲GR12に含まれるか否かを判別することにより、解析対象の被検者に対する精密検査の検査結果を特に注意深く精査する必要があることを、被検者、検者、又は医師等に促すことができる。 A range GR12 in which the ranges GR10 and GR11 overlap is a range in which subjects in an intermediate region between healthy subjects and diseased subjects are distributed. Therefore, by determining whether or not the subject to be analyzed is included in the range GR12, the subject, It is possible to prompt the examiner or the doctor.

以上説明したように、第2実施形態によれば、被検眼の眼底における1拍動期間の血流速度の時系列データに対して多重解像度解析を行うことにより、血流速度の時系列データの特徴量を取得することができる。取得された特徴量に基づいて被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類することで、被検者の血管状態を高精度に評価することができるようになる。 As described above, according to the second embodiment, multi-resolution analysis is performed on the time-series data of the blood flow velocity for one pulsation period in the fundus of the eye to be examined. Features can be obtained. By classifying the subject into one of a plurality of groups including a healthy subject group and a diseased subject group based on the acquired feature amount, the vascular state of the subject can be evaluated with high accuracy. Become.

<第3実施形態>
上記の実施形態では、時間周波数解析としてウェーブレット変換又は多重解像度解析を行う場合について説明したが、実施形態に係る構成はこれに限定されるものではない。第3実施形態に係る眼科装置は、時間周波数解析としてウェーブレット変換と多重解像度解析とを組み合わせて、被検者を健常者グループ及び疾病者グループのいずれかに分類するように構成される。
<Third Embodiment>
In the above embodiment, a case where wavelet transform or multi-resolution analysis is performed as time-frequency analysis has been described, but the configuration according to the embodiment is not limited to this. The ophthalmologic apparatus according to the third embodiment is configured to combine wavelet transform and multi-resolution analysis as time-frequency analysis to classify subjects into either a healthy subject group or a diseased subject group.

以下、第3実施形態について、第1実施形態又は第2実施形態との相違点を中心に説明する。 The third embodiment will be described below, focusing on the differences from the first embodiment or the second embodiment.

第3実施形態に係る眼科装置の構成が第1実施形態に係る眼科装置1又は第2実施形態に係る眼科装置と異なる点は、解析部350又は解析部350aに代えて解析部350bが設けられている点である。 The configuration of the ophthalmologic apparatus according to the third embodiment differs from that of the ophthalmologic apparatus 1 according to the first embodiment or the ophthalmologic apparatus according to the second embodiment in that an analysis unit 350b is provided instead of the analysis unit 350 or the analysis unit 350a. The point is that

(解析部350b)
図22に、解析部350bの機能ブロック図の一例を示す。図22において、図8又は図18と同様の部分には同一符号を付し、適宜説明を省略する。
(analysis unit 350b)
FIG. 22 shows an example of a functional block diagram of the analysis unit 350b. In FIG. 22, parts similar to those in FIG. 8 or FIG.

解析部350bは、第1解析部361bと、第2解析部362bとを含む。第1解析部361bは、第1実施形態と同様に、血流速度の時系列データに対してウェーブレット変換を行うことにより、血流速度の時系列データの特徴量を取得する。第2解析部362bは、第2実施形態と同様に、血流速度の時系列データに対して多重解像度解析を行うことにより、血流速度の時系列データの特徴量を取得する。すなわち、第1解析部361bは、ウェーブレット変換部351と、特徴位置探索部352と、特徴量特定部353とを含む。第2解析部362bは、多重解像度解析部351aと、特徴量算出部352aとを含む。 Analysis unit 350b includes a first analysis unit 361b and a second analysis unit 362b. As in the first embodiment, the first analysis unit 361b acquires the feature amount of the time-series data of blood flow velocity by performing wavelet transform on the time-series data of blood flow velocity. As in the second embodiment, the second analysis unit 362b acquires the feature amount of the time-series data of blood flow velocity by performing multi-resolution analysis on the time-series data of blood flow velocity. That is, the first analysis unit 361b includes a wavelet transform unit 351, a feature position search unit 352, and a feature amount identification unit 353. The second analysis unit 362b includes a multi-resolution analysis unit 351a and a feature quantity calculation unit 352a.

具体的には、第1解析部361bは、被検者の1拍動期間における血流速度の時系列データに対してウェーブレット変換を行い、取得されたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とを特徴量として求める。第2解析部362bは、第1解析部361bの解析対象である血流速度の時系列データに対して多重解像度解析を行い、第n深度における近似項の2k-n個の項の二乗和と第n深度における微小項の2k-(n-1)個の項の二乗和とを特徴量として求める。 Specifically, the first analysis unit 361b performs wavelet transform on the time-series data of the blood flow velocity in one pulsation period of the subject, and scales the mother wavelet at the feature position of the acquired wavelet transform data. A value and a shift value are obtained as feature amounts. The second analysis unit 362b performs multiresolution analysis on the time-series data of blood flow velocity, which is the analysis target of the first analysis unit 361b, and calculates the sum of squares of 2 k−n approximate terms at the n-th depth. and the sum of squares of 2 k−(n−1) minute terms at the n-th depth as feature quantities.

第3実施形態では、分類部360は、第1解析部361bにより得られた変換データWΨ[x(t)]の特徴位置におけるマザーウェーブレットのスケール値とシフト値と、第2解析部362bにより得られた第n深度における近似項の2k-n個の項の二乗和と第n深度における微小項の2k-(n-1)個の項の二乗和とに基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。 In the third embodiment, the classification unit 360 uses the scale value and shift value of the mother wavelet at the feature position of the transformed data W Ψ [x(t)] obtained by the first analysis unit 361b, and the Based on the obtained sum of squares of 2 k−n terms of the approximation term at the n-th depth and the sum of squares of 2 k-(n-1) terms of the minute term at the n-th depth, the subject are classified into one of several groups, including a healthy group and a sick group.

いくつかの実施形態では、分類部360は、第1解析部361bにより得られた特徴量に基づいて被検者が範囲GR0に含まれ、且つ、第2解析部362bにより得られた特徴量に基づいて被検者が範囲GR10に含まれるとき、当該被検者を健常者グループに分類する。また、分類部360は、第1解析部361bにより得られた特徴量に基づいて被検者が範囲GR1に含まれ、且つ、第2解析部362bにより得られた特徴量に基づいて被検者が範囲GR11に含まれるとき、当該被検者を疾病者グループに分類する。 In some embodiments, the classification unit 360 determines that the subject is included in the range GR0 based on the feature amount obtained by the first analysis unit 361b and that the feature amount obtained by the second analysis unit 362b When the subject is included in the range GR10 based on the above, the subject is classified into the healthy subject group. Further, the classification unit 360 determines that the subject is included in the range GR1 based on the feature amount obtained by the first analysis unit 361b, and determines that the subject is included in the range GR1 based on the feature amount obtained by the second analysis unit 362b. is included in the range GR11, the subject is classified into the patient group.

更に、分類部360は、第1解析部361bにより得られた特徴量に基づいて被検者が範囲GR1に含まれ、且つ、第2解析部362bにより得られた特徴量に基づいて被検者が範囲GR10に含まれるとき、又は第1解析部361bにより得られた特徴量に基づいて被検者が範囲GR0に含まれ、且つ、第2解析部362bにより得られた特徴量に基づいて被検者が範囲GR11に含まれるとき、当該被検者を中間領域のグループに分類する。 Further, the classification unit 360 determines that the subject is included in the range GR1 based on the feature amount obtained by the first analysis unit 361b, and determines that the subject is included in the range GR1 based on the feature amount obtained by the second analysis unit 362b. is included in the range GR10, or the subject is included in the range GR0 based on the feature amount obtained by the first analysis unit 361b, and the subject based on the feature amount obtained by the second analysis unit 362b When the examinee is included in the range GR11, the examinee is classified into the middle region group.

学習部370は、被検者の血流速度の時系列データから得られたスケール値及びシフト値と第n深度における近似項の2k-n個の項の二乗和と第n深度における微小項の2k-(n-1)個の項の二乗和との組み合わせを訓練データとし、訓練データの分類結果を教師データとする公知の教師あり機械学習を実行することにより分類部360の機能を実現する分類モデルを生成することが可能である。ここで、分類結果は、事前に医師等により上記の複数のグループのいずれに分類されるかが判断されたものである。 The learning unit 370 obtains the scale value and shift value obtained from the time-series data of the blood flow velocity of the subject, the square sum of 2 k−n approximate terms at the n-th depth, and the minute term at the n-th depth. The function of the classification unit 360 is performed by executing known supervised machine learning using a combination of sums of squares of 2 k-(n-1) terms as training data and using the classification result of the training data as teacher data. It is possible to generate a classification model that implements. Here, the classification results are obtained by determining which of the plurality of groups the patient should be classified into in advance by a doctor or the like.

以上説明したように、第3実施形態によれば、被検眼の眼底における1拍動期間の血流速度の時系列データに対してウェーブレット変換及び多重解像度解析を行うことにより、血流速度の時系列データの複数の特徴量を取得する。取得された複数の特徴量を組み合わせて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類することで、被検者の血管状態を高精度に評価することができるようになる。 As described above, according to the third embodiment, by performing wavelet transform and multi-resolution analysis on the time-series data of the blood flow velocity in one pulsation period in the fundus of the eye to be examined, the time series of the blood flow velocity Get multiple features of series data. By combining a plurality of acquired feature values and classifying the subject into one of a plurality of groups including a healthy subject group and a diseased subject group, the vascular state of the subject can be evaluated with high accuracy. become able to.

<第4実施形態>
第1実施形態~第3実施形態では、血流速度の時系列データに対して時間周波数解析を行う場合について説明したが、実施形態に係る構成はこれに限定されるものではない。第4実施形態に係る眼科装置は、血流速度の時系列データを回帰分析することにより、被検者を健常者グループ及び疾病者グループのいずれかに分類するように構成される。
<Fourth Embodiment>
In the first to third embodiments, cases where time-frequency analysis is performed on time-series data of blood flow velocity have been described, but the configuration according to the embodiments is not limited to this. The ophthalmologic apparatus according to the fourth embodiment is configured to classify subjects into either a healthy subject group or a diseased subject group by performing regression analysis on time-series data of blood flow velocities.

以下、第4実施形態について、第1実施形態との相違点を中心に説明する。 The fourth embodiment will be described below, focusing on differences from the first embodiment.

第4実施形態に係る眼科装置の構成が第1実施形態に係る眼科装置1と異なる点は、血流情報解析部330に代えて血流情報解析部330cが設けられている点である。 The configuration of the ophthalmologic apparatus according to the fourth embodiment differs from that of the ophthalmologic apparatus 1 according to the first embodiment in that a blood flow information analysis section 330c is provided instead of the blood flow information analysis section 330 .

(血流情報解析部330c)
図23に、血流情報解析部330cの機能ブロック図の一例を示す。図23において、図7と同様の部分には同一符号を付し、適宜説明を省略する。
(Blood flow information analysis unit 330c)
FIG. 23 shows an example of a functional block diagram of the blood flow information analysis section 330c. In FIG. 23, the same parts as in FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

血流情報解析部330cは、抽出部340と、標準化部380cと、分類部360cと、学習部370cとを含む。抽出部340は、心周期特定部341と、補間部342と、正規化部343とを含む。標準化部380cは、抽出部340により抽出された血流速度の時系列データを標準化する。分類部360cは、標準化部380cにより標準化された血流速度の時系列データに基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。学習部370cは、分類部360cの機能を実現する分類モデルを生成する。 The blood flow information analysis unit 330c includes an extraction unit 340, a standardization unit 380c, a classification unit 360c, and a learning unit 370c. The extractor 340 includes a cardiac cycle identifier 341 , an interpolator 342 and a normalizer 343 . The standardization unit 380c standardizes the blood flow velocity time series data extracted by the extraction unit 340 . The classification unit 360c classifies the subject into one of a plurality of groups including a healthy subject group and a diseased subject group based on the blood flow velocity time series data standardized by the standardization unit 380c. The learning unit 370c generates a classification model that implements the function of the classification unit 360c.

(標準化部380c)
標準化部380cは、血流速度の時系列データの分布を標準正規分布に変換する。時系列データを構成する各データをxとし、時系列データの平均値をμとし、時系列データの標準偏差をσとすると、標準化部380cは、血流速度の時系列データの分布を、式(15)に従って変換される標準化変数zの標準正規分布に変換する。
(Standardization unit 380c)
The standardization unit 380c converts the distribution of the blood flow velocity time series data into a standard normal distribution. Let x be each data constituting the time-series data, μ be the average value of the time-series data, and σ be the standard deviation of the time-series data. Transform to a standard normal distribution with standardized variable z transformed according to (15).

Figure 2022127783000013
Figure 2022127783000013

(分類部360c)
分類部360cは、標準化部380cにより標準正規分布に変換された血流速度の時系列データに基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。
(Classification unit 360c)
The classification unit 360c classifies the subject into one of a plurality of groups including the healthy subject group and the diseased subject group based on the time-series data of the blood flow velocity converted into the standard normal distribution by the standardization unit 380c.

いくつかの実施形態では、複数のグループは、健常者グループ、疾病者グループ、及び健常者と疾病者との中間領域のグループを含む。この場合、分類部360cは、上記のスケール値及びシフト値に基づいて、被検者を健常者グループ、疾病者グループ、及び中間領域のグループのいずれかに分類する。 In some embodiments, the plurality of groups includes a healthy group, a sick group, and an intermediate range of healthy and sick groups. In this case, the classification unit 360c classifies the subject into one of the healthy subject group, the diseased subject group, and the intermediate area group based on the scale value and the shift value.

いくつかの実施形態では、分類部360cは、標準化部380cにより標準正規分布に変換された血流速度の時系列データに基づいて、被検者を健常者グループ及び疾病者グループのいずれかに分類する。 In some embodiments, the classification unit 360c classifies the subject into either the healthy subject group or the diseased subject group based on the time-series data of the blood flow velocity converted to the standard normal distribution by the standardization unit 380c. do.

いくつかの実施形態では、分類部360cは、標準化部380cにより標準正規分布に変換された血流速度の時系列データに基づいて、被検者を中間領域のグループ及びそれ以外のグループに分類する。 In some embodiments, the classifying unit 360c classifies the subject into the intermediate region group and other groups based on the time series data of the blood flow velocity converted to the standard normal distribution by the standardizing unit 380c. .

いくつかの実施形態では、分類部360cは、複数の被検者の血流速度の時系列データを事前に解析することにより得られた分類モデルを用いて、被検者を上記のように分類する。複数の被検者の血流速度の時系列データに対する事前の解析には、線形サポートベクタマシン、非線形サポートベクタマシン、決定木法、ランダムフォレスト法、k近傍法等の機械学習等の公知の解析手法が用いられる。この場合、分類部360cは、機械学習により得られた分類モデル(学習済みモデル)を用いて、被検者を上記のように分類することができる。 In some embodiments, the classification unit 360c classifies the subjects as described above using a classification model obtained by pre-analyzing time-series data of blood flow velocities of a plurality of subjects. do. For pre-analysis of time-series data of blood flow velocities of multiple subjects, known analyzes such as linear support vector machines, nonlinear support vector machines, decision tree methods, random forest methods, k-neighborhood methods, and other machine learning methods method is used. In this case, the classification unit 360c can classify the subject as described above using a classification model (learned model) obtained by machine learning.

(学習部370c)
学習部370cは、分類部360cにより被検者の分類に用いられる分類モデルを生成する。学習部370cは、被検者の血流速度の時系列データを訓練データとし、訓練データの分類結果を教師データとする公知の教師あり機械学習を実行することにより分類モデルを生成する。分類結果は、事前に医師等により上記の複数のグループのいずれに分類されるかが判断されたものである。
(Learning unit 370c)
The learning unit 370c generates a classification model that is used for classification of subjects by the classification unit 360c. The learning unit 370c generates a classification model by executing known supervised machine learning using the time-series data of blood flow velocity of the subject as training data and the classification result of the training data as training data. As for the classification results, it is determined in advance by a doctor or the like which of the plurality of groups the patient should be classified into.

上記の血流情報解析部330cの機能は、1以上のプロセッサにより実現される。いくつかの実施形態では、血流情報解析部330cの機能は、各部の機能を実行する複数のプロセッサにより実現される。 The functions of the blood flow information analysis unit 330c described above are realized by one or more processors. In some embodiments, the functions of the blood flow information analysis section 330c are realized by multiple processors executing the functions of each section.

以上説明したように、第4実施形態によれば、被検眼の眼底における1拍動期間の血流速度の時系列データに対して、機械学習により被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。特に、互いに異なる説明変数(入力)間で絶対値の分布が異なることに起因して分類部360cに対する機械学習の効果が低下する場合であっても、説明変数間の絶対値の分布を揃えることができるため、分類部360cに対する機械学習の精度を向上させることができる。 As described above, according to the fourth embodiment, subjects are divided into a healthy subject group and a diseased subject group by machine learning with respect to the time-series data of the blood flow velocity in one pulsation period in the fundus of the eye to be examined. classified into one of several groups, including In particular, even if the effect of machine learning on the classification unit 360c is reduced due to the difference in absolute value distribution between explanatory variables (inputs) that are different from each other, the distribution of absolute values between explanatory variables should be uniform. Therefore, the accuracy of machine learning for the classifier 360c can be improved.

<変形例>
上記の実施形態において、式(4)に示すマザーウェーブレットを例として説明したが、実施形態に係る構成はこれに限定されるものではない。例えば、上記の実施形態において、式(16)~式(22)のいずれかのマザーウェーブレットを用いてもよい。
<Modification>
In the above embodiment, the mother wavelet represented by Equation (4) has been described as an example, but the configuration according to the embodiment is not limited to this. For example, in the above embodiment, any mother wavelet of equations (16) to (22) may be used.

式(16)は、式(4)と異なるメキシカンハットマザーウェーブレット(mexh)の一例を表す。 Equation (16) represents an example of a Mexican hat mother wavelet (mexh) different from Equation (4).

Figure 2022127783000014
Figure 2022127783000014

式(17)は、モルレー(Morlet)マザーウェーブレット(morl)の一例を表す。 Equation (17) represents an example of the Morlet mother wavelet (morl).

Figure 2022127783000015
Figure 2022127783000015

式(18)は、複素モルレー(Complex Morlet)マザーウェーブレット(cmorB-C)の一例を表す。式(18)において、Bは帯域幅を表し、Cは、中心周波数を表す。 Equation (18) represents an example of a Complex Morlet mother wavelet (cmorBC). In equation (18), B represents the bandwidth and C represents the center frequency.

Figure 2022127783000016
Figure 2022127783000016

式(19)は、ガウス微分(Gaussian Derivative)マザーウェーブレット(gausP)の一例を表す。式(19)において、Cは定数を表す。 Equation (19) represents an example of a Gaussian Derivative mother wavelet (gausP). In formula (19), C represents a constant.

Figure 2022127783000017
Figure 2022127783000017

式(20)は、複素ガウス微分マザーウェーブレット(cgausP)の一例を表す。式(20)において、Cは定数を表す。 Equation (20) represents an example of a complex Gaussian differential mother wavelet (cgausP). In formula (20), C represents a constant.

Figure 2022127783000018
Figure 2022127783000018

式(21)は、シャノン(Shannon)ウェーブレット(shanB-C)の一例を表す。式(21)において、Bは帯域幅を表し、Cは、中心周波数を表す。 Equation (21) represents an example of a Shannon wavelet (shanB-C). In equation (21), B represents the bandwidth and C represents the center frequency.

Figure 2022127783000019
Figure 2022127783000019

式(22)は、周波数Bスプライン(Frequency B-Spline)ウェーブレット(fbsp)の一例を表す。式(22)において、Mはスプラインの次数を表し、Bは帯域幅を表し、Cは、中心周波数を表す。 Equation (22) represents an example of a frequency B-spline wavelet (fbsp). (22), M represents the order of the spline, B represents the bandwidth, and C represents the center frequency.

Figure 2022127783000020
Figure 2022127783000020

第3実施形態に眼科装置は、互いに異なる2以上のマザーウェーブレットが適用されたウェーブレット変換により得られた2以上の特徴量に基づいて、被検者を上記の複数のグループに分類するように構成されていてもよい。或いは、互いに異なる2以上のマザーウェーブレットが適用されたウェーブレット変換により得られた2以上の特徴量と、多重解像度解析により得られた特徴量とに基づいて、被検者を上記の複数のグループに分類するように構成されていてもよい。 The ophthalmologic apparatus according to the third embodiment is configured to classify subjects into the plurality of groups based on two or more feature amounts obtained by wavelet transform to which two or more mother wavelets different from each other are applied. may have been Alternatively, based on two or more feature amounts obtained by wavelet transform to which two or more mother wavelets different from each other are applied and the feature amount obtained by multiresolution analysis, subjects are divided into the above plurality of groups. It may be configured to classify.

[作用]
実施形態に係る血流解析装置、眼科装置、血流解析方法、及びプログラムについて説明する。
[Action]
A blood flow analysis device, an ophthalmologic device, a blood flow analysis method, and a program according to embodiments will be described.

いくつかの実施形態に係る血流解析装置(血流情報解析部330、眼科装置1)は、解析部(350、350a)と、分類部(360)とを含む。解析部は、被検者の眼底(Ef)における血流速度の時系列データに対して時間周波数解析を行う。分類部は、解析部により得られた解析データの特徴量に基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する。 A blood flow analysis device (blood flow information analysis unit 330, ophthalmologic device 1) according to some embodiments includes analysis units (350, 350a) and a classification unit (360). The analysis unit performs time-frequency analysis on the time-series data of the blood flow velocity in the fundus (Ef) of the subject. The classification unit classifies the subject into one of a plurality of groups including a healthy subject group and a diseased subject group based on the feature amount of the analysis data obtained by the analysis unit.

このような態様によれば、血流速度の時系列データに対して時間周波数解析を行うことにより特徴量を求め、求められた特徴量に基づいて被検者を分類するようにしたので、被検者の血管状態を正しく高精度に評価することが可能になる。 According to this aspect, the feature amount is obtained by performing time-frequency analysis on the time-series data of the blood flow velocity, and the subject is classified based on the obtained feature amount. It is possible to accurately and highly accurately evaluate the examiner's blood vessel condition.

いくつかの実施形態では、解析部は、1拍動期間における時系列データに対してウェーブレット変換を行い、分類部は、解析部により得られたウェーブレット変換データの特徴位置(CP)におけるマザーウェーブレットのスケール値とシフト値とに基づいて、被検者を複数のグループのいずれかに分類する。 In some embodiments, the analysis unit performs a wavelet transform on the time-series data in one beat period, and the classifier performs a mother wavelet at feature positions (CP) of the wavelet transform data obtained by the analysis unit. A subject is classified into one of a plurality of groups based on the scale value and the shift value.

このような態様によれば、ウェーブレット変換により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とを特徴量として求めるようにしたので、血管状態の高精度な評価に有用な特徴量を簡便に取得することが可能になる。 According to this aspect, since the scale value and the shift value of the mother wavelet at the feature position of the wavelet transform data obtained by the wavelet transform are obtained as feature amounts, it is useful for highly accurate evaluation of the blood vessel state. It becomes possible to easily acquire the feature amount.

いくつかの実施形態では、解析部は、1拍動期間における時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行い、分類部は、解析部により得られた第n深度における近似項の二乗和と第n深度における微小項の二乗和とに基づいて、被検者を複数のグループのいずれかに分類する。 In some embodiments, the analysis unit decomposes the time-series data in one beat period into an approximate term and a minute term at the first depth, and separates the approximate term at the m-th (m is a natural number of 2 or more) depth. Multi-resolution analysis is performed by repeating decomposition into approximation terms and minute terms at the (m+1)-th depth up to the n-th (n is a natural number) depth, and the classification unit determines the approximate terms at the n-th depth obtained by the analysis unit. The subject is classified into one of a plurality of groups based on the sum of squares and the sum of squares of the minute terms at the n-th depth.

このような態様によれば、多重解像度解析により得られた第n深度における近似項の二乗和(例えば、近似項の2k-n個の項の二乗和、n<k、kは2以上の自然数)と第n深度における微小項の二乗和(例えば、微小項の2k-(n-1)個の項の二乗和)とを特徴量として求めるようにしたので、血管状態の高精度な評価に有用な特徴量を簡便に取得することが可能になる。 According to this aspect, the sum of squares of the approximation terms at the n-th depth obtained by the multiresolution analysis (for example, the sum of squares of 2 k−n terms of the approximation terms, where n<k, k is 2 or more natural number) and the sum of squares of the minute terms at the n-th depth (for example, the sum of squares of 2 k-(n−1) terms of the minute terms) are obtained as feature quantities. It is possible to easily acquire feature quantities useful for evaluation.

いくつかの実施形態では、解析部は、1拍動期間における時系列データに対してウェーブレット変換を行う第1解析部(361b)と、1拍動期間における時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行う第2解析部(362b)と、を含む。分類部は、第1解析部により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、第2解析部により得られた第n深度における近似項の二乗和と第n深度における微小項の二乗和とに基づいて、被検者を複数のグループのいずれかに分類する。 In some embodiments, the analysis unit includes a first analysis unit (361b) that performs wavelet transform on the time-series data in one beat period, and an approximation term at the first depth for the time-series data in one beat period. and minute terms, and the approximation term at the mth (m is a natural number of 2 or more) depth is decomposed into the approximation term and the minute term at the (m+1)th depth up to the nth (n is a natural number) depth a second analysis unit (362b) that performs iterative multi-resolution analysis. The classification unit calculates the scale value and shift value of the mother wavelet at the feature position of the wavelet transform data obtained by the first analysis unit, and the sum of squares of the approximation terms at the nth depth and the nth depth The subject is classified into one of a plurality of groups based on the sum of squares of the fractional terms in .

このような態様によれば、ウェーブレット変換により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、多重解像度解析により得られた第n深度における近似項の二乗和(例えば、近似項の2k-n個の項の二乗和、n<k、kは2以上の自然数)と第n深度における微小項の二乗和(例えば、微小項の2k-(n-1)個の項の二乗和)とを特徴量として求めるようにしたので、血管状態の高精度な評価に有用な特徴量を簡便に取得することが可能になる。 According to this aspect, the scale value and the shift value of the mother wavelet at the feature position of the wavelet transform data obtained by the wavelet transform, and the sum of squares of the approximation term at the n-th depth obtained by the multiresolution analysis (for example, sum of squares of 2 k−n terms of approximation terms, n<k, k is a natural number of 2 or more) and sum of squares of minute terms at n-th depth (for example, 2 k−(n−1) of minute terms The sum of squares of the terms of ) is obtained as a feature quantity, so it is possible to easily obtain a feature quantity useful for highly accurate evaluation of the vascular condition.

いくつかの実施形態では、特徴位置は、ウェーブレット変換データが最大となる位置である。 In some embodiments, the feature location is the location where the wavelet transform data is the maximum.

このような態様によれば、特徴位置の探索が容易になり、より簡便に特徴量を求めることが可能になる。 According to such an aspect, it becomes possible to easily search for the feature position and obtain the feature amount more simply.

いくつかの実施形態では、血流速度は、眼底に対してドップラーOCTを実行することにより得られる血流によるドップラー信号に基づいて取得される。 In some embodiments, blood flow velocity is obtained based on Doppler signals due to blood flow obtained by performing Doppler OCT on the fundus.

このような態様によれば、OCTにより血流速度の計測が可能な既存の眼科装置を用いて被検眼の血管状態を高精度に評価することが可能になる。 According to this aspect, it is possible to highly accurately evaluate the blood vessel condition of the subject's eye using an existing ophthalmologic apparatus capable of measuring blood flow velocity by OCT.

いくつかの実施形態は、眼底における計測部位に対して異なるタイミングでOCTを実行する光学系(図1の対物レンズ22からOCTユニット100までの光学系)と、光学系により得られた複数の信号に基づいて眼底における血流速度を求める血流情報生成部(320)と、上記の血流解析装置と、を含む、眼科装置である。 Some embodiments include an optical system (optical system from the objective lens 22 to the OCT unit 100 in FIG. 1) that performs OCT on the measurement site on the fundus at different timings, and a plurality of signals obtained by the optical system and the blood flow analysis device described above.

このような態様によれば、被検者の血管状態を正しく高精度に評価することが可能な眼科装置を提供することが可能になる。 According to such an aspect, it is possible to provide an ophthalmologic apparatus capable of correctly and highly accurately evaluating the vascular condition of a subject.

いくつかの実施形態は、被検者の眼底(Ef)における血流速度の時系列データに対して時間周波数解析を行う解析ステップと、解析ステップにおいて得られた解析データの特徴量に基づいて、被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する分類ステップと、を含む、血流解析方法である。 Some embodiments include an analysis step of performing time-frequency analysis on time-series data of blood flow velocity in the fundus of the subject (Ef), and based on the feature amount of the analysis data obtained in the analysis step, and a classification step of classifying the subject into one of a plurality of groups including a healthy subject group and a diseased subject group.

このような態様によれば、血流速度の時系列データに対して時間周波数解析を行うことにより特徴量を求め、求められた特徴量に基づいて被検者を分類するようにしたので、被検者の血管状態を正しく高精度に評価することが可能になる。 According to this aspect, the feature amount is obtained by performing time-frequency analysis on the time-series data of the blood flow velocity, and the subject is classified based on the obtained feature amount. It is possible to accurately and highly accurately evaluate the examiner's blood vessel condition.

いくつかの実施形態では、解析ステップは、1拍動期間における時系列データに対してウェーブレット変換を行い、分類ステップは、解析ステップにおいて得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とに基づいて、被検者を複数のグループのいずれかに分類する。 In some embodiments, the analyzing step performs wavelet transform on the time-series data in one beat period, and the classifying step performs the scale value of the mother wavelet at the feature position of the wavelet transform data obtained in the analyzing step. Classify the subject into one of a plurality of groups based on the shift value.

このような態様によれば、ウェーブレット変換により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とを特徴量として求めるようにしたので、血管状態の高精度な評価に有用な特徴量を簡便に取得することが可能になる。 According to this aspect, since the scale value and the shift value of the mother wavelet at the feature position of the wavelet transform data obtained by the wavelet transform are obtained as feature amounts, it is useful for highly accurate evaluation of the blood vessel state. It becomes possible to easily acquire the feature amount.

いくつかの実施形態では、解析ステップは、1拍動期間における時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行い、分類ステップは、解析ステップにおいて得られた第n深度における近似項の二乗和と第n深度における微小項の二乗和とに基づいて、被検者を複数のグループのいずれかに分類する。 In some embodiments, the analysis step decomposes the time-series data in one beat period into an approximate term and a minute term at the first depth, and an approximate term at the m-th (m is a natural number of 2 or more) depth. Multi-resolution analysis is performed by repeating decomposition into approximation terms and minute terms at the (m+1)-th depth up to the n-th (n is a natural number) depth, and the classification step is performed on the approximation term at the n-th depth obtained in the analysis step. The subject is classified into one of a plurality of groups based on the sum of squares and the sum of squares of the minute terms at the n-th depth.

このような態様によれば、多重解像度解析により得られた第n深度における近似項の二乗和(例えば、近似項の2k-n個の項の二乗和、n<k、kは2以上の自然数)と第n深度における微小項の二乗和(例えば、微小項の2k-(n-1)個の項の二乗和)とを特徴量として求めるようにしたので、血管状態の高精度な評価に有用な特徴量を簡便に取得することが可能になる。 According to this aspect, the sum of squares of the approximation terms at the n-th depth obtained by the multiresolution analysis (for example, the sum of squares of 2 k−n terms of the approximation terms, where n<k, k is 2 or more natural number) and the sum of squares of the minute terms at the n-th depth (for example, the sum of squares of 2 k-(n−1) terms of the minute terms) are obtained as feature quantities. It is possible to easily acquire feature quantities useful for evaluation.

いくつかの実施形態では、解析ステップは、1拍動期間における時系列データに対してウェーブレット変換を行う第1解析ステップと、1拍動期間における時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行う第2解析ステップと、を含む。分類ステップは、第1解析ステップにおいて得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、第2解析ステップにおいて得られた第n深度における近似項の二乗和と第n深度における微小項の二乗和とに基づいて、被検者を複数のグループのいずれかに分類する。 In some embodiments, the analysis step includes a first analysis step of performing a wavelet transform on the time-series data in one beat period; and repeats the decomposition of the approximation term at the mth (m is a natural number of 2 or more) depth into the approximation term and the minute term at the (m+1)th depth up to the nth (n is a natural number) depth and a second analysis step of performing analysis. In the classification step, the scale value and the shift value of the mother wavelet at the feature position of the wavelet transform data obtained in the first analysis step, and the sum of squares of the approximation terms at the n-th depth obtained in the second analysis step and the n-th depth The subject is classified into one of a plurality of groups based on the sum of squares of the fractional terms in .

このような態様によれば、ウェーブレット変換により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、多重解像度解析により得られた第n深度における近似項の二乗和(例えば、近似項の2k-n個の項の二乗和、n<k、kは2以上の自然数)と第n深度における微小項の二乗和(例えば、微小項の2k-(n-1)個の項の二乗和)とを特徴量として求めるようにしたので、血管状態の高精度な評価に有用な特徴量を簡便に取得することが可能になる。 According to this aspect, the scale value and the shift value of the mother wavelet at the feature position of the wavelet transform data obtained by the wavelet transform, and the sum of squares of the approximation term at the n-th depth obtained by the multiresolution analysis (for example, sum of squares of 2 k−n terms of approximation terms, n<k, k is a natural number of 2 or more) and sum of squares of minute terms at n-th depth (for example, 2 k−(n−1) of minute terms The sum of squares of the terms of ) is obtained as a feature quantity, so it is possible to easily obtain a feature quantity useful for highly accurate evaluation of the vascular condition.

いくつかの実施形態では、特徴位置は、ウェーブレット変換データが最大となる位置である。 In some embodiments, the feature location is the location where the wavelet transform data is the maximum.

このような態様によれば、特徴位置の探索が容易になり、より簡便に特徴量を求めることが可能になる。 According to such an aspect, it becomes possible to easily search for the feature position and obtain the feature amount more simply.

いくつかの実施形態では、血流速度は、眼底に対してドップラーOCTを実行することにより得られる血流によるドップラー信号に基づいて取得される。 In some embodiments, blood flow velocity is obtained based on Doppler signals due to blood flow obtained by performing Doppler OCT on the fundus.

このような態様によれば、OCTにより血流速度の計測が可能な既存の眼科装置を用いて被検眼の血管状態を高精度に評価することが可能になる。 According to this aspect, it is possible to highly accurately evaluate the blood vessel condition of the subject's eye using an existing ophthalmologic apparatus capable of measuring blood flow velocity by OCT.

いくつかの実施形態は、コンピュータに、上記のいずれかに記載の血流解析方法の各ステップを実行させるプログラムである。 Some embodiments are programs that cause a computer to execute each step of the blood flow analysis method described above.

このような態様によれば、血流速度の時系列データに対して時間周波数解析を行うことにより特徴量を求め、求められた特徴量に基づいて被検者を分類するようにしたので、被検者の血管状態を正しく高精度に評価することが可能なプログラムを提供することができるようになる。 According to this aspect, the feature amount is obtained by performing time-frequency analysis on the time-series data of the blood flow velocity, and the subject is classified based on the obtained feature amount. It becomes possible to provide a program capable of correctly evaluating the vascular condition of an examiner with high accuracy.

いずれかの実施形態に係るプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。 It is possible to create a computer-readable non-transitory recording medium recording the program according to any of the embodiments. This non-transitory recording medium may be in any form, examples of which include magnetic disks, optical disks, magneto-optical disks, and semiconductor memories.

以上に説明した実施形態は本発明の一例に過ぎない。本発明を実施しようとする者は、本発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。 The embodiment described above is merely an example of the present invention. A person who intends to implement the present invention can arbitrarily make modifications (omission, substitution, addition, etc.) within the scope of the gist of the present invention.

1 眼科装置
100 OCTユニット
210 制御部
211 主制御部
300 データ処理部
310 位相画像形成部
320 血流情報生成部
330、330c 血流情報解析部
340 抽出部
350、350a、350b 解析部
351 ウェーブレット変換部
351a 多重解像度解析部
352 特徴位置探索部
352a 特徴量算出部
353 特徴量特定部
360、360c 分類部
361b 第1解析部
362b 第2解析部
370、370c 学習部
380c 標準化部
E 被検眼
Ef 眼底
1 ophthalmic apparatus 100 OCT unit 210 control unit 211 main control unit 300 data processing unit 310 phase image forming unit 320 blood flow information generation units 330, 330c blood flow information analysis unit 340 extraction units 350, 350a, 350b analysis unit 351 wavelet transformation unit 351a multi-resolution analysis unit 352 feature position search unit 352a feature amount calculation unit 353 feature amount identification units 360 and 360c classification unit 361b first analysis unit 362b second analysis units 370 and 370c learning unit 380c standardization unit E subject eye Ef fundus

Claims (14)

被検者の眼底における血流速度の時系列データに対して時間周波数解析を行う解析部と、
前記解析部により得られた解析データの特徴量に基づいて、前記被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する分類部と、
を含む、血流解析装置。
an analysis unit that performs time-frequency analysis on time-series data of blood flow velocity in the fundus of the subject;
a classification unit that classifies the subject into one of a plurality of groups including a healthy subject group and a diseased subject group based on the feature amount of the analysis data obtained by the analysis unit;
A blood flow analyzer, comprising:
前記解析部は、1拍動期間における前記時系列データに対してウェーブレット変換を行い、
前記分類部は、前記解析部により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とに基づいて、前記被検者を前記複数のグループのいずれかに分類する
ことを特徴とする請求項1に記載の血流解析装置。
The analysis unit performs wavelet transform on the time-series data in one beat period,
The classification unit classifies the subject into one of the plurality of groups based on the scale value and shift value of the mother wavelet at the feature position of the wavelet transform data obtained by the analysis unit. The blood flow analysis device according to claim 1.
前記解析部は、1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行い、
前記分類部は、前記解析部により得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する
ことを特徴とする請求項1に記載の血流解析装置。
The analysis unit decomposes the time-series data in one beat period into an approximate term and a minute term at a first depth, and divides the approximate term at an m-th (m is a natural number of 2 or more) depth into an (m+1)-th depth. Perform multiresolution analysis that repeats decomposition into approximate terms and minute terms in n-th (n is a natural number) depth,
The classification unit classifies the subject into one of the plurality of groups based on the sum of squares of approximate terms at the n-th depth and the sum of squares of minute terms at the n-th depth obtained by the analysis unit. The blood flow analysis device according to claim 1, characterized in that it is classified into:
前記解析部は、
1拍動期間における前記時系列データに対してウェーブレット変換を行う第1解析部と、
1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行う第2解析部と、
を含み、
前記分類部は、前記第1解析部により得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、前記第2解析部により得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する
ことを特徴とする請求項1に記載の血流解析装置。
The analysis unit is
a first analysis unit that performs a wavelet transform on the time-series data in one beat period;
The time-series data in one beat period is decomposed into an approximate term and a minute term at the first depth, and the approximate term at the m-th (m is a natural number of 2 or more) depth is divided into the approximate term and the minute term at the (m+1)-th depth. a second analysis unit that performs multi-resolution analysis that repeats decomposition into terms up to the n-th (n is a natural number) depth;
including
The classifying unit is a scale value and a shift value of the mother wavelet at the feature position of the wavelet transform data obtained by the first analyzing unit, and the sum of squares of the approximation term at the n-th depth obtained by the second analyzing unit and the sum of squares of the minute terms at the n-th depth, the subject is classified into one of the plurality of groups.
前記特徴位置は、前記ウェーブレット変換データが最大となる位置である
ことを特徴とする請求項2又は請求項4に記載の血流解析装置。
The blood flow analysis apparatus according to claim 2 or 4, wherein the characteristic position is a position where the wavelet transform data is maximum.
前記血流速度は、前記眼底に対してドップラーOCTを実行することにより得られる血流によるドップラー信号に基づいて取得される
ことを特徴とする請求項1~請求項5のいずれか一項に記載の血流解析装置。
The blood flow velocity according to any one of claims 1 to 5, wherein the blood flow velocity is obtained based on a Doppler signal by blood flow obtained by performing Doppler OCT on the fundus. blood flow analyzer.
前記眼底における計測部位に対して異なるタイミングでOCTを実行する光学系と、
前記光学系により得られた複数の信号に基づいて前記眼底における血流速度を求める血流情報生成部と、
請求項6に記載の血流解析装置と、
を含む、眼科装置。
an optical system that performs OCT at different timings on a measurement site on the fundus;
a blood flow information generator that obtains a blood flow velocity in the fundus based on a plurality of signals obtained by the optical system;
a blood flow analysis device according to claim 6;
An ophthalmic device, comprising:
被検者の眼底における血流速度の時系列データに対して時間周波数解析を行う解析ステップと、
前記解析ステップにおいて得られた解析データの特徴量に基づいて、前記被検者を健常者グループ及び疾病者グループを含む複数のグループのいずれかに分類する分類ステップと、
を含む、血流解析方法。
an analysis step of performing time-frequency analysis on the time-series data of the blood flow velocity in the fundus of the subject;
A classification step of classifying the subject into one of a plurality of groups including a healthy subject group and a diseased subject group based on the feature amount of the analysis data obtained in the analysis step;
A blood flow analysis method, comprising:
前記解析ステップは、1拍動期間における前記時系列データに対してウェーブレット変換を行い、
前記分類ステップは、前記解析ステップにおいて得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値とに基づいて、前記被検者を前記複数のグループのいずれかに分類する
ことを特徴とする請求項8に記載の血流解析方法。
The analyzing step performs wavelet transform on the time-series data in one beat period,
The classification step classifies the subject into one of the plurality of groups based on the scale value and shift value of the mother wavelet at the feature position of the wavelet transform data obtained in the analysis step. The blood flow analysis method according to claim 8.
前記解析ステップは、1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行い、
前記分類ステップは、前記解析ステップにおいて得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する
ことを特徴とする請求項8に記載の血流解析方法。
The analysis step decomposes the time-series data in one beat period into an approximate term and a minute term at a first depth, and converts the approximate term at an m-th (m is a natural number of 2 or more) depth to the (m+1)-th depth. Perform multiresolution analysis that repeats decomposition into approximate terms and minute terms in n-th (n is a natural number) depth,
The classification step classifies the subject into one of the plurality of groups based on the sum of squares of approximate terms at the n-th depth and the sum of squares of minute terms at the n-th depth obtained in the analysis step. 9. The blood flow analysis method according to claim 8, wherein the classification is as follows.
前記解析ステップは、
1拍動期間における前記時系列データに対してウェーブレット変換を行う第1解析ステップと、
1拍動期間における前記時系列データを第1深度における近似項と微小項とに分解すると共に、第m(mは2以上の自然数)深度における近似項を第(m+1)深度における近似項と微小項とに分解することを第n(nは自然数)深度まで繰り返す多重解像度解析を行う第2解析ステップと、
を含み、
前記分類ステップは、前記第1解析ステップにおいて得られたウェーブレット変換データの特徴位置におけるマザーウェーブレットのスケール値とシフト値と、前記第2解析ステップにおいて得られた前記第n深度における近似項の二乗和と前記第n深度における微小項の二乗和とに基づいて、前記被検者を前記複数のグループのいずれかに分類する
ことを特徴とする請求項8に記載の血流解析方法。
The analysis step includes:
a first analysis step of performing a wavelet transform on the time-series data in one beat period;
The time-series data in one beat period is decomposed into an approximate term and a minute term at the first depth, and the approximate term at the m-th (m is a natural number of 2 or more) depth is divided into the approximate term and the minute term at the (m+1)-th depth. a second analysis step of performing multi-resolution analysis in which the decomposition into terms is repeated up to the n-th (n is a natural number) depth;
including
In the classification step, the scale value and the shift value of the mother wavelet at the feature position of the wavelet transform data obtained in the first analysis step, and the sum of squares of the approximation term at the n-th depth obtained in the second analysis step and a sum of squares of minute terms at the nth depth, the subject is classified into one of the plurality of groups.
前記特徴位置は、前記ウェーブレット変換データが最大となる位置である
ことを特徴とする請求項9又は請求項11に記載の血流解析方法。
The blood flow analysis method according to claim 9 or 11, wherein the feature position is a position where the wavelet transform data is maximum.
前記血流速度は、前記眼底に対してドップラーOCTを実行することにより得られる血流によるドップラー信号に基づいて取得される
ことを特徴とする請求項8~請求項12のいずれか一項に記載の血流解析方法。
The blood flow velocity according to any one of claims 8 to 12, wherein the blood flow velocity is obtained based on a Doppler signal by blood flow obtained by performing Doppler OCT on the fundus. blood flow analysis method.
コンピュータに、請求項8~請求項13のいずれか一項に記載の血流解析方法の各ステップを実行させることを特徴とするプログラム。 A program for causing a computer to execute each step of the blood flow analysis method according to any one of claims 8 to 13.
JP2021025971A 2021-02-22 2021-02-22 Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program Pending JP2022127783A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021025971A JP2022127783A (en) 2021-02-22 2021-02-22 Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021025971A JP2022127783A (en) 2021-02-22 2021-02-22 Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program

Publications (1)

Publication Number Publication Date
JP2022127783A true JP2022127783A (en) 2022-09-01

Family

ID=83060980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021025971A Pending JP2022127783A (en) 2021-02-22 2021-02-22 Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program

Country Status (1)

Country Link
JP (1) JP2022127783A (en)

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
JP6550745B2 (en) Blood flow measuring device
US20210183019A1 (en) Image processing apparatus, image processing method and computer-readable medium
JP7348374B2 (en) Ophthalmology information processing device, ophthalmology imaging device, ophthalmology information processing method, and program
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP7096116B2 (en) Blood flow measuring device
JP6402025B2 (en) Blood flow measuring device
WO2020075719A1 (en) Image processing device, image processing method, and program
JP2023038280A (en) Blood flow measurement device
WO2020044712A1 (en) Ophthalmology device, and control method therefor
JP6646021B2 (en) Ophthalmic image processing device
JP7111874B2 (en) ophthalmic imaging equipment
EP4270410A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP2022189963A (en) Ophthalmologic apparatus
JP2019054994A (en) Ophthalmologic imaging apparatus, ophthalmologic information processing apparatus, program, and recording medium
JP7260426B2 (en) Optical coherence tomography device, control method thereof, optical measurement method, program, and storage medium
CN111787843B (en) Blood flow measuring device
JP2022127783A (en) Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program
JP7479030B2 (en) BLOOD FLOW ANALYSIS APPARATUS, BLOOD FLOW ANALYSIS METHOD, AND PROGRAM
JP7216514B2 (en) Blood vessel analyzer
JP2021037088A (en) Optical interference tomographic apparatus, operation method of optical interference tomographic apparatus, and program
JP7221628B2 (en) Blood flow measuring device, information processing device, information processing method, and program
JP7446730B2 (en) Image processing device, image processing method and program
JP6776313B2 (en) Blood flow measuring device
JP7068366B2 (en) Blood flow measuring device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240201