JP2019150345A - Image processing system, image processing method and program - Google Patents

Image processing system, image processing method and program Download PDF

Info

Publication number
JP2019150345A
JP2019150345A JP2018038354A JP2018038354A JP2019150345A JP 2019150345 A JP2019150345 A JP 2019150345A JP 2018038354 A JP2018038354 A JP 2018038354A JP 2018038354 A JP2018038354 A JP 2018038354A JP 2019150345 A JP2019150345 A JP 2019150345A
Authority
JP
Japan
Prior art keywords
blood vessel
image
image processing
motion contrast
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018038354A
Other languages
Japanese (ja)
Other versions
JP2019150345A5 (en
JP7140512B2 (en
Inventor
勇貴 村岡
Yuki Muraoka
勇貴 村岡
牧平 朋之
Tomoyuki Makihira
朋之 牧平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018038354A priority Critical patent/JP7140512B2/en
Priority to PCT/JP2019/006835 priority patent/WO2019171986A1/en
Publication of JP2019150345A publication Critical patent/JP2019150345A/en
Publication of JP2019150345A5 publication Critical patent/JP2019150345A5/ja
Application granted granted Critical
Publication of JP7140512B2 publication Critical patent/JP7140512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Abstract

To support a user for determining whether a prescribed blood vessel is an artery or vein based on a motion contrast image.SOLUTION: An image processing system includes: acquisition means for acquiring a motion contrast image of an ocular fundus; and determination means for determining whether a blood vessel is an artery or vein based on a motion contrast image of an evaluation region that is a region positioned within a prescribed distance from a region equivalent to a blood vessel in the motion contrast image.SELECTED DRAWING: Figure 7

Description

本明細書の開示は、画像処理装置、画像処理方法及びプログラムに関する。   The present disclosure relates to an image processing apparatus, an image processing method, and a program.

特許文献1には、断層画像から所定の血管が動脈か静脈かを判定する方法が開示されている。   Patent Document 1 discloses a method for determining whether a predetermined blood vessel is an artery or a vein from a tomographic image.

特願2015−207572号公報Japanese Patent Application No. 2015-207572

しかしながら、OCT Angiography(OCTA)により得られたモーションコントラスト画像から所定の血管が動脈か静脈かを判定する技術は知られていなかった。   However, a technique for determining whether a predetermined blood vessel is an artery or a vein from a motion contrast image obtained by OCT Angiography (OCTA) has not been known.

本明細書の開示は、上記の課題に鑑みてなされたものであり、所定の血管が動脈か静脈かという判定をモーションコントラスト画像に基づいて支援することを目的の1つとする。   Disclosure of the present specification has been made in view of the above problems, and an object thereof is to support the determination of whether a predetermined blood vessel is an artery or a vein based on a motion contrast image.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。   It is to be noted that the present invention is not limited to the above-described object, and is an operational effect derived from each configuration shown in an embodiment for carrying out the invention described later, and also has an operational effect that cannot be obtained by conventional techniques. It can be positioned as one of other purposes.

本明細書に開示の画像処理装置は、眼底のモーションコントラスト画像を取得する取得手段と、前記モーションコントラスト画像における血管に相当する領域から所定距離以内の領域である評価領域のモーションコントラスト値に基づいて前記血管が動脈か静脈かを判定する判定手段と、を備える。   The image processing apparatus disclosed in the present specification is based on an acquisition unit that acquires a motion contrast image of the fundus and a motion contrast value of an evaluation area that is an area within a predetermined distance from an area corresponding to a blood vessel in the motion contrast image. Determining means for determining whether the blood vessel is an artery or a vein.

所定の血管が動脈か静脈かという判定をモーションコントラスト画像に基づいて支援することが可能となる。   It is possible to assist in determining whether a predetermined blood vessel is an artery or a vein based on the motion contrast image.

装置構成の一例を示す図である。It is a figure which shows an example of an apparatus structure. OCTA撮像時のスキャンの一例を示す図である。It is a figure which shows an example of the scan at the time of OCTA imaging. モーションコントラスト画像の一例を説明するための図である。It is a figure for demonstrating an example of a motion contrast image. モーションコントラスト画像の取得手順の一例を示す図である。It is a figure which shows an example of the acquisition procedure of a motion contrast image. モーションコントラスト画像の重ね合せ手順の一例を示す図である。It is a figure which shows an example of the superimposition procedure of a motion contrast image. 動脈・静脈の判定方法の一例を説明するための図である。It is a figure for demonstrating an example of the determination method of an artery and a vein. 動脈・静脈の判定手順の一例を示す図である。It is a figure which shows an example of the determination procedure of an artery and a vein. FAZ検出手順の一例を示す図である。It is a figure which shows an example of a FAZ detection procedure. 血管分類の一例を説明するための図である。It is a figure for demonstrating an example of the blood vessel classification. 動脈・静脈の判定方法の一例を説明するための図である。It is a figure for demonstrating an example of the determination method of an artery and a vein. 動脈・静脈の判定手順の一例を示す図である。It is a figure which shows an example of the determination procedure of an artery and a vein.

OCTA画像を取得する為の装置構成を説明する。次に、OCT情報から、MC画像を取得する方法の全体を説明し、順次、詳細フローを説明する。   An apparatus configuration for acquiring an OCTA image will be described. Next, the entire method for acquiring the MC image from the OCT information will be described, and the detailed flow will be sequentially described.

[ハード構成]
図1(a)は装置構成の一例を示す図である。光源001はSLD光源であり、カプラ002によって、所望の分岐比の下、光を測定光と参照光とに分岐する。測定光は、カプラ002を通過しコリメータ021よりサンプル光学系102へ出射される。サンプル光学系102には、フォーカスレンズ022、角度可変であるXガルバノメトリックミラー023とYガルバノメトリックミラー024、対物レンズ系を形成するレンズ025、レンズ026が配置され、これらを経由して被検眼027の眼底上に測定光によるビームスポットが形成される。ここで、眼底上に導かれたビームスポットは、Xガルバノメトリックミラー023とYガルバノメトリックミラー024の駆動により、眼底上で2次元に走査される。被検眼027の眼底で反射散乱した測定光は、サンプル光学系102を介した後、カプラ002へ導かれる。参照光は、参照光学系103へ導かれ、コリメータレンズ031によりコリメート光となり、NDフィルター032を通過し所定光量に減衰される。その後、参照光はコリメートされた状態を保持したまま、光軸方向に移動可能でサンプル光学系102との光路長差を補正することができるミラー033で反射され、同じ光路へ折り返される。折り返された参照光は、NDフィルター032、コリメータレンズ031を介した後、カプラ002へ導かれる。
[Hardware configuration]
FIG. 1A is a diagram illustrating an example of a device configuration. A light source 001 is an SLD light source, and a coupler 002 branches light into measurement light and reference light under a desired branching ratio. The measurement light passes through the coupler 002 and is emitted from the collimator 021 to the sample optical system 102. The sample optical system 102 includes a focus lens 022, an X galvanometric mirror 023 and a Y galvanometric mirror 024 that are variable in angle, a lens 025 that forms an objective lens system, and a lens 026. A beam spot by measuring light is formed on the fundus of the eye. Here, the beam spot guided onto the fundus is scanned two-dimensionally on the fundus by driving the X galvanometric mirror 023 and the Y galvanometric mirror 024. The measurement light reflected and scattered by the fundus of the subject eye 027 is guided to the coupler 002 after passing through the sample optical system 102. The reference light is guided to the reference optical system 103, becomes collimated light by the collimator lens 031, passes through the ND filter 032 and is attenuated to a predetermined light amount. Thereafter, the reference light is reflected by the mirror 033 which can move in the optical axis direction and can correct the optical path length difference with the sample optical system 102 while maintaining the collimated state, and is folded back to the same optical path. The folded reference light is guided to the coupler 002 after passing through the ND filter 032 and the collimator lens 031.

カプラ002へ戻ってきた測定光と参照光は、カプラ002により合波され、検出系(もしくは分光器)104に導かれる。合波された光はコリメータ042により出射され、回折格子043にて分光された後、レンズ044を介してラインセンサ045で受光され、干渉信号として出力される。尚、ラインセンサ045は、各画素が回折格子043によって分光された光の波長成分に対応して受光するように配置されている。   The measurement light and the reference light that have returned to the coupler 002 are combined by the coupler 002 and guided to the detection system (or spectroscope) 104. The combined light is emitted from the collimator 042, dispersed by the diffraction grating 043, received by the line sensor 045 through the lens 044, and output as an interference signal. The line sensor 045 is disposed so that each pixel receives light corresponding to the wavelength component of light dispersed by the diffraction grating 043.

図1(b)は画像処理装置を含む装置構成の一例を示す図である。OCT光学系にはフォーカスレンズ022を移動させるためのフォーカス駆動手段061が、Xガルバノメトリックミラー023、Yガルバノメトリックミラー024を駆動するためのガルバノメトリックミラー駆動手段062が、ミラー033を光軸方向に移動させるためのミラー駆動手段063が、各々設けられている。各々の駆動手段と光源001、ラインセンサ045、サンプリング部051、メモリ052、信号処理手段053、操作入力手段056、モニタ055などは制御手段054に接続されて装置全体の動きが制御されている。ここで、画像処理装置は信号処理手段053,制御手段054を含むものである。なお、サンプリング部051、メモリ052、モニタ055および操作入力手段056の少なくとも1つを画像処理装置が含むこととしてもよい。なお、信号処理手段053および制御手段054は画像処理装置に備えられたCPU等のプロセッサがメモリに記憶されたプログラムを実行することで実現される。なお、CPU等のプロセッサはメモリに記憶されたプログラムを実行することでサンプリング部051として機能することとしてもよい。   FIG. 1B is a diagram illustrating an example of an apparatus configuration including an image processing apparatus. In the OCT optical system, a focus driving unit 061 for moving the focus lens 022, a galvanometric mirror driving unit 062 for driving the X galvanometric mirror 023 and the Y galvanometric mirror 024, and the mirror 033 in the optical axis direction. Mirror drive means 063 for moving each is provided. Each drive unit, light source 001, line sensor 045, sampling unit 051, memory 052, signal processing unit 053, operation input unit 056, monitor 055 and the like are connected to the control unit 054 to control the movement of the entire apparatus. Here, the image processing apparatus includes a signal processing unit 053 and a control unit 054. Note that the image processing apparatus may include at least one of the sampling unit 051, the memory 052, the monitor 055, and the operation input unit 056. The signal processing unit 053 and the control unit 054 are realized by a processor such as a CPU provided in the image processing apparatus executing a program stored in the memory. Note that a processor such as a CPU may function as the sampling unit 051 by executing a program stored in a memory.

ラインセンサ045からの出力信号は、ガルバノメトリックミラー駆動手段062によって駆動された任意のガルバノメトリックミラー駆動位置について、サンプリング部051により干渉信号として出力される。続いて、ガルバノメトリックミラー駆動手段062によってガルバノメトリックミラー駆動位置がオフセットされ、その位置における干渉信号が出力される。以降はこの繰り返しで干渉信号が次々に生成される。サンプリング部051で生成された干渉信号は、メモリ052にガルバノメトリックミラー駆動位置とともに記憶される。メモリ052に記憶された干渉信号は、信号処理手段053により、周波数解析され、被検眼027の眼底の断面像となり、モニタ055に表示される。ガルバノメトリックミラー駆動位置情報によって、3次元の眼底ボリューム像を生成し、モニタ055に表示することもできる。   The output signal from the line sensor 045 is output as an interference signal by the sampling unit 051 for any galvanometric mirror driving position driven by the galvanometric mirror driving means 062. Subsequently, the galvanometric mirror driving means 062 offsets the galvanometric mirror driving position and outputs an interference signal at that position. Thereafter, interference signals are generated one after another by repeating this process. The interference signal generated by the sampling unit 051 is stored in the memory 052 together with the galvanometric mirror driving position. The interference signal stored in the memory 052 is frequency-analyzed by the signal processing unit 053, becomes a cross-sectional image of the fundus of the eye 027, and is displayed on the monitor 055. A three-dimensional fundus volume image can be generated by the galvanometric mirror drive position information and displayed on the monitor 055.

制御手段054は、撮影中の任意のタイミングでバックグラウンドデータを取得する。バックグラウンドデータとは、被検体に測定光が入射しない状態の信号、即ち参照光のみの信号を指し、例えばガルバノメトリックミラー駆動手段062によりガルバノメトリックミラーメトリックミラーを駆動し、サンプル光学系から測定光が戻らないように測定光の位置を調整した状態で信号取得を行うことでバックグラウンドデータを取得する。   The control unit 054 acquires background data at an arbitrary timing during shooting. The background data refers to a signal in a state where the measurement light is not incident on the subject, that is, a signal of only the reference light. For example, the galvanometric mirror metric mirror is driven by the galvanometric mirror driving means 062, and the measurement light from the sample optical system The background data is acquired by performing signal acquisition in a state in which the position of the measurement light is adjusted so as not to return.

[スキャン例]
次に、図2を用いて本実施形態のスキャンパターンの一例を説明する。なお、以下に例示する数値は一例であり他の数値に変更することができる。図2(a)は任意のスキャンについて、図2(b)は本実施例で具体的に実行した数値を反映させたスキャンパターンを示す図である。OCTAでは血流によるOCT干渉信号の時間変化を計測するため、同じ場所で複数回の計測が必要となる。本実施形態ではOCT装置は同じ場所でのBスキャンをm回繰り返しつつ、n箇所のyポジションに移動するスキャンを行う。具体的なスキャンパターンを図2(a)に示す。眼底平面上でy1〜ynのn箇所のyポジションについて、Bスキャンをm回繰り返す。mが大きいと同じ場所での計測回数が増えるため、血流の検出精度が向上する。その一方でスキャン時間が長くなり、スキャン中の眼の動き(固視微動)により画像にモーションアーチファクトが発生する問題と被検者の負担が増える問題が生じる。本実施形態では両者のバランスを考慮してm=4(図2(b))として実施した。
[Scan example]
Next, an example of the scan pattern of this embodiment will be described with reference to FIG. In addition, the numerical value illustrated below is an example and can be changed into another numerical value. 2A is a diagram showing a scan pattern for an arbitrary scan, and FIG. 2B is a diagram showing a scan pattern reflecting a numerical value specifically executed in this embodiment. In OCTA, since the time change of the OCT interference signal due to blood flow is measured, multiple measurements are required at the same place. In the present embodiment, the OCT apparatus performs a scan that moves to n y positions while repeating the B scan at the same location m times. A specific scan pattern is shown in FIG. B scans are repeated m times for n positions y1 to yn on the fundus plane. If m is large, the number of times of measurement at the same place increases, so that blood flow detection accuracy is improved. On the other hand, the scan time becomes long, and there arises a problem that motion artifacts are generated in the image due to eye movement (fixed eye movement) during scanning and a burden on the subject increases. In the present embodiment, m = 4 (FIG. 2B) was implemented in consideration of the balance between the two.

なお、OCT装置のAスキャン速度、被検体027の眼底表面画像の運動解析に応じて、繰り返し数mを変更してもよい。図2においてpは1つのBスキャンにおけるAスキャンのサンプリング数を示している。すなわち、p×nにより平面画像サイズが決定される。p×nが大きいと、同じ計測ピッチであれば広範囲がスキャンできるが、スキャン時間が長くなり、上述のモーションアーチファクトおよび患者負担の問題が生じる。本実施形態では両者のバランスを考慮してn=p=300として実施した。なお、上記n,pは適宜自由に変更が可能である。また、図2(a)におけるΔxは隣り合うxポジションの間隔(xピッチ)であり、Δyは隣り合うyポジションの間隔(yピッチ)である。本実施形態ではxピッチ、yピッチは眼底における照射光のビームスポット径の1/2として決定し、本実施例では、10μm(図2(b))とする。xピッチ、yピッチを眼底上ビームスポット径の1/2とすることで生成する画像を高精細に形成することができる。xピッチ、yピッチを眼底ビームスポット径の1/2より小さくしても生成する画像の精細度をそれ以上高くする効果は小さい。逆にxピッチ、yピッチを眼底ビームスポット径の1/2より大きくすると精細度は悪化するが、小さなデータ容量で広い範囲の画像を取得することができる。臨床上の要求に応じてxピッチ、yピッチを自由に変更してもよい。本実施形態のスキャン範囲は、x方向がp×Δx=3mm、y方向がn×Δy=3mmである(図2(b)参照)。   Note that the repetition number m may be changed according to the A-scan speed of the OCT apparatus and the motion analysis of the fundus surface image of the subject 027. In FIG. 2, p indicates the number of samplings of A scan in one B scan. That is, the plane image size is determined by p × n. When p × n is large, a wide range can be scanned at the same measurement pitch, but the scan time becomes long, and the above-mentioned motion artifact and patient burden problem occur. In the present embodiment, n = p = 300 was implemented in consideration of the balance between the two. The above n and p can be freely changed as appropriate. In FIG. 2A, Δx is an interval between adjacent x positions (x pitch), and Δy is an interval between adjacent y positions (y pitch). In this embodiment, the x pitch and the y pitch are determined as ½ of the beam spot diameter of the irradiation light on the fundus, and in this embodiment, 10 μm (FIG. 2B). An image to be generated can be formed with high definition by setting the x pitch and the y pitch to ½ of the beam spot diameter on the fundus. Even if the x pitch and the y pitch are smaller than ½ of the fundus beam spot diameter, the effect of further increasing the definition of the generated image is small. Conversely, if the x pitch and y pitch are made larger than ½ of the fundus beam spot diameter, the definition deteriorates, but a wide range of images can be acquired with a small data capacity. The x pitch and y pitch may be freely changed according to clinical requirements. The scan range of the present embodiment is p × Δx = 3 mm in the x direction and n × Δy = 3 mm in the y direction (see FIG. 2B).

[OCTA画像取得]
次に、OCTA画像301を生成する方法について、図4を用い説明する。ステップS401において、信号処理手段053はポジションyにおける繰り返しBスキャン干渉信号(m枚分)を抜き出す。ステップS402において、信号処理手段053はj番目の断層データを抜き出す。ステップS403において、信号処理手段053は取得したバックグラウンドデータを上記干渉信号から減算する。ステップS404において、信号処理手段053は、バックグラウンドを減算した干渉信号に対して波数関数に変換処理を施し、フーリエ変換を行う。本実施例では高速フーリエ変換(FFT:Fast Fourier Transform)を適用する。尚、フーリエ変換前にゼロパディング処理を施し、干渉信号を増長させても良い。ゼロパディング処理を施すことでフーリエ変換後の階調性が増し、後述するステップ409において位置合わせ精度を向上させることが出来る。ステップS405において、信号処理手段053は、ステップS404にて実行したフーリエ変換によって得られる複素信号の絶対値を計算する。この値が当該スキャンの断層像のIntensityとなる。ステップS406において、信号処理手段053はインデックスjが、所定数(m)に到達したかを判断する。すなわち、ポジションyでの断層画像のIntensity計算がm回繰り返されたかを判断する。所定数に満たない場合はS402に戻り、同一Y位置における断層画像のIntensity計算を繰り返す。所定数に達した場合は、次ステップへ進む。
[OCTA image acquisition]
Next, a method for generating the OCTA image 301 will be described with reference to FIG. In step S401, the signal processing unit 053 may extract the repeated B-scan interfering signal at the position y k (m sheets). In step S402, the signal processing unit 053 extracts the j-th tomographic data. In step S403, the signal processing unit 053 subtracts the acquired background data from the interference signal. In step S404, the signal processing unit 053 performs a Fourier transform on the interference signal obtained by subtracting the background by performing a conversion process on the wave number function. In this embodiment, a fast Fourier transform (FFT) is applied. Note that zero padding processing may be performed before Fourier transform to increase the interference signal. By performing the zero padding process, the gradation after Fourier transform is increased, and the alignment accuracy can be improved in step 409 described later. In step S405, the signal processing unit 053 calculates the absolute value of the complex signal obtained by the Fourier transform executed in step S404. This value becomes the intensity of the tomographic image of the scan. In step S406, the signal processing unit 053 determines whether the index j has reached a predetermined number (m). That is, it is determined whether the intensity calculation of the tomographic image at the position y k has been repeated m times. If the predetermined number is not reached, the process returns to S402, and the intensity calculation of the tomographic image at the same Y position is repeated. When the predetermined number is reached, the process proceeds to the next step.

ステップS407において、信号処理手段053はあるyポジションにおけるmフレームの同一断層画像の中で、画像の類似度を計算する。具体的には、信号処理手段053はmフレームの断層画像の内の任意の一枚をテンプレートとして選択し、残りのm−1フレームの画像との相関値を算出する。なお、相関値の算出方法は他の方法であってもよい。ステップS408において、信号処理手段053はステップS407で算出した相関値の中で、一定の閾値以上である相関の高い画像を選択する。閾値は任意に設定が可能であり、被検者の瞬きや固視微動によって画像としての相関が低下したフレームを排除することができるように設定する。前述したように、OCTAでは、被験体組織のうち流れのある組織(例えば血液)と流れのない組織の間の対比を、画像間の相関値に基づき区別する技術である。即ち、流れの無い組織は画像間で相関が高いという前提の上で流れのある組織を抽出するため、画像として相関が低い場合、MC(モーションコントラスト)を計算する際に誤検出となり、あたかも画像全体が流れのある組織であるかのように判定してしまう。このステップではそうした誤検出を回避するために、予め画像として相関の低い断層画像を排除し、相関の高い画像のみを選択する。画像選択の結果、同一ポジションyで取得されたmフレームの画像は適宜取捨選択され、qフレームの画像となる。ここで、qの取りうる値は、1≦q≦mである。 In step S407, the signal processing unit 053 calculates image similarity in m frames of the same tomographic image at a certain y k position. Specifically, the signal processing unit 053 selects any one of the m-frame tomographic images as a template, and calculates a correlation value with the remaining m−1 frame images. The correlation value calculation method may be another method. In step S408, the signal processing unit 053 selects a highly correlated image that is equal to or greater than a certain threshold value from the correlation values calculated in step S407. The threshold value can be arbitrarily set, and is set so as to exclude frames in which the correlation as an image has decreased due to blinking of the subject or slight eye movement. As described above, OCTA is a technique for distinguishing a contrast between a flowable tissue (for example, blood) and a nonflowable tissue among subject tissues based on a correlation value between images. In other words, tissue with no flow is extracted on the premise that there is a high correlation between images, so if the correlation is low as an image, it will be erroneously detected when calculating MC (motion contrast), as if the image It is judged as if the whole is a flowing organization. In this step, in order to avoid such erroneous detection, tomographic images with low correlation are excluded in advance as images, and only images with high correlation are selected. As a result of image selection, images of m frames acquired at the same position y k are appropriately selected and become q frame images. Here, a possible value of q is 1 ≦ q ≦ m.

ステップS409において、信号処理手段053は、ステップS408にて選択されたqフレームの断層画像の位置合わせを行う。位置合わせのテンプレートとして選択するフレームは、互いに全ての組み合わせで相関を計算し、フレーム別に相関係数の和を求め、その和が最大となるフレームを選択してもよい。次に、テンプレートでフレーム毎に照合し位置ずれ量(δX、δY、δθ)を求める。具体的にはテンプレート画像の位置と角度を変えながら類似度を表す指標であるNormalized Cross−Correlation(NCC)を計算し、この値が最大となるときの画像位置の差を位置ずれ量として求める。本発明では、類似度を表す指標は、テンプレートとフレーム内の画像の特徴の類似性を表す尺度であれば種々変更が可能である。例えばSum of Absolute Difference(SAD)、Sum of Squared Difference(SSD)、Zero−means Normalized Cross−Correlation(ZNCC)、Phase Only Correlation(POC)、Rotation Invariant Phase Only Correlation(RIPOC)等を用いてもよい。   In step S409, the signal processing unit 053 performs alignment of the tomographic image of the q frame selected in step S408. For the frames to be selected as the alignment template, correlation may be calculated for all combinations, a sum of correlation coefficients may be obtained for each frame, and a frame having the maximum sum may be selected. Next, the position deviation amounts (δX, δY, δθ) are obtained by matching each frame with a template. Specifically, Normalized Cross-Correlation (NCC), which is an index representing the degree of similarity while changing the position and angle of the template image, is calculated, and the difference between the image positions when this value is maximized is obtained as the amount of positional deviation. In the present invention, the index representing the degree of similarity can be changed in various ways as long as it is a scale representing the similarity between the template and the image feature in the frame. For example, Sum of Absence Difference (SAD), Sum of Squared Difference (SSD), Zero-means Normalized Cross-Correlation (ZNCC), Pr, and Phase Only Correlation (POC), R

次に信号処理手段053は位置ずれ量(δX、δY、δθ)に応じて位置補正をテンプレート以外の(q−1)フレームに適用し、フレームの位置合わせを行う。qが1である場合はこのステップは実行されない。   Next, the signal processing unit 053 applies position correction to (q−1) frames other than the template in accordance with the positional deviation amounts (δX, δY, δθ), and performs frame alignment. If q is 1, this step is not executed.

ステップS410において信号処理手段053はMCを計算する。MCは例えば断層画像間の輝度の脱相関を示す値である。本実施例では、ステップS408で選択し、ステップS409で位置合わせを行ったqフレームのIntensity画像間において、同じ位置のピクセルごとに分散値を計算し、その分散値をMCとする。MCの求め方は種々あり、本発明においてMCは同一Y位置での複数の断層画像の各ピクセルの輝度値の変化を表す指標であれば適用が可能である。尚、q=1の時、即ち、瞬きや固視微動の影響のために画像として相関が低く、同一ポジションyの位置においてMCの計算が不可能な場合は異なる処理を行う。例えば、特徴量を0としてステップを終了しても良いし、前後y−1、y+1の画像におけるMCが得られる場合、前後の分散値から値を補間しても良い。この場合、正しく計算できなかった特徴量は補完値であるとして異常を通知しても良い。また、特徴量の計算が出来なかったY位置を記憶しておき、自動で再スキャンを行っても良い。或いは、自動の再スキャンを行うことをせず、再測定を促す警告を出しても良い。 In step S410, the signal processing unit 053 calculates MC. MC is a value indicating the decorrelation of luminance between tomographic images, for example. In the present embodiment, a variance value is calculated for each pixel at the same position between q-frame Intensity images selected in step S408 and aligned in step S409, and the variance value is defined as MC. There are various ways of obtaining MC, and in the present invention, MC can be applied as long as it is an index representing a change in luminance value of each pixel of a plurality of tomographic images at the same Y position. When q = 1, that is, when the correlation is low as an image due to the effects of blinking or fixation micromotion, and MC cannot be calculated at the same position y k , different processing is performed. For example, the feature may be set to 0 and the step may be terminated, or when MCs in images of y k −1 and y k +1 before and after are obtained, values may be interpolated from the previous and next variance values. In this case, the abnormality may be notified that the feature quantity that could not be calculated correctly is a complementary value. Alternatively, the Y position where the feature amount could not be calculated may be stored, and rescanning may be performed automatically. Alternatively, a warning prompting remeasurement may be issued without performing automatic rescanning.

ステップS411において、信号処理手段053はステップS409にて位置合わせを行ったIntensity画像を平均化し、Intensity平均化画像を生成する。   In step S411, the signal processing unit 053 averages the intensity image subjected to the alignment in step S409, and generates an intensity averaged image.

ステップS412において信号処理手段053は、ステップS410で出力したMCの閾値処理をする。閾値の値は、信号処理手段053がステップS411で出力したIntensity平均化画像からノイズフロアでランダムノイズのみが表示されているエリアを抽出し、標準偏差σを計算し、ノイズフロアの平均輝度(intensity)値+2σと設定する。信号処理手段053は、各Intensityが上記閾値以下の領域に対応したMCの値を0に設定する。この閾値処理により、ランダムノイズに由来するMCを除去することでノイズを軽減することができる。閾値の値は小さいほどMCの検出感度は上がる一方、ノイズ成分も増す。また、大きいほどノイズは減るがMC検出の感度は下がる。本実施例では閾値をノイズフロアの平均輝度(intensity)値+2σとして設定したが、閾値はこれに限るものではない。   In step S412, the signal processing unit 053 performs threshold processing for the MC output in step S410. The threshold value is calculated by extracting an area where only random noise is displayed on the noise floor from the intensity averaged image output by the signal processing unit 053 in step S411, calculating the standard deviation σ, and calculating the average luminance of the noise floor (intensity). ) Set the value + 2σ. The signal processing unit 053 sets the MC value corresponding to the region where each intensity is equal to or less than the threshold value to 0. By this threshold processing, noise can be reduced by removing MC derived from random noise. As the threshold value is smaller, the MC detection sensitivity increases, but the noise component also increases. Also, the larger the noise, the less noise, but the MC detection sensitivity decreases. In this embodiment, the threshold value is set as the average luminance value (intensity) value of the noise floor + 2σ, but the threshold value is not limited to this.

ステップS413において、信号処理手段053はインデックスkが、所定数(n)に到達したかを判断する。すなわち、n箇所の全てのY位置において、画像相関度計算、画像選択、位置合わせ、Intensity画像平均化計算、MCの計算、及び閾値処理を行ったかを判断する。所定数に満たない場合はS401に戻り、所定数に到達した場合は、次のステップS414へ進む。ステップS413を終了した時点で、すべてのY位置での断層画像におけるIntensity平均画像とMCの3次元ボリュームデータ(3次元OCTAデータ)が生成されたことになる。なお、3次元のMC画像は、MCの3次元ボリュームデータの一例である。ステップS414では、信号処理手段053は、生成された3次元のOCTAデータに対し、深さ方向に積算したMC正面画像(MCのEnFace画像)を生成する。すなわち、信号処理手段053は、眼底のモーションコントラスト画像を取得する取得手段の一例に相当する。図3(a)は、MC正面画像の一例である。この時、MC正面画像の生成にあたり、積算する画像深さ範囲は任意に設定して良い。例えば、信号処理手段053は、ステップS411にて生成されたIntensityの平均化画像を元に眼底網膜の層境界を抽出し、所望の層を含むようにMC正面画像を生成する。MC正面画像を生成した後、信号処理手段053は信号処理フローを終了する。以上説明した装置構成、撮影方法、信号処理手順を用いることにより、所望領域においてMC画像(OCTA画像)を取得することが可能となる。なおMC画像には3次元のMC画像およびEnFace画像のような2次元のMC画像を含む。本実施例では、m=4の条件下でOCTA画像を取得している。   In step S413, the signal processing unit 053 determines whether the index k has reached a predetermined number (n). That is, it is determined whether image correlation calculation, image selection, alignment, intensity image averaging calculation, MC calculation, and threshold processing have been performed at all n Y positions. When the predetermined number is not reached, the process returns to S401, and when the predetermined number is reached, the process proceeds to the next step S414. When step S413 is completed, the intensity average image and the MC three-dimensional volume data (three-dimensional OCTA data) in the tomographic images at all the Y positions are generated. A three-dimensional MC image is an example of MC three-dimensional volume data. In step S414, the signal processing unit 053 generates an MC front image (MC EnFace image) integrated in the depth direction with respect to the generated three-dimensional OCTA data. That is, the signal processing unit 053 corresponds to an example of an acquisition unit that acquires a fundus motion contrast image. FIG. 3A is an example of the MC front image. At this time, when generating the MC front image, the image depth range to be integrated may be arbitrarily set. For example, the signal processing unit 053 extracts a layer boundary of the fundus retina based on the intensity averaged image generated in step S411, and generates an MC front image so as to include a desired layer. After generating the MC front image, the signal processing unit 053 ends the signal processing flow. By using the apparatus configuration, imaging method, and signal processing procedure described above, an MC image (OCTA image) can be acquired in a desired region. The MC image includes a three-dimensional MC image and a two-dimensional MC image such as an EnFace image. In this embodiment, the OCTA image is acquired under the condition of m = 4.

黄斑部を撮像した3次元のOCTAデータに対して、図3(b)の様に、積算する深さ範囲を網膜表層側の数層(内境界膜302からINL中心部303)に限定すると図3(a)のような網膜表層(Superficial Capillary)のMC正面画像が得られる。信号処理手段053は、MC正面画像から黄斑中心の眼底血管301が抽出できる。なお、MC正面画像を生成するための深さ範囲は上記の例に限らない。   As shown in FIG. 3B, the depth range to be integrated with respect to the three-dimensional OCTA data obtained by imaging the macula is limited to several layers on the retina surface layer side (from the inner boundary film 302 to the INL central portion 303). An MC front image of the surface layer of the retina (Superficial Capillary) such as 3 (a) is obtained. The signal processing unit 053 can extract the fundus blood vessel 301 at the center of the macula from the MC front image. The depth range for generating the MC front image is not limited to the above example.

[MC画像重ね合せ画像取得]
次にMC画像を複数枚取得する方法について、図5を用いて説明する。制御手段054はステップS501において、MC取得枚数Fのユーザ入力を促すGUIをモニタ055に表示させ、ステップS502にてユーザがFを入力する(F:1以上の整数)。なお、MC取得枚数Fはユーザ入力によらず予め決められた値であってもよい。ステップS503において、制御手段054はOCT光学系を制御してMC画像取得枚数iを1枚から順に取得し、ステップS504、505、506に示すように、ユーザの指定したFまでMC画像を取得する。ステップS505においては図4の処理が実行される。なお、MC画像の生成はステップS505で実行してもよいし、MC取得枚数Fのためのスキャンが完了した後に行うこととしてもよいし、MC取得枚数Fのためのスキャンと並行して行うこととしてもよい。
[MC image overlay image acquisition]
Next, a method for acquiring a plurality of MC images will be described with reference to FIG. In step S501, the control unit 054 displays a GUI for prompting the user to input the MC acquisition number F on the monitor 055. In step S502, the user inputs F (F is an integer equal to or greater than 1). Note that the MC acquisition number F may be a predetermined value regardless of user input. In step S503, the control unit 054 controls the OCT optical system to acquire the MC image acquisition number i sequentially from one, and acquires MC images up to F designated by the user as shown in steps S504, 505, and 506. . In step S505, the process of FIG. 4 is executed. The MC image generation may be executed in step S505, may be performed after the scan for the MC acquisition number F is completed, or may be performed in parallel with the scan for the MC acquisition number F. It is good.

所望の枚数のMC画像を取得した後、ステップS507において、信号処理手段053はデータ(複数のMC画像のデータ)をメモリ052に保存する。ステップS508において、信号処理手段053は、保存された複数のMC画像を用い、MCの重ね合せ画像を取得し、別のデータとしてメモリ052に保存する(ステップS509)。本実施例では、MC画像を10枚取得している。本処理により、複数枚のMC重ね合せ画像が取得できる。なお、重ね合わせるMC画像は3次元のMC画像であってもよいし2次元のMC画像(MCのEnFace画像)であってもよい。なお、後述する動静脈の判定においてMC画像の重ね合わせは必須の処理ではなく、重ね合わせを行っていないMC画像から動静脈の判定を行うこととしてもよい。   After obtaining the desired number of MC images, in step S507, the signal processing unit 053 stores data (data of a plurality of MC images) in the memory 052. In step S508, the signal processing unit 053 uses the plurality of stored MC images, acquires an MC superimposed image, and stores it in the memory 052 as other data (step S509). In this embodiment, ten MC images are acquired. By this processing, a plurality of MC superimposed images can be acquired. The MC image to be superimposed may be a three-dimensional MC image or a two-dimensional MC image (MC EnFace image). In addition, in the determination of the arteriovenous which will be described later, the superposition of the MC image is not an essential process, and the determination of the arterial and vein may be performed from the MC image which is not superposed.

(実施例1:第1の動静脈判定方法)
本実施例では、上述のように得た重ね合わせされたMC画像を用い、動静脈分離する例について、図6を用い説明する。
(Example 1: First arteriovenous determination method)
In the present embodiment, an example of performing arteriovenous separation using the superimposed MC images obtained as described above will be described with reference to FIG.

先ず、信号処理手段053は、図6(a)に示すMC重ね合せ画像601をメモリ052から取得する。信号処理手段053は、画像601から、内境界膜および神経線維層(RNFL)除き、図6(b)に示すMC画像602を取得する。内境界膜および神経線維層をMC正面画像から除くことで動静脈の判定が容易なMC正面画像となる。なお、内境界膜から内顆粒層の上層までを除いてMC画像062を生成することとしてもよい。すなわち、MC画像602は、内顆粒層のうち下層に位置する血管の層のMC正面画像である。なお、MC画像602は、内顆粒層のうち下層より脈絡膜側の層を含んでいてもよいし含まないようにしてもよい。また、内顆粒層のうち上層のみのMC正面画像を生成することとしてもよい。内顆粒層の一部のMC正面画像は表層における血管の影響を受けにくくなるため動静脈の判定精度を向上させることが可能となる。信号処理手段053は、例えば、3次元のMC画像からMC画像602を生成する。なお、動静脈判定のために生成するMC正面画像は上記の例に限定されるものではない。例えば、動静脈判定のために生成するMC正面画像は、内境界膜および神経線維層を含まず神経節細胞層を含む画像であってもよいし、内境界膜、神経線維層、神経節細胞層および内網状層を含まず内顆粒層の一部を含む画像であってもよい。なお、例えば、動静脈判定のために生成するMC正面画像は、内顆粒層の一部より脈絡膜側にある層を含まないこととしてもよい。ここで内顆粒層の一部とは、例えば、内顆粒層を硝子体側および脈絡膜側の上下二つに分割した場合のいずれか一方である。   First, the signal processing unit 053 acquires the MC superimposed image 601 shown in FIG. The signal processing unit 053 acquires the MC image 602 shown in FIG. 6B from the image 601 excluding the inner boundary membrane and the nerve fiber layer (RNFL). By removing the inner boundary membrane and nerve fiber layer from the MC front image, the MC front image can be easily determined for arteriovenous. Note that the MC image 062 may be generated by removing from the inner boundary membrane to the upper layer of the inner granular layer. That is, the MC image 602 is an MC front image of a blood vessel layer located in the lower layer of the inner granular layer. The MC image 602 may or may not include the choroid side layer from the lower layer of the inner granular layer. Moreover, it is good also as producing | generating the MC front image of only an upper layer among inner granule layers. Since a part of the MC front image of the inner granule layer is less affected by blood vessels in the surface layer, the determination accuracy of the arteriovenous can be improved. For example, the signal processing unit 053 generates the MC image 602 from a three-dimensional MC image. The MC front image generated for the arteriovenous determination is not limited to the above example. For example, the MC front image generated for arteriovenous determination may be an image including the ganglion cell layer without including the inner boundary membrane and the nerve fiber layer, or the inner boundary membrane, nerve fiber layer, ganglion cell The image may include a part of the inner granular layer without including the layer and the inner network layer. For example, the MC front image generated for the arteriovenous determination may not include a layer on the choroid side from a part of the inner granular layer. Here, the part of the inner granule layer is, for example, one of the cases where the inner granule layer is divided into upper and lower parts on the vitreous side and the choroid side.

信号処理手段053は、MC画像602を二値化し、図6(c)に示す画像603を取得する。信号処理手段053は、画像603に対してエロージョン(ノイズ除去方法であれば、他の方法でも良い)を実施しエロージョン画像604を取得する。信号処理手段053は、画像604から主要な血管(606〜610)を取得する。血管の取得はMC画像602に対するユーザの指定に基づいて行ってもよいし、ユーザの指定に依らず自動で行うこととしてもよい。また、血管の取得は3次元のMC画像に基づいて行うこととしてもよいし、2次元のMC画像に基づいて行うこととしてもよい。例えば3次元のMC画像に基づいて血管を取得する場合には正面方向から見た場合の血管の交差の影響を受けにくいため、深さ方向で交差した血管を別のものとして取得することが可能となる。なお、自動で血管を取得する場合には血管の長さが所定値以上の血管を主要な血管として抽出することとしてもよい。   The signal processing unit 053 binarizes the MC image 602 and acquires an image 603 shown in FIG. The signal processing unit 053 obtains the erosion image 604 by performing erosion on the image 603 (or any other method as long as it is a noise removal method). The signal processing unit 053 acquires main blood vessels (606 to 610) from the image 604. The acquisition of blood vessels may be performed based on the user's designation with respect to the MC image 602, or may be performed automatically regardless of the user's designation. In addition, blood vessel acquisition may be performed based on a three-dimensional MC image, or may be performed based on a two-dimensional MC image. For example, when acquiring a blood vessel based on a three-dimensional MC image, it is difficult to be affected by the intersection of blood vessels when viewed from the front direction, so it is possible to acquire a blood vessel that intersects in the depth direction as a separate blood vessel. It becomes. In the case of automatically acquiring a blood vessel, a blood vessel having a blood vessel length of a predetermined value or more may be extracted as a main blood vessel.

信号処理手段053は、抽出した血管を元画像602に適応させた画像605を取得する。ここで、信号処理手段053は、例えば、MC画像602と画像605との位置関係を対応付けることで、主要な血管606〜610のMC画像602における位置を特定する。ここで、血管609は、血管606が分岐した血管である為、信号処理手段053は、血管606と血管609は同一血管として取り扱う。その為、本処理で独立した血管は、606、607、608、610、となる。信号処理手段053は、独立した血管(606、607、608、610)の血管周囲(血管壁垂線に沿って、2ピクセル:約20μm)の輝度を測定する。信号処理手段053は、血管周囲の単位ピクセルあたりの輝度(Iave:単位ピクセルあたりの輝度値)をモーションコントラスト値の代表値として算出する。ここで、輝度を測定する領域は評価領域の一例である。この評価領域は血管に隣接する領域であってもよいし血管に隣接していなくともよい。例えば、評価領域は血管に隣接していなくても血管から2ピクセル以内に位置する領域であればよい。信号処理手段053は、このような条件を満たす評価領域に基づいて血管が動脈か静脈かを判定する。すなわち、信号処理手段053は、モーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値に基づいて血管が動脈か静脈かを判定する判定手段の一例に相当する。   The signal processing unit 053 acquires an image 605 obtained by adapting the extracted blood vessel to the original image 602. Here, the signal processing unit 053 identifies the positions of the main blood vessels 606 to 610 in the MC image 602 by associating the positional relationship between the MC image 602 and the image 605, for example. Here, since the blood vessel 609 is a blood vessel in which the blood vessel 606 is branched, the signal processing unit 053 treats the blood vessel 606 and the blood vessel 609 as the same blood vessel. Therefore, the blood vessels independent in this processing are 606, 607, 608, and 610. The signal processing unit 053 measures the luminance around the blood vessels (2 pixels along the blood vessel wall perpendicular line: about 20 μm) of the independent blood vessels (606, 607, 608, 610). The signal processing unit 053 calculates the luminance per unit pixel (Iave: luminance value per unit pixel) around the blood vessel as a representative value of the motion contrast value. Here, the area where the luminance is measured is an example of an evaluation area. This evaluation region may be a region adjacent to the blood vessel or may not be adjacent to the blood vessel. For example, the evaluation region may be a region located within 2 pixels from the blood vessel even if it is not adjacent to the blood vessel. The signal processing unit 053 determines whether the blood vessel is an artery or a vein based on the evaluation region that satisfies such a condition. That is, the signal processing unit 053 is an example of a determination unit that determines whether a blood vessel is an artery or a vein based on a motion contrast value of an evaluation region that is an area located within a predetermined distance from a region corresponding to a blood vessel in a motion contrast image. Equivalent to.

また、評価領域は血管から2ピクセルの領域に限定されるものではなく、2ピクセルよりも大きくてもよいし2ピクセル未満であってもよい。例えば、評価領域は血管径に基づいて決定されることとしてもよい。例えば、血管径が短いほど評価領域は血管に近くなるようにしてもよい。すなわち、評価領域が位置する場所を規定する距離である血管に相当する領域から所定距離は、血管に相当する領域の太さに基づいて決定されてもよい。具体的には、この所定距離は、血管に相当する領域の太さが小さいほど短くなることとしてもよい。   Further, the evaluation region is not limited to the region of 2 pixels from the blood vessel, and may be larger than 2 pixels or less than 2 pixels. For example, the evaluation region may be determined based on the blood vessel diameter. For example, the evaluation region may be closer to the blood vessel as the blood vessel diameter is shorter. That is, the predetermined distance from the region corresponding to the blood vessel, which is the distance defining the location where the evaluation region is located, may be determined based on the thickness of the region corresponding to the blood vessel. Specifically, the predetermined distance may be shorter as the thickness of the region corresponding to the blood vessel is smaller.

また、血管径が短いほど評価領域の血管走行方向に交差する方向の幅を短くすることとしてもよい。すなわち、評価領域の血管の走行方向に交差する方向における大きさは、血管に相当する領域の太さに基づいて決定されることとしてもよい。   Moreover, it is good also as shortening the width | variety of the direction which cross | intersects the blood vessel running direction of an evaluation area, so that a blood vessel diameter is short. That is, the size of the evaluation region in the direction intersecting the traveling direction of the blood vessel may be determined based on the thickness of the region corresponding to the blood vessel.

なお、評価領域の血管の走行方向における大きさは動静脈判定において重要なパラメータの一つである。そこで、血管の走行方向における評価領域の大きさは、所定値より大きいこととしてもよい。例えば、信号処理手段053は、血管全域に対して評価領域を設定することとしてもよい。また、血管の走行方向における評価領域の血管の走行距離に対する割合は、所定値より大きいこととしてもよい。なお、評価領域は2次元のMC画像(MC正面画像)に設定しても良いし、3次元のMC画像に設定することとしてもよい。   It should be noted that the size of the evaluation region in the running direction of the blood vessel is one of important parameters in the arteriovenous determination. Therefore, the size of the evaluation region in the blood vessel traveling direction may be larger than a predetermined value. For example, the signal processing unit 053 may set an evaluation region for the entire blood vessel. Further, the ratio of the evaluation region to the travel distance of the blood vessel in the travel direction of the blood vessel may be larger than a predetermined value. The evaluation area may be set to a two-dimensional MC image (MC front image) or may be set to a three-dimensional MC image.

信号処理手段053は、算出された各血管の輝度平均値(Iave)が一定の閾値(Is)を超えている場合は、本血管を静脈と判定し、超えていない場合は、本血管を動脈と判定する。すなわち、信号処理手段053は、代表値が閾値より大きい場合に血管を静脈と判定し、代表値が閾値未満の場合に血管を動脈と判定する。   When the calculated luminance average value (Iave) of each blood vessel exceeds a certain threshold value (Is), the signal processing unit 053 determines that the main blood vessel is a vein, and if not, the main blood vessel is determined as an artery. Is determined. That is, the signal processing unit 053 determines that the blood vessel is a vein when the representative value is larger than the threshold value, and determines the blood vessel as an artery when the representative value is less than the threshold value.

実際には、信号処理手段053は、図6(f)の様なデータを取得することができる。信号処理手段053は、血管606の輝度平均値IaveはIsよりも低い為、動脈と判定できる。また、血管607、608、610の輝度平均値IaveはIsよりも高い為、信号処理手段053は、血管607、608、610を静脈と判定できる。なお、閾値Isは固定であってもよいし可変であってもよい。信号処理手段053は、例えば、血管径に応じて閾値Isを変更することとしてもよい。信号処理手段053は、血管径が短いほど閾値Isを上げることとしてもよい。すなわち、閾値Isは血管に依らず一定の値であってもよいし、血管毎に適応的に設定される値であってもよい。   Actually, the signal processing unit 053 can acquire data as shown in FIG. The signal processing unit 053 can determine that the blood vessel 606 is an artery because the average luminance value Iave of the blood vessel 606 is lower than Is. Further, since the luminance average value Iave of the blood vessels 607, 608, and 610 is higher than Is, the signal processing unit 053 can determine that the blood vessels 607, 608, and 610 are veins. Note that the threshold value Is may be fixed or variable. For example, the signal processing unit 053 may change the threshold Is according to the blood vessel diameter. The signal processing unit 053 may increase the threshold Is as the blood vessel diameter is shorter. That is, the threshold value Is may be a constant value regardless of the blood vessel, or may be a value that is adaptively set for each blood vessel.

以上のプロセスを図7のフローチャートを用い、説明する。   The above process will be described with reference to the flowchart of FIG.

ステップS701において、信号処理手段053は、図5の処理にて得た重ね合わ後のMC画像(3次元のMC画像)をメモリ052から読みだす。ステップS702において、信号処理手段053は、3次元のMC画像からEnFace画像を取得する。本実施例では、信号処理手段053は、GCL(神経節細胞層)/IPL(内網状層)の層境界とIPL/INL(内顆粒層)(−15μm:負の符号は脈絡膜側を示す)の位置の境界とを深さ範囲とするEnFace画像を取得した。ステップS703において、信号処理手段053は、ステップS702で得た画像に画像処理を施し、主要な血管を抽出する。本実施例では信号処理手段053は、MC画像を二値化した後、エロージョン処理を一回実施した(図6(d)参照)。信号処理手段053は、画像において一定以上続くドット(画素)の集合(線)を抽出する。本実施例では、信号処理手段053は、80ピクセル以上(約1.0mm以上)の線を主要な血管として抽出した。なお、血管抽出のための数値は80ピクセルに限定されるものではない。   In step S701, the signal processing unit 053 reads from the memory 052 the superimposed MC image (three-dimensional MC image) obtained by the processing of FIG. In step S702, the signal processing unit 053 acquires an EnFace image from the three-dimensional MC image. In this embodiment, the signal processing means 053 includes the layer boundary of GCL (ganglion cell layer) / IPL (inner reticulated layer) and IPL / INL (inner granule layer) (−15 μm: the negative sign indicates the choroid side) An EnFace image having a depth range from the boundary of the position of was acquired. In step S703, the signal processing unit 053 performs image processing on the image obtained in step S702 to extract main blood vessels. In this embodiment, the signal processing unit 053 binarizes the MC image and then performs erosion processing once (see FIG. 6D). The signal processing unit 053 extracts a set (line) of dots (pixels) that continue for a certain distance in the image. In this embodiment, the signal processing means 053 extracts a line of 80 pixels or more (about 1.0 mm or more) as a main blood vessel. Note that the numerical value for blood vessel extraction is not limited to 80 pixels.

ステップS704において、信号処理手段053はステップS703で得られた主要な血管をナンバリングする。ステップS705において、信号処理手段053はナンバリングされた血管をS702で取得されたMC画像に適応させる(図6(e)参照)。ステップS706において、信号処理手段053はステップS705で得られた画像605を用い、各血管周囲の輝度(モーションコントラスト値)を計測する。本実施例では、血管の周囲(2ピクセル:約20μmエリア)の輝度を計測し、各々の血管に対して、輝度平均値(Iave)を算出する。なお、信号処理手段053は輝度平均ではなく輝度の中央値であってもよい。ステップS707において、信号処理手段053はステップS706で得られた各血管の輝度平均(Iave)と閾値(Is)を比較する。ステップS708において、信号処理手段053はIaveがIsより低い場合は、動脈と判定する。ステップS709において、IaveがIsより高い場合は、静脈と判定する。   In step S704, the signal processing unit 053 numbers the main blood vessels obtained in step S703. In step S705, the signal processing unit 053 adapts the numbered blood vessel to the MC image acquired in S702 (see FIG. 6E). In step S706, the signal processing unit 053 measures the luminance (motion contrast value) around each blood vessel using the image 605 obtained in step S705. In this embodiment, the luminance around the blood vessel (2 pixels: about 20 μm area) is measured, and the average luminance value (Iave) is calculated for each blood vessel. Note that the signal processing means 053 may be a median luminance instead of an average luminance. In step S707, the signal processing unit 053 compares the luminance average (Iave) of each blood vessel obtained in step S706 with a threshold value (Is). In step S708, when Iave is lower than Is, the signal processing unit 053 determines that the artery is an artery. In step S709, when Iave is higher than Is, it is determined as a vein.

上記の例によれば、モーションコントラスト画像から動静脈を判定することが可能となる。なお、Iaveに替えて中央値、標準偏差、最大値などを評価領域の代表値としてもよい。   According to the above example, it is possible to determine the arteriovenous from the motion contrast image. The median, standard deviation, maximum value, etc. may be used as the representative value of the evaluation area instead of Iave.

(実施例2:第2の動静脈判定方法)
実施例1では、血管壁垂線より20μmの位置の輝度により、動静脈判定を実施したが、本実施例では以下の様に血管中心より、輝度プロファイルを計測する事で、動静脈を判定する。
(Example 2: Second arteriovenous determination method)
In the first embodiment, the arteriovenous determination is performed based on the luminance at a position of 20 μm from the vascular wall perpendicular line. However, in this embodiment, the arteriovenous is determined by measuring the luminance profile from the blood vessel center as follows.

具体的には、実施例1と同様、信号処理手段053はMC画像から血管を抽出する(図10(a))。図10(a)の様に、信号処理手段053は、抽出した血管1010、1014の走行方向に対して垂直に500μmのエリア1011、1012、1013を規定する。エリア1011,1012,1013は、ユーザの入力に基づいて規定されることとしてもよいし、ユーザの入力に依らず規定することとしてもよい。なお、本明細書において垂直とは完全に垂直な場合および略垂直な場合を含む概念である。また、エリア1011、1012,1013の大きさは500μmに限定されるものではなく、他の値であってもよい。例えば、上記のエリアは血管毎に個別の大きさであってもよい。血管径に応じてエリアの大きさを変えることとしてもよく、例えば、血管径が短いほどエリアの大きさを小さくしてもよい。信号処理手段053は、各々のエリア1011、1012、1013に対して、輝度プロファイル(モーションコントラスト値のプロファイル)測定する。エリア1011の輝度プロファイルは、図10(b)の様に計測され、同様に、エリア1012は図10(c)、エリア1013は図10(d)の様に計測された。信号処理手段053は、図10(b)に示す輝度プロファイルから動静脈の判定を実施する。信号処理手段053は、例えば、血管が存在しない領域(バックグラウンドノイズと同等レベル)の輝度値(モーションコントラスト値)をIs(輝度閾値)とする。信号処理手段053は、Isよりも輝度が高いプロファイル領域1001、Isよりも輝度が低いプロファイル領域1002、プロファイル中で輝度が高いプロファイル領域1003、Isよりも輝度が低いプロファイル領域1004にプロファイルを分割できる。図10(a)におけるエリア1011と、図10(b)の輝度プロファイルとを比較すると、プロファイル領域1001には毛細血管網、プロファイル領域1002には無血管領域、プロファイル領域1003には数十μmの太い血管、プロファイル領域1004には無血管領域が存在している事が確認できる。更に、プロファイル領域1002と、プロファイル領域1004の無血管領域は、複数の点(画素)、つまり、数十μm以上の領域において無血管領域が存在している事を示している。眼底の血管構造上、無血管領域を周囲に帯びている血管1010は、動脈と判断する事が出来る。   Specifically, as in the first embodiment, the signal processing unit 053 extracts a blood vessel from the MC image (FIG. 10A). As shown in FIG. 10A, the signal processing unit 053 defines areas 1011, 1012, 1013 of 500 μm perpendicular to the traveling direction of the extracted blood vessels 1010, 1014. The areas 1011, 1012, and 1013 may be defined based on user input, or may be defined regardless of user input. In the present specification, the term “vertical” is a concept that includes a case of being completely vertical and a case of being substantially vertical. Further, the size of the areas 1011, 1012, and 1013 is not limited to 500 μm, and may be other values. For example, the above area may be an individual size for each blood vessel. The size of the area may be changed according to the blood vessel diameter. For example, the area size may be reduced as the blood vessel diameter is shorter. The signal processing unit 053 measures a luminance profile (motion contrast value profile) for each of the areas 1011, 1012, 1013. The luminance profile of the area 1011 was measured as shown in FIG. 10B. Similarly, the area 1012 was measured as shown in FIG. 10C, and the area 1013 was measured as shown in FIG. The signal processing unit 053 performs determination of the arteriovenous from the luminance profile shown in FIG. For example, the signal processing unit 053 sets Is (luminance threshold value) as a luminance value (motion contrast value) of a region where a blood vessel does not exist (a level equivalent to background noise). The signal processing unit 053 can divide the profile into a profile region 1001 having a higher luminance than Is, a profile region 1002 having a lower luminance than Is, a profile region 1003 having a higher luminance in the profile, and a profile region 1004 having a lower luminance than Is. . Comparing the area 1011 in FIG. 10A and the luminance profile in FIG. 10B, the profile region 1001 has a capillary network, the profile region 1002 has an avascular region, and the profile region 1003 has several tens of μm. It can be confirmed that an avascular region exists in the thick blood vessel and profile region 1004. Furthermore, the avascular region of the profile region 1002 and the profile region 1004 indicates that an avascular region exists at a plurality of points (pixels), that is, a region of several tens of μm or more. A blood vessel 1010 that has an avascular region around the vascular structure of the fundus can be determined as an artery.

同様に、エリア1012の輝度プロファイルについて、図10(c)を用い説明する。。領域1011の際と同様に、信号処理手段053は、Isよりも輝度が高いプロファイル領域1005、Isよりも輝度が低いプロファイル領域1006、プロファイル中で輝度が高いプロファイル領域1007、Isよりも輝度が低いプロファイル領域1008、に図10(c)に示すプロファイルを分割できる。エリア1012と、図10(c)の輝度プロファイルを比較すると、プロファイル領域1005には毛細血管網、プロファイル領域1006には無血管領域、プロファイル領域1007には数十μmの太い血管(血管1010よりも太い)、プロファイル領域1008には、無血管領域、が存在している事を示している。更に、プロファイル領域1006と、プロファイル領域1008の無血管領域は、複数の点、つまり、数十μm以上の領域において、無血管領域が存在している事が分かる。信号処理手段053は、以上の無血管領域の存在から、領域1012も無血管領域を周囲に帯びている為、MC画像から動脈と判断する事が出来る。領域1012の血管は血管1010が分岐している為、当然の結果である。本実施例では1つの血管1010に対して複数のエリア1011,1012を設定しているが、一方のエリアのプロファイルに基づいて動静脈の判定を行い、その判定結果を連結する血管に反映させてもよい。また、判定の精度を高めるために複数のエリアで動脈(または静脈)と判定された場合のみ判定対象の血管を動脈と判定しないこととしてもよい。   Similarly, the luminance profile of the area 1012 will be described with reference to FIG. . Similarly to the area 1011, the signal processing unit 053 has a profile area 1005 having a higher brightness than Is, a profile area 1006 having a lower brightness than Is, and a profile area 1007 having a higher brightness in the profile, and a brightness lower than Is. The profile shown in FIG. 10C can be divided into the profile area 1008. Comparing the luminance profile in FIG. 10C with the area 1012, the profile region 1005 is a capillary network, the profile region 1006 is a non-blood vessel region, and the profile region 1007 is a thick blood vessel of several tens of μm (than the blood vessel 1010. It is shown that the avascular region exists in the profile region 1008. Furthermore, it can be seen that the avascular region of the profile region 1006 and the profile region 1008 is present at a plurality of points, that is, regions of several tens of μm or more. The signal processing unit 053 can determine that the region 1012 is an artery from the MC image because the region 1012 also has the avascular region around the presence of the avascular region. The blood vessel in the region 1012 is a natural result because the blood vessel 1010 is branched. In this embodiment, a plurality of areas 1011 and 1012 are set for one blood vessel 1010. However, an arteriovenous determination is made based on the profile of one area, and the determination result is reflected on the connected blood vessels. Also good. Further, in order to increase the accuracy of the determination, the determination target blood vessel may not be determined as an artery only when it is determined as an artery (or vein) in a plurality of areas.

同様に、領域1013の輝度プロファイルについて、図10(d)を用い説明する。領域1011の際と同様に、信号処理手段053は、Isよりも輝度が高いプロファイル領域1009、Isよりも輝度が低いプロファイル領域1015、プロファイル中で輝度が高いプロファイル領域1015、にプロファイルを分割できる。輝度がIsよりも高いプロファイル領域1009、1016、は毛細血管など何らかの血管が存在している。更に、輝度の低いプロファイル領域1015は、一点であり、無血管領域というよりも、血管と血管の間である事が分かる。信号処理手段053は、血管1014は、無血管領域は存在せず(または無血管領域が閾値以下であるため)静脈と判定する事が出来る。   Similarly, the luminance profile of the region 1013 will be described with reference to FIG. Similarly to the area 1011, the signal processing unit 053 can divide the profile into a profile area 1009 having a higher luminance than Is, a profile area 1015 having a lower luminance than Is, and a profile area 1015 having a higher luminance in the profile. In the profile regions 1009 and 1016 whose luminance is higher than Is, some blood vessels such as capillaries exist. Further, it can be seen that the profile region 1015 having a low luminance is a single point and is located between the blood vessel and the blood vessel rather than the avascular region. The signal processing unit 053 can determine that the blood vessel 1014 is a vein without an avascular region (or because the avascular region is equal to or less than a threshold value).

すなわち、信号処理手段053は、モーションコントラスト値のプロファイルから得られる無血管領域の大きさから動静脈の判定を行うことができる。   That is, the signal processing unit 053 can determine the arteriovenous from the size of the avascular region obtained from the profile of the motion contrast value.

以上の判定、つまり、第2の動静脈判定方法の手順について、図11を用い、説明する。ステップS1101において、信号処理手段053は、図5の処理にて得た重ね合わせ後のMC画像を読みだす。ステップS1102において、信号処理手段053はMC画像より、血管を抽出する。ステップS1103において、信号処理手段053は、血管走行の方向に対して、垂直方向に200μmの直線を設定し、直線上の輝度(モーションコントラスト値)を計測する。ステップS1104において、信号処理手段053は閾値Isをメモリ052から読み出す。ステップS1105において、信号処理手段053は、輝度が閾値Isよりも低い領域の数(画素数)nを計測する。閾値Isは第1閾値の一例に相当する。本実施例では、画素数をカウントするのみとした。ステップS1106、1107において、ステップS1105で計測した画素数がn>4であれば、信号処理手段053は無血管領域が閾値より多く存在する為、動脈と判定する。ステップS1106、1108において、n≦4であれば、信号処理手段053は無血管領域が閾値以下の為、静脈と判定する。すなわち、信号処理手段053は評価領域においてモーションコントラスト値が第1閾値未満である領域の大きさに基づいて血管が動脈か静脈かを判定するといえる。また、上記の「4」は第2閾値の一例に相当する。すなわち、信号処理手段053は、価領域においてモーションコントラスト値が第1閾値未満である領域の大きさが第2閾値より大きい場合に前記血管を動脈と判定するといえる。また、信号処理手段053は、評価領域においてモーションコントラスト値が第1閾値未満である領域の大きさが第2閾値より小さい場合に前記血管を静脈と判定するといえる。   The above determination, that is, the procedure of the second arteriovenous determination method will be described with reference to FIG. In step S1101, the signal processing unit 053 reads the superimposed MC image obtained by the processing of FIG. In step S1102, the signal processing unit 053 extracts a blood vessel from the MC image. In step S1103, the signal processing unit 053 sets a straight line of 200 μm in the vertical direction with respect to the direction of blood vessel travel, and measures the luminance (motion contrast value) on the straight line. In step S1104, the signal processing unit 053 reads the threshold value Is from the memory 052. In step S1105, the signal processing unit 053 measures the number (number of pixels) n of regions where the luminance is lower than the threshold Is. The threshold value Is corresponds to an example of a first threshold value. In this embodiment, only the number of pixels is counted. In steps S1106 and 1107, if the number of pixels measured in step S1105 is n> 4, the signal processing unit 053 determines that the artery is an artery because there are more avascular regions than the threshold. In steps S1106 and 1108, if n ≦ 4, the signal processing unit 053 determines that the avascular region is equal to or less than the threshold value, so that it is a vein. That is, it can be said that the signal processing unit 053 determines whether the blood vessel is an artery or a vein based on the size of the region where the motion contrast value is less than the first threshold in the evaluation region. The above “4” corresponds to an example of a second threshold value. That is, it can be said that the signal processing unit 053 determines that the blood vessel is an artery when the size of the region where the motion contrast value is less than the first threshold in the value region is greater than the second threshold. Further, it can be said that the signal processing unit 053 determines that the blood vessel is a vein when the size of the region whose motion contrast value is less than the first threshold in the evaluation region is smaller than the second threshold.

ステップS1110において、制御手段054はモニタ055に結果を表示させる。例えば、制御手段054は、動脈と静脈とを異なる色で示したMC画像をモニタ055に表示させる。   In step S1110, the control unit 054 causes the monitor 055 to display the result. For example, the control unit 054 causes the monitor 055 to display an MC image in which arteries and veins are displayed in different colors.

以上の様に、MC画像を用い、血管の周囲の輝度を計測する事で、動静脈を判定する事が出来る。本実施例では、プロファイル領域を直線領域としたが、2次元領域、3次元領域、点の集合とした領域などを用いても良い。大きさについても同様に、実施例以外の大きさで良い。輝度の測定には、輝度平均、標準偏差、最大値などを評価領域の代表値として用いても良い。   As described above, the arteriovenous can be determined by measuring the luminance around the blood vessel using the MC image. In the present embodiment, the profile region is a straight region, but a two-dimensional region, a three-dimensional region, a region of a set of points, or the like may be used. Similarly, the size may be other than the embodiment. For luminance measurement, luminance average, standard deviation, maximum value, and the like may be used as representative values of the evaluation area.

閾値Isに関しても、設置環境、ユーザによる設定、人種により変更する事で精度の高い判定が可能となる。図11のフローにも記載したが、画像から血管を抽出するフローは手動でも自動でも良い。   The threshold value Is can also be determined with high accuracy by changing it according to the installation environment, setting by the user, and race. Although described in the flow of FIG. 11, the flow of extracting blood vessels from the image may be manual or automatic.

本実施例では、MC画像の重ね合せを用いたが、MC画像単体を用いても動静脈の判定は可能である。   In this embodiment, MC image superposition is used, but the determination of the arteriovenous can also be made using a single MC image.

(変形例1)
ステップ702において、MC画像を取得の際、INL(内顆粒層)に基づいて、MC正面画像を取得すると、動静脈判定がより安定する。具体的には、信号処理手段053は、図3(c)の様に、線307(内境界膜)から線308(神経線維層下部)、線308(神経線維層下部)から線309(神経節細胞層下部)、線309(神経節細胞層下部)から線306(INL中央)、線306(INL中央)から線310(外網状層下部)、で分割する。信号処理手段053は、この分割情報を用い、以下の様に4層分離し、第二層において、上述の動静脈判定を実施すると、データが安定する。第一層を線307から線308の5μm程度下部(脈絡膜方向)の間の層と定義する。第二層を線308の5μm以上下部から線309の5μm程度上部の間の層と定義する。第三層を線309の5μm程度上部から線306の間の層と定義する。第四層を線306から線310の間の層と定義する。前記、MC画像(MC正面画像)として、第二層を用いる事で、動静脈の判定がより精度高く得る事が出来る。第二層を用いたMC画像は、内境界膜および神経線維層を含まず、神経節細胞層を含む画像に相当する。なお、図3(c)における線304はINL上端、線305はINL下端を示している。また、第三層、第四層を動静脈判定に用いることとしてもよい。第四層を用いたMC画像は、内境界膜、神経線維層および神経節細胞層を含まず、内顆粒層の全域のうち一部のみを含む画像に相当する。
(Modification 1)
In step 702, when an MC image is acquired, if an MC front image is acquired based on INL (inner granule layer), the arteriovenous determination becomes more stable. Specifically, as shown in FIG. 3 (c), the signal processing unit 053 converts the line 307 (inner boundary membrane) to the line 308 (lower nerve fiber layer) and the line 308 (lower nerve fiber layer) to line 309 (nerve). Node node layer lower part), line 309 (lower ganglion cell layer lower part) to line 306 (INL center) and line 306 (INL center) to line 310 (outer reticulated layer lower part). The signal processing unit 053 separates the four layers as follows using this division information, and the data is stabilized when the above-described arteriovenous determination is performed in the second layer. The first layer is defined as a layer between the line 307 and the line 308 about 5 μm below (choroidal direction). The second layer is defined as a layer between 5 μm or more below line 308 and about 5 μm above line 309. The third layer is defined as a layer between the line 306 and the line 306 from about 5 μm above the line 309. The fourth layer is defined as the layer between line 306 and line 310. By using the second layer as the MC image (MC front image), the determination of the arteriovenous can be obtained with higher accuracy. The MC image using the second layer corresponds to an image including the ganglion cell layer without including the inner boundary membrane and the nerve fiber layer. In FIG. 3C, the line 304 indicates the upper end of the INL, and the line 305 indicates the lower end of the INL. The third layer and the fourth layer may be used for the arteriovenous determination. The MC image using the fourth layer does not include the inner boundary membrane, the nerve fiber layer, and the ganglion cell layer, and corresponds to an image including only a part of the entire inner granule layer.

なお、線306はINLの中心としたがこれに限定されるものではなく、線306はINL内の血管の配列に基づいて上下2つの層に分離する位置であってもよい。INL内の血管はX方向(深さ方向に直交する方向)に直線的に並んでいるため(例えば上下2段の血管がそれぞれ直線的に並んでいる)、信号処理手段053は血管の配列に基づいてINLを2層に分離する位置を求めることができる。具体的には、信号処理手段053はINL内の血管をX方向(またはY方向)に結ぶ線をINL内の2段の血管について求め、求めた線同士の深さ方向における中点を求める。X方向において複数得られるこの中点を結んだ線を線306としてもよい。すなわち、信号処理手段053は、内顆粒層に含まれる血管の配列に基づいて内顆粒層の一部(内顆粒層の上側の層または下側の層)を決定する決定手段の一例に相当する。信号処理手段053は、線306を用いて第三層および第四層のMC画像を生成する。すなわち、内顆粒層の一部に基づいて、モーションコントラスト画像を生成する生成手段の一例に相当する。   Although the line 306 is the center of the INL, the present invention is not limited to this, and the line 306 may be a position where the line 306 is separated into two upper and lower layers based on the blood vessel arrangement in the INL. Since the blood vessels in the INL are linearly arranged in the X direction (direction orthogonal to the depth direction) (for example, the upper and lower two-stage blood vessels are linearly arranged), the signal processing means 053 is arranged in the blood vessel array. Based on this, the position where the INL is separated into two layers can be determined. Specifically, the signal processing unit 053 obtains a line connecting the blood vessels in the INL in the X direction (or Y direction) for the two-stage blood vessels in the INL, and obtains a midpoint in the depth direction of the obtained lines. A line connecting the midpoints obtained in the X direction may be a line 306. That is, the signal processing unit 053 corresponds to an example of a determining unit that determines a part of the inner granule layer (the upper layer or the lower layer of the inner granule layer) based on the arrangement of blood vessels included in the inner granule layer. . The signal processing unit 053 generates the third layer and fourth layer MC images using the line 306. That is, it corresponds to an example of a generation unit that generates a motion contrast image based on a part of the inner granular layer.

また、線306により規定される内顆粒層の一部(上層または下層)のみのMC画像が生成されてもよい。なお、本変形例は実施例1、3、4に対しても適用可能である。   Further, an MC image of only a part (upper layer or lower layer) of the inner granular layer defined by the line 306 may be generated. This modification can also be applied to the first, third, and fourth embodiments.

(変形例2)
本例では、血管を分離する事で、明確なMC画像を取得でき、実施例1、2の解析が更に、向上した例を記述する。
(Modification 2)
In this example, a clear MC image can be acquired by separating blood vessels, and an example in which the analysis of Examples 1 and 2 is further improved will be described.

図9(a)の画像901はXZ断面におけるMC信号のみを表示した画像である。図9(a)の黒点902はOCT画像で時間的変化を有したエリア(点)である。黒点902はモーションコントラスト値が所定値以上の信号を有している部分であり、すなわち血管部分に相当する。黒点903も同様である。黒点902は網膜表層部の血管を示し、黒点903は脈絡膜のエリアの血管を示している。   An image 901 in FIG. 9A is an image displaying only the MC signal in the XZ section. A black point 902 in FIG. 9A is an area (point) having a temporal change in the OCT image. A black dot 902 is a portion having a signal having a motion contrast value of a predetermined value or more, that is, a blood vessel portion. The same applies to the black point 903. Black dots 902 indicate blood vessels in the surface layer of the retina, and black dots 903 indicate blood vessels in the choroid area.

図9(a)の画像において、a、b、c、dの矢印位置でx方向に輝度(モーションコントラスト値)を加算すると、図9(b)の様になる。このa、b、c、dの矢印の位置は、輝度断層画像のAスキャン方向のプロファイルのピーク位置から特定することが可能である。なお、a、b、c、dの矢印の位置を特定するためのAスキャンは複数のAスキャンの積算値を用いることとしてもよい。浅層(Superficial Capillary)と深層(Deep capillary)に存在する血管は、図9(a)の様にa〜dの様に4つの血管に分類出来る事が分かった。特に、血管層aは、輝度が低く、前述の実施例では、第一層に属していたと考えられる。同様に、血管層bは第二層、血管層cは第三層、血管層dは第四層に属していたと考えられる。例えば、信号処理手段053は、第二層に相当する血管層bの輝度の積算値が高くなるようにx方向に積算する線の角度を変更し、血管層bの輝度の積算値が最大となる角度の線を基準にして動静脈判定のためのMC正面画像を生成することとしてもよい。信号処理手段053は、例えば、血管層bの輝度の積算値が最大となる角度の線を中心として当該線に直交する方向に所定の幅を有する領域を用いてMC正面画像を生成する。なお、所定の幅は、予め決められた任意の値であってもよいし、血管層のモーションコントラスト値の分散値または標準偏差値を用いることとしてもよい。すなわち、信号処理手段053は、血管の配列に基づいてMC正面画像を生成する。   In the image of FIG. 9A, when luminance (motion contrast value) is added in the x direction at the arrow positions a, b, c, and d, the result is as shown in FIG. 9B. The positions of the arrows a, b, c, and d can be specified from the peak position of the profile in the A scan direction of the luminance tomographic image. The A scan for specifying the positions of the arrows a, b, c, and d may use an integrated value of a plurality of A scans. It has been found that blood vessels existing in the superficial layer and the deep layer can be classified into four blood vessels a to d as shown in FIG. 9A. In particular, the blood vessel layer a has a low luminance, and it is considered that the blood vessel layer a belonged to the first layer in the above-described embodiment. Similarly, the blood vessel layer b is considered to belong to the second layer, the blood vessel layer c to the third layer, and the blood vessel layer d to the fourth layer. For example, the signal processing unit 053 changes the angle of the line integrated in the x direction so that the integrated value of the luminance of the blood vessel layer b corresponding to the second layer becomes high, and the integrated value of the luminance of the blood vessel layer b is maximized. The MC front image for determining the arteriovenous may be generated with reference to the line of the angle. For example, the signal processing unit 053 generates the MC front image using a region having a predetermined width in a direction orthogonal to the line having an angle at which the integrated value of the luminance of the blood vessel layer b is maximized. The predetermined width may be an arbitrary value determined in advance, or a variance value or a standard deviation value of the motion contrast value of the blood vessel layer may be used. That is, the signal processing unit 053 generates the MC front image based on the blood vessel arrangement.

なお、血管層bの位置はユーザにより特定されてもよいし、信号処理手段053によりx方向における輝度の積算をz方向に順次行うことで得られるピークの位置に基づいて決定することも可能である。信号処理手段053は、例えば、脈絡膜側から2番目のピーク位置を血管層bとして特定することが可能となる。   The position of the blood vessel layer b may be specified by the user, or may be determined based on the peak position obtained by sequentially performing luminance integration in the x direction by the signal processing unit 053. is there. For example, the signal processing unit 053 can identify the second peak position from the choroid side as the blood vessel layer b.

本例の様に、血管を用いてMC正面画像を生成することで、動静脈判定に適したMC画像を取得できる。また、動静脈判定のみならず、所望の血管のMC正面画像が生成されるため、診断にも適している。なお、本変形例は実施例1,3、4に対しても適用可能である。   As in this example, an MC image suitable for arteriovenous determination can be acquired by generating an MC front image using blood vessels. In addition to the arteriovenous determination, an MC front image of a desired blood vessel is generated, which is suitable for diagnosis. This modification can also be applied to the first, third, and fourth embodiments.

(実施例3:動静脈判定に関する情報の表示)
実施例1、2では評価領域内のモーションコントラスト値または無血管領域の大きさに基づいてMC画像に基づく動静脈の判定を自動で行うことについて述べたが、本実施例では動静脈の判定を支援する情報を表示する例について説明する。
(Example 3: Display of information on arteriovenous determination)
In the first and second embodiments, it has been described that the determination of the arteriovenous based on the MC image is automatically performed based on the motion contrast value in the evaluation region or the size of the avascular region. An example of displaying supporting information will be described.

本実施例では、図7のステップS706で得られたIaveおよび図11のステップS1105で得られた無血管領域を示す画素の数nの少なくとも一方を制御手段054がモニタ055に表示させる。本実施例では血管が動脈であるか静脈であるかの自動判定は実施しない。Iaveまたは数nは、血管が動脈か静脈かを示す情報の一例に相当する。また、制御手段054は、動脈か静脈かを示す情報を表示部に表示させる表示制御手段の一例に相当する。   In this embodiment, the control unit 054 causes the monitor 055 to display at least one of Iave obtained in step S706 in FIG. 7 and the number n of pixels indicating the avascular region obtained in step S1105 in FIG. In this embodiment, automatic determination as to whether a blood vessel is an artery or a vein is not performed. Iave or number n corresponds to an example of information indicating whether a blood vessel is an artery or a vein. The control unit 054 corresponds to an example of a display control unit that displays information indicating whether an artery or a vein is displayed on the display unit.

制御手段054は、ユーザにより選択された血管または装置により自動的に選択された血管に関して、Iaveおよび数nの少なくとも一方をモニタ055に表示させる。制御手段054は更に、Iaveおよび数nの少なくとも一方の動静脈判定の基準となる閾値をモニタ055に表示させることとしてもよい。また、MC画像が更にモニタ055に表示されることとしてもよい。例えば、MC画像上の血管がユーザにより指定されると当該血管に関するIaveおよび数nの少なくとも一方と、Iaveおよび数nの少なくとも一方の動静脈判定の基準となる閾値とがモニタ055に表示される。   The control unit 054 causes the monitor 055 to display at least one of Iave and the number n regarding the blood vessel selected by the user or the blood vessel automatically selected by the device. The control unit 054 may further display a threshold value serving as a reference for determining at least one of Iave and number n on the monitor 055. Further, the MC image may be further displayed on the monitor 055. For example, when a blood vessel on the MC image is designated by the user, at least one of Iave and number n related to the blood vessel and a threshold value used as a reference for determining at least one of Iave and number n are displayed on the monitor 055. .

このようにすれば、動静脈判定に必要な情報をユーザが把握することができる。   In this way, the user can grasp information necessary for the arteriovenous determination.

(実施例4:FAZ検出)
本実施例では、FAZ解析をより安定的に提供できる解析装置について述べる。
(Example 4: FAZ detection)
In the present embodiment, an analysis apparatus capable of providing FAZ analysis more stably will be described.

FAZとは、中心窩における無血管領域であり、図3(a)の311の領域である。MC信号を用いた従来の浅層(Superficial Capillary)画像では、FAZの計測が安定しなかった。理由は、浅層(Superficial Capillary)と深層(Deep capillary)の分割境界が曖昧で、層セグメンテーション定義に依存していた為である。   FAZ is an avascular region in the fovea, and is a region 311 in FIG. In the conventional superficial capillary image using the MC signal, the FAZ measurement was not stable. The reason is that the dividing boundary between the shallow layer (Supercapillary Capillary) and the deep layer (Deep Capillary) is ambiguous and depends on the layer segmentation definition.

本実施例のフローについて、図8を用い、説明する。   The flow of this embodiment will be described with reference to FIG.

ステップS801において、信号処理手段053は重ね合わせ後のMC画像をメモリ052から取得する。ステップS802において、ステップS801で取得した画像を上述した第一層、第二層、第三層、第四層に分離する。ステップS803において、信号処理手段053は、ステップS802で分割された第三層のMC画像を抽出する。例えば、信号処理手段053はステップS801で取得した重ね合わせ後の3次元のMC画像に基づいて第三層のMC画像(MC正面画像)を生成する。ステップS804において、信号処理手段053は、ステップS803で取得した第三層のMC画像を用い、FAZを計測する。本実施例では、第三層のMC画像を二値化する事でFAZを計測した。   In step S <b> 801, the signal processing unit 053 acquires the MC image after superposition from the memory 052. In step S802, the image acquired in step S801 is separated into the first layer, the second layer, the third layer, and the fourth layer described above. In step S803, the signal processing unit 053 extracts the third-layer MC image divided in step S802. For example, the signal processing unit 053 generates a third layer MC image (MC front image) based on the three-dimensional MC image after superposition acquired in step S801. In step S804, the signal processing unit 053 measures FAZ using the MC image of the third layer acquired in step S803. In this example, FAZ was measured by binarizing the third layer MC image.

上述の様なフローでFAZを計測すると、従来の浅層(Superficial Capillary)で計測した際よりも繰り返し精度が向上した。また、疾患眼において、同様の処理を実施する事で更にFAZの数値が安定した。   When the FAZ was measured by the flow as described above, the repetition accuracy was improved as compared with the case where the measurement was performed using a conventional superficial layer. Moreover, in the diseased eye, the FAZ value was further stabilized by performing the same treatment.

本実施例の処理は、同一被験者における経時変化情報を取得する際、軽微な変化を正確に抽出できる為、経時変化を計測する際は特に効果がある。   The processing of the present embodiment is particularly effective when measuring changes over time because it is possible to accurately extract slight changes when acquiring change information over time in the same subject.

(その他の実施形態)
以上、実施形態例を詳述したが、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other embodiments)
Although the embodiment has been described in detail above, the disclosed technology can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

なお、上述した実施例および変形例は適宜組み合わせて実施してもよい。   In addition, you may implement combining the Example and modification which were mentioned above suitably.

053 信号処理手段
054 制御手段
055 モニタ
053 Signal processing means 054 Control means 055 Monitor

Claims (25)

眼底のモーションコントラスト画像を取得する取得手段と、
前記モーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値に基づいて前記血管が動脈か静脈かを判定する判定手段と、
を備えることを特徴とする画像処理装置。
Obtaining means for obtaining a motion contrast image of the fundus;
Determining means for determining whether the blood vessel is an artery or a vein based on a motion contrast value of an evaluation region that is an area located within a predetermined distance from a region corresponding to the blood vessel in the motion contrast image;
An image processing apparatus comprising:
前記判定手段は、前記評価領域におけるモーションコントラスト値の代表値に基づいて前記血管が動脈か静脈かを判定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines whether the blood vessel is an artery or a vein based on a representative value of a motion contrast value in the evaluation region. 前記判定手段は、前記代表値が閾値未満の場合に前記血管を動脈と判定することを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit determines that the blood vessel is an artery when the representative value is less than a threshold value. 前記判定手段は、前記代表値が前記閾値より大きい場合に前記血管を静脈と判定することを特徴とする請求項2または請求項3に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit determines that the blood vessel is a vein when the representative value is larger than the threshold value. 前記代表値は、前記評価領域におけるモーションコントラスト値の平均値、中央値または最大値であることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the representative value is an average value, a median value, or a maximum value of motion contrast values in the evaluation region. 前記判定手段は、前記評価領域においてモーションコントラスト値が第1閾値未満である領域の大きさに基づいて前記血管が動脈か静脈かを判定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines whether the blood vessel is an artery or a vein based on a size of a region having a motion contrast value less than a first threshold in the evaluation region. 前記判定手段は、前記評価領域においてモーションコントラスト値が前記第1閾値未満である領域の大きさが第2閾値より大きい場合に前記血管を動脈と判定することを特徴とする請求項6記載の画像処理装置。   The image according to claim 6, wherein the determination unit determines that the blood vessel is an artery when a size of a region having a motion contrast value less than the first threshold in the evaluation region is greater than a second threshold. Processing equipment. 前記判定手段は、前記評価領域においてモーションコントラスト値が前記第1閾値未満である領域の大きさが前記第2閾値より小さい場合に前記血管を静脈と判定することを特徴とする請求項6または請求項7記載の画像処理装置。   7. The determination unit according to claim 6, wherein the blood vessel is determined to be a vein when a size of a region having a motion contrast value less than the first threshold in the evaluation region is smaller than the second threshold. Item 8. The image processing apparatus according to Item 7. 前記評価領域は、前記血管に相当する領域に隣接する領域であることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the evaluation area is an area adjacent to an area corresponding to the blood vessel. 前記血管の走行方向における前記評価領域の大きさは、所定値より大きいことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a size of the evaluation region in the traveling direction of the blood vessel is larger than a predetermined value. 前記血管の走行方向における前記評価領域の前記血管の走行距離に対する割合は、所定値より大きいことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   10. The image processing apparatus according to claim 1, wherein a ratio of the evaluation region to a travel distance of the blood vessel in the travel direction of the blood vessel is larger than a predetermined value. 前記評価領域の前記血管の走行方向に交差する方向における大きさは、前記血管に相当する領域の太さに基づいて決定されることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。   The size of the evaluation region in a direction intersecting the traveling direction of the blood vessel is determined based on the thickness of the region corresponding to the blood vessel. Image processing apparatus. 前記所定距離は、前記血管に相当する領域の太さに基づいて決定されることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined distance is determined based on a thickness of a region corresponding to the blood vessel. 前記所定距離は、前記血管に相当する領域の太さが小さいほど短くなることを特徴とする請求項13記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the predetermined distance is shorter as a thickness of a region corresponding to the blood vessel is smaller. 前記モーションコントラスト画像はEnFace画像であることを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the motion contrast image is an EnFace image. 前記モーションコントラスト画像は、内境界膜および神経線維層を含まず、神経節細胞層を含む画像であることを特徴とする請求項15記載の画像処理装置。   The image processing apparatus according to claim 15, wherein the motion contrast image is an image including a ganglion cell layer without including an inner limiting membrane and a nerve fiber layer. 前記モーションコントラスト画像は、内境界膜、神経線維層および神経節細胞層を含まず、内顆粒層の全域のうち一部のみを含むことを特徴とする請求項15記載の画像処理装置。   The image processing apparatus according to claim 15, wherein the motion contrast image does not include an inner boundary membrane, a nerve fiber layer, and a ganglion cell layer but includes only a part of the entire area of the inner granule layer. 前記内顆粒層の一部を、前記内顆粒層に含まれる血管の配列に基づいて決定する決定手段と、
前記決定手段により決定された前記内顆粒層の一部に基づいて、前記モーションコントラスト画像を生成する生成手段と、を更に備えることを特徴とする請求項17記載の画像処理装置。
Determining means for determining a part of the inner granule layer based on an arrangement of blood vessels contained in the inner granule layer;
The image processing apparatus according to claim 17, further comprising: a generation unit that generates the motion contrast image based on a part of the inner granular layer determined by the determination unit.
前記決定手段は、深さ方向に直交する方向における血管の配列に基づいて前記内顆粒層の一部を決定することを特徴とする請求項18記載の画像処理装置。   19. The image processing apparatus according to claim 18, wherein the determining unit determines a part of the inner granule layer based on an array of blood vessels in a direction orthogonal to the depth direction. 前記モーションコントラスト画像は、前記内顆粒層の一部より脈絡膜側にある層を含まないことを特徴とする請求項17乃至19のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the motion contrast image does not include a layer that is closer to the choroid than a part of the inner granular layer. 眼底のモーションコントラスト画像を取得する取得手段と、
前記モーションコントラスト画像における血管に相当する領域に隣接する無血管領域の大きさに基づいて前記血管が動脈か静脈かを判定する判定手段と、
を備えることを特徴とする画像処理装置。
Obtaining means for obtaining a motion contrast image of the fundus;
Determining means for determining whether the blood vessel is an artery or a vein based on the size of an avascular region adjacent to the region corresponding to the blood vessel in the motion contrast image;
An image processing apparatus comprising:
眼底のモーションコントラスト画像を取得する取得手段と、
前記モーションコントラスト画像におけるモーションコントラスト値に基づいて、前記モーションコントラスト画像に含まれる血管が動脈か静脈かを判定する判定手段と、
を備えることを特徴とする画像処理装置。
Obtaining means for obtaining a motion contrast image of the fundus;
Determination means for determining whether a blood vessel included in the motion contrast image is an artery or a vein based on a motion contrast value in the motion contrast image;
An image processing apparatus comprising:
眼底のモーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値に基づいて前記血管が動脈か静脈かを示す情報を取得する取得手段と、
前記動脈か静脈かを示す情報を表示部に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring information indicating whether the blood vessel is an artery or a vein based on a motion contrast value of an evaluation region which is a region located within a predetermined distance from a region corresponding to a blood vessel in a motion contrast image of the fundus;
Display control means for displaying on the display section information indicating whether the artery or vein;
An image processing apparatus comprising:
眼底のモーションコントラスト画像を取得する取得工程と、
前記モーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値に基づいて前記血管が動脈か静脈かを判定する判定工程と、
を備えることを特徴とする画像処理方法。
An acquisition step of acquiring a motion contrast image of the fundus;
A determination step of determining whether the blood vessel is an artery or a vein based on a motion contrast value of an evaluation region that is a region located within a predetermined distance from a region corresponding to the blood vessel in the motion contrast image;
An image processing method comprising:
請求項24に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute the image processing method according to claim 24.
JP2018038354A 2018-03-05 2018-03-05 Image processing device, image processing method and program Active JP7140512B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018038354A JP7140512B2 (en) 2018-03-05 2018-03-05 Image processing device, image processing method and program
PCT/JP2019/006835 WO2019171986A1 (en) 2018-03-05 2019-02-22 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018038354A JP7140512B2 (en) 2018-03-05 2018-03-05 Image processing device, image processing method and program

Publications (3)

Publication Number Publication Date
JP2019150345A true JP2019150345A (en) 2019-09-12
JP2019150345A5 JP2019150345A5 (en) 2021-03-11
JP7140512B2 JP7140512B2 (en) 2022-09-21

Family

ID=67846663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018038354A Active JP7140512B2 (en) 2018-03-05 2018-03-05 Image processing device, image processing method and program

Country Status (2)

Country Link
JP (1) JP7140512B2 (en)
WO (1) WO2019171986A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022226395A1 (en) * 2021-04-23 2022-10-27 Fujifilm Sonosite, Inc. Displaying blood vessels in ultrasound images
US11896425B2 (en) 2021-04-23 2024-02-13 Fujifilm Sonosite, Inc. Guiding instrument insertion
US11900593B2 (en) 2021-04-23 2024-02-13 Fujifilm Sonosite, Inc. Identifying blood vessels in ultrasound images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003019119A (en) * 2001-07-10 2003-01-21 Canon Inc Eyeground rheometer
WO2008069062A1 (en) * 2006-12-01 2008-06-12 Kyushu Tlo Company, Limited Blood flow speed image creating device
JP2014504523A (en) * 2011-01-20 2014-02-24 ユニバーシティ オブ アイオワ リサーチ ファウンデーション Automatic measurement of arteriovenous ratio in blood vessel images
JP2017077413A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017202369A (en) * 2017-08-23 2017-11-16 株式会社トプコン Ophthalmologic image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003019119A (en) * 2001-07-10 2003-01-21 Canon Inc Eyeground rheometer
WO2008069062A1 (en) * 2006-12-01 2008-06-12 Kyushu Tlo Company, Limited Blood flow speed image creating device
JP2014504523A (en) * 2011-01-20 2014-02-24 ユニバーシティ オブ アイオワ リサーチ ファウンデーション Automatic measurement of arteriovenous ratio in blood vessel images
JP2017077413A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017202369A (en) * 2017-08-23 2017-11-16 株式会社トプコン Ophthalmologic image processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022226395A1 (en) * 2021-04-23 2022-10-27 Fujifilm Sonosite, Inc. Displaying blood vessels in ultrasound images
US11896425B2 (en) 2021-04-23 2024-02-13 Fujifilm Sonosite, Inc. Guiding instrument insertion
US11900593B2 (en) 2021-04-23 2024-02-13 Fujifilm Sonosite, Inc. Identifying blood vessels in ultrasound images

Also Published As

Publication number Publication date
JP7140512B2 (en) 2022-09-21
WO2019171986A1 (en) 2019-09-12

Similar Documents

Publication Publication Date Title
KR102046309B1 (en) Image generating apparatus, image generating method, and storage medium
US8794763B2 (en) Method for finding the lateral position of the fovea in an SDOCT image volume
JP7193343B2 (en) Method and apparatus for reducing artifacts in OCT angiography using machine learning techniques
US10022047B2 (en) Ophthalmic apparatus
US10588572B2 (en) Bulk motion subtraction in optical coherence tomography angiography
US9839351B2 (en) Image generating apparatus, image generating method, and program
EP2462863B1 (en) Image processing apparatus for processing tomographic image of subject&#39;s eye, imaging system, method for processing image, and program
US10327635B2 (en) Systems and methods to compensate for reflectance variation in OCT angiography
US10383516B2 (en) Image generation method, image generation apparatus, and storage medium
JP2011194061A (en) Image processor, image processing system, image processing method, and program for causing computer to process image
US10251550B2 (en) Systems and methods for automated segmentation of retinal fluid in optical coherence tomography
WO2019171986A1 (en) Image processing device, image processing method, and program
US11717155B2 (en) Identifying retinal layer boundaries
JP7254682B2 (en) Image processing device, image processing method, and program
JP7130989B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP2019150554A (en) Image processing system and method for controlling the same
JP6976818B2 (en) Image processing equipment, image processing methods and programs
JP6061984B2 (en) Image processing apparatus, image processing method, and program
WO2019172043A1 (en) Image processing device and control method thereof
Li Computational Methods for Enhancements of Optical Coherence Tomography
JP2017144047A (en) Imaging apparatus and driving method therefor, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R151 Written notification of patent or utility model registration

Ref document number: 7140512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151