JP7140512B2 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP7140512B2
JP7140512B2 JP2018038354A JP2018038354A JP7140512B2 JP 7140512 B2 JP7140512 B2 JP 7140512B2 JP 2018038354 A JP2018038354 A JP 2018038354A JP 2018038354 A JP2018038354 A JP 2018038354A JP 7140512 B2 JP7140512 B2 JP 7140512B2
Authority
JP
Japan
Prior art keywords
image
blood vessel
motion contrast
image processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018038354A
Other languages
Japanese (ja)
Other versions
JP2019150345A5 (en
JP2019150345A (en
Inventor
勇貴 村岡
朋之 牧平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018038354A priority Critical patent/JP7140512B2/en
Priority to PCT/JP2019/006835 priority patent/WO2019171986A1/en
Publication of JP2019150345A publication Critical patent/JP2019150345A/en
Publication of JP2019150345A5 publication Critical patent/JP2019150345A5/ja
Application granted granted Critical
Publication of JP7140512B2 publication Critical patent/JP7140512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Description

本明細書の開示は、画像処理装置、画像処理方法及びプログラムに関する。 The disclosure of the present specification relates to an image processing device, an image processing method, and a program.

特許文献1には、断層画像から所定の血管が動脈か静脈かを判定する方法が開示されている。 Patent Literature 1 discloses a method for determining whether a given blood vessel is an artery or a vein from a tomographic image.

特願2015-207572号公報Japanese Patent Application No. 2015-207572

しかしながら、OCT Angiography(OCTA)により得られたモーションコントラスト画像から所定の血管が動脈か静脈かを判定する技術は知られていなかった。 However, no technology has been known for determining whether a given blood vessel is an artery or a vein from a motion contrast image obtained by OCT Angiography (OCTA).

本明細書の開示は、上記の課題に鑑みてなされたものであり、所定の血管が動脈か静脈かという判定をモーションコントラスト画像に基づいて支援することを目的の1つとする。 The disclosure of the present specification has been made in view of the above problem, and one of the objects thereof is to support determination of whether a predetermined blood vessel is an artery or a vein based on a motion contrast image.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。 It should be noted that it is not limited to the above object, but it is a function and effect derived from each configuration shown in the mode for carrying out the invention described later, and it is also disclosed in the present specification that there is a function and effect that cannot be obtained by the conventional technology. It can be positioned as one of the other purposes.

本明細書に開示の画像処理装置は、眼底のモーションコントラスト画像を取得する取得手段と、前記モーションコントラスト画像における血管に相当する領域から所定距離以内の領域である評価領域のモーションコントラスト値の代表値に基づいて前記血管が動脈か静脈かを判定する判定手段と、を備え、前記代表値は、前記評価領域におけるモーションコントラスト値の平均値である。 The image processing apparatus disclosed in the present specification includes acquisition means for acquiring a motion contrast image of the fundus, and a representative motion contrast value of an evaluation region within a predetermined distance from a region corresponding to a blood vessel in the motion contrast image. and determining means for determining whether the blood vessel is an artery or a vein based on the representative value is an average value of motion contrast values in the evaluation area .

所定の血管が動脈か静脈かという判定をモーションコントラスト画像に基づいて支援することが可能となる。 It is possible to support determination as to whether a given blood vessel is an artery or a vein based on the motion contrast image.

装置構成の一例を示す図である。It is a figure which shows an example of an apparatus configuration. OCTA撮像時のスキャンの一例を示す図である。FIG. 4 is a diagram showing an example of scanning during OCTA imaging; モーションコントラスト画像の一例を説明するための図である。It is a figure for demonstrating an example of a motion contrast image. モーションコントラスト画像の取得手順の一例を示す図である。FIG. 4 is a diagram showing an example of a procedure for obtaining a motion contrast image; モーションコントラスト画像の重ね合せ手順の一例を示す図である。FIG. 4 is a diagram showing an example of a procedure for superimposing motion contrast images; 動脈・静脈の判定方法の一例を説明するための図である。It is a figure for demonstrating an example of the determination method of an artery and a vein. 動脈・静脈の判定手順の一例を示す図である。It is a figure which shows an example of the determination procedure of an artery and a vein. FAZ検出手順の一例を示す図である。It is a figure which shows an example of a FAZ detection procedure. 血管分類の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of blood vessel classification; 動脈・静脈の判定方法の一例を説明するための図である。It is a figure for demonstrating an example of the determination method of an artery and a vein. 動脈・静脈の判定手順の一例を示す図である。It is a figure which shows an example of the determination procedure of an artery and a vein.

OCTA画像を取得する為の装置構成を説明する。次に、OCT情報から、MC画像を取得する方法の全体を説明し、順次、詳細フローを説明する。 An apparatus configuration for acquiring an OCTA image will be described. Next, the overall method of acquiring the MC image from the OCT information will be described, and the detailed flow will be described sequentially.

[ハード構成]
図1(a)は装置構成の一例を示す図である。光源001はSLD光源であり、カプラ002によって、所望の分岐比の下、光を測定光と参照光とに分岐する。測定光は、カプラ002を通過しコリメータ021よりサンプル光学系102へ出射される。サンプル光学系102には、フォーカスレンズ022、角度可変であるXガルバノメトリックミラー023とYガルバノメトリックミラー024、対物レンズ系を形成するレンズ025、レンズ026が配置され、これらを経由して被検眼027の眼底上に測定光によるビームスポットが形成される。ここで、眼底上に導かれたビームスポットは、Xガルバノメトリックミラー023とYガルバノメトリックミラー024の駆動により、眼底上で2次元に走査される。被検眼027の眼底で反射散乱した測定光は、サンプル光学系102を介した後、カプラ002へ導かれる。参照光は、参照光学系103へ導かれ、コリメータレンズ031によりコリメート光となり、NDフィルター032を通過し所定光量に減衰される。その後、参照光はコリメートされた状態を保持したまま、光軸方向に移動可能でサンプル光学系102との光路長差を補正することができるミラー033で反射され、同じ光路へ折り返される。折り返された参照光は、NDフィルター032、コリメータレンズ031を介した後、カプラ002へ導かれる。
[Hardware configuration]
FIG. 1(a) is a diagram showing an example of an apparatus configuration. A light source 001 is an SLD light source, and a coupler 002 splits light into measurement light and reference light at a desired splitting ratio. The measurement light passes through the coupler 002 and is emitted from the collimator 021 to the sample optical system 102 . The sample optical system 102 includes a focus lens 022, an angle-variable X galvanometric mirror 023 and a Y galvanometric mirror 024, and lenses 025 and 026 forming an objective lens system. A beam spot is formed by the measuring light on the fundus of the eye. Here, the beam spot guided onto the fundus is two-dimensionally scanned on the fundus by driving the X galvanometric mirror 023 and the Y galvanometric mirror 024 . The measurement light reflected and scattered by the fundus of the subject's eye 027 is guided to the coupler 002 after passing through the sample optical system 102 . The reference light is guided to the reference optical system 103, becomes collimated light by the collimator lens 031, passes through the ND filter 032, and is attenuated to a predetermined light amount. After that, the reference light is reflected by a mirror 033 that can move in the optical axis direction and correct the optical path length difference with the sample optical system 102 while maintaining the collimated state, and is returned to the same optical path. The folded reference light is guided to the coupler 002 after passing through the ND filter 032 and the collimator lens 031 .

カプラ002へ戻ってきた測定光と参照光は、カプラ002により合波され、検出系(もしくは分光器)104に導かれる。合波された光はコリメータ042により出射され、回折格子043にて分光された後、レンズ044を介してラインセンサ045で受光され、干渉信号として出力される。尚、ラインセンサ045は、各画素が回折格子043によって分光された光の波長成分に対応して受光するように配置されている。 The measurement light and reference light that have returned to the coupler 002 are combined by the coupler 002 and guided to the detection system (or spectroscope) 104 . The combined light is emitted by a collimator 042, dispersed by a diffraction grating 043, received by a line sensor 045 via a lens 044, and output as an interference signal. The line sensor 045 is arranged so that each pixel receives light corresponding to the wavelength component of the light split by the diffraction grating 043 .

図1(b)は画像処理装置を含む装置構成の一例を示す図である。OCT光学系にはフォーカスレンズ022を移動させるためのフォーカス駆動手段061が、Xガルバノメトリックミラー023、Yガルバノメトリックミラー024を駆動するためのガルバノメトリックミラー駆動手段062が、ミラー033を光軸方向に移動させるためのミラー駆動手段063が、各々設けられている。各々の駆動手段と光源001、ラインセンサ045、サンプリング部051、メモリ052、信号処理手段053、操作入力手段056、モニタ055などは制御手段054に接続されて装置全体の動きが制御されている。ここで、画像処理装置は信号処理手段053,制御手段054を含むものである。なお、サンプリング部051、メモリ052、モニタ055および操作入力手段056の少なくとも1つを画像処理装置が含むこととしてもよい。なお、信号処理手段053および制御手段054は画像処理装置に備えられたCPU等のプロセッサがメモリに記憶されたプログラムを実行することで実現される。なお、CPU等のプロセッサはメモリに記憶されたプログラムを実行することでサンプリング部051として機能することとしてもよい。 FIG. 1(b) is a diagram showing an example of an apparatus configuration including an image processing apparatus. The OCT optical system includes focus drive means 061 for moving the focus lens 022, galvanometric mirror drive means 062 for driving the X galvanometric mirror 023 and Y galvanometric mirror 024, and the mirror 033 in the optical axis direction. A mirror driving means 063 for moving is provided for each. Each drive means, light source 001, line sensor 045, sampling section 051, memory 052, signal processing means 053, operation input means 056, monitor 055, etc. are connected to control means 054 to control the movement of the entire apparatus. Here, the image processing apparatus includes signal processing means 053 and control means 054 . At least one of the sampling section 051, the memory 052, the monitor 055 and the operation input means 056 may be included in the image processing apparatus. The signal processing means 053 and the control means 054 are realized by executing a program stored in a memory by a processor such as a CPU provided in the image processing apparatus. A processor such as a CPU may function as the sampling unit 051 by executing a program stored in a memory.

ラインセンサ045からの出力信号は、ガルバノメトリックミラー駆動手段062によって駆動された任意のガルバノメトリックミラー駆動位置について、サンプリング部051により干渉信号として出力される。続いて、ガルバノメトリックミラー駆動手段062によってガルバノメトリックミラー駆動位置がオフセットされ、その位置における干渉信号が出力される。以降はこの繰り返しで干渉信号が次々に生成される。サンプリング部051で生成された干渉信号は、メモリ052にガルバノメトリックミラー駆動位置とともに記憶される。メモリ052に記憶された干渉信号は、信号処理手段053により、周波数解析され、被検眼027の眼底の断面像となり、モニタ055に表示される。ガルバノメトリックミラー駆動位置情報によって、3次元の眼底ボリューム像を生成し、モニタ055に表示することもできる。 An output signal from the line sensor 045 is output as an interference signal by the sampling section 051 for any galvanometric mirror driving position driven by the galvanometric mirror driving means 062 . Subsequently, the galvanometric mirror driving position is offset by the galvanometric mirror driving means 062, and an interference signal at that position is output. After that, interference signals are generated one after another by repeating this process. The interference signal generated by the sampling section 051 is stored in the memory 052 together with the galvanometric mirror drive position. The interference signal stored in the memory 052 is frequency-analyzed by the signal processing means 053 , becomes a cross-sectional image of the fundus of the eye 027 to be examined, and is displayed on the monitor 055 . It is also possible to generate a three-dimensional fundus volume image and display it on the monitor 055 based on the galvanometric mirror drive position information.

制御手段054は、撮影中の任意のタイミングでバックグラウンドデータを取得する。バックグラウンドデータとは、被検体に測定光が入射しない状態の信号、即ち参照光のみの信号を指し、例えばガルバノメトリックミラー駆動手段062によりガルバノメトリックミラーを駆動し、サンプル光学系から測定光が戻らないように測定光の位置を調整した状態で信号取得を行うことでバックグラウンドデータを取得する。 The control means 054 acquires background data at arbitrary timing during photographing. The background data refers to a signal in a state where no measurement light is incident on the subject, that is, a signal of only the reference light. Background data is acquired by performing signal acquisition in a state in which the position of the measurement light is adjusted so that it does not return.

[スキャン例]
次に、図2を用いて本実施形態のスキャンパターンの一例を説明する。なお、以下に例示する数値は一例であり他の数値に変更することができる。図2(a)は任意のスキャンについて、図2(b)は本実施例で具体的に実行した数値を反映させたスキャンパターンを示す図である。OCTAでは血流によるOCT干渉信号の時間変化を計測するため、同じ場所で複数回の計測が必要となる。本実施形態ではOCT装置は同じ場所でのBスキャンをm回繰り返しつつ、n箇所のyポジションに移動するスキャンを行う。具体的なスキャンパターンを図2(a)に示す。眼底平面上でy1~ynのn箇所のyポジションについて、Bスキャンをm回繰り返す。mが大きいと同じ場所での計測回数が増えるため、血流の検出精度が向上する。その一方でスキャン時間が長くなり、スキャン中の眼の動き(固視微動)により画像にモーションアーチファクトが発生する問題と被検者の負担が増える問題が生じる。本実施形態では両者のバランスを考慮してm=4(図2(b))として実施した。
[Scan example]
Next, an example of the scan pattern of this embodiment will be described with reference to FIG. Note that the numerical values exemplified below are examples and can be changed to other numerical values. FIG. 2(a) is a diagram showing an arbitrary scan, and FIG. 2(b) is a diagram showing a scan pattern reflecting numerical values specifically executed in this embodiment. Since OCTA measures temporal changes in OCT interference signals due to blood flow, multiple measurements are required at the same location. In this embodiment, the OCT apparatus repeats B-scanning at the same location m times and performs scanning moving to n y-positions. A specific scan pattern is shown in FIG. B scan is repeated m times for n y positions from y1 to yn on the fundus plane. When m is large, the number of times of measurement at the same place increases, so blood flow detection accuracy improves. On the other hand, the scanning time becomes longer, and there arises a problem that motion artifacts are generated in the image due to eye movement (fixational eye movement) during scanning and a problem that the burden on the subject increases. In the present embodiment, m=4 (FIG. 2(b)) is set in consideration of the balance between the two.

なお、OCT装置のAスキャン速度、被検体027の眼底表面画像の運動解析に応じて、繰り返し数mを変更してもよい。図2においてpは1つのBスキャンにおけるAスキャンのサンプリング数を示している。すなわち、p×nにより平面画像サイズが決定される。p×nが大きいと、同じ計測ピッチであれば広範囲がスキャンできるが、スキャン時間が長くなり、上述のモーションアーチファクトおよび患者負担の問題が生じる。本実施形態では両者のバランスを考慮してn=p=300として実施した。なお、上記n,pは適宜自由に変更が可能である。また、図2(a)におけるΔxは隣り合うxポジションの間隔(xピッチ)であり、Δyは隣り合うyポジションの間隔(yピッチ)である。本実施形態ではxピッチ、yピッチは眼底における照射光のビームスポット径の1/2として決定し、本実施例では、10μm(図2(b))とする。xピッチ、yピッチを眼底上ビームスポット径の1/2とすることで生成する画像を高精細に形成することができる。xピッチ、yピッチを眼底ビームスポット径の1/2より小さくしても生成する画像の精細度をそれ以上高くする効果は小さい。逆にxピッチ、yピッチを眼底ビームスポット径の1/2より大きくすると精細度は悪化するが、小さなデータ容量で広い範囲の画像を取得することができる。臨床上の要求に応じてxピッチ、yピッチを自由に変更してもよい。本実施形態のスキャン範囲は、x方向がp×Δx=3mm、y方向がn×Δy=3mmである(図2(b)参照)。 Note that the repetition number m may be changed according to the A-scan speed of the OCT apparatus and the motion analysis of the fundus oculi surface image of the subject 027 . In FIG. 2, p indicates the sampling number of A-scans in one B-scan. That is, the plane image size is determined by p×n. If p×n is large, a wide range can be scanned with the same measurement pitch, but the scan time is lengthened, and the problems of motion artifacts and patient burden described above occur. In the present embodiment, n=p=300 is set in consideration of the balance between the two. Incidentally, the above n and p can be freely changed as appropriate. Δx in FIG. 2A is the interval (x pitch) between adjacent x positions, and Δy is the interval (y pitch) between adjacent y positions. In this embodiment, the x-pitch and y-pitch are determined as 1/2 of the beam spot diameter of the irradiation light on the fundus, and are set to 10 μm (FIG. 2(b)) in this embodiment. By setting the x-pitch and the y-pitch to 1/2 of the diameter of the beam spot on the fundus, it is possible to form a high-definition image. Even if the x-pitch and y-pitch are made smaller than 1/2 of the fundus beam spot diameter, the effect of further increasing the definition of the generated image is small. Conversely, if the x-pitch and y-pitch are made larger than 1/2 of the fundus beam spot diameter, the definition deteriorates, but a wide range of images can be acquired with a small data volume. The x-pitch and y-pitch may be freely changed according to clinical requirements. The scanning range of this embodiment is p×Δx=3 mm in the x direction and n×Δy=3 mm in the y direction (see FIG. 2B).

[OCTA画像取得]
次に、OCTA画像301を生成する方法について、図4を用い説明する。ステップS401において、信号処理手段053はポジションyにおける繰り返しBスキャン干渉信号(m枚分)を抜き出す。ステップS402において、信号処理手段053はj番目の断層データを抜き出す。ステップS403において、信号処理手段053は取得したバックグラウンドデータを上記干渉信号から減算する。ステップS404において、信号処理手段053は、バックグラウンドを減算した干渉信号に対して波数関数に変換処理を施し、フーリエ変換を行う。本実施例では高速フーリエ変換(FFT:Fast Fourier Transform)を適用する。尚、フーリエ変換前にゼロパディング処理を施し、干渉信号を増長させても良い。ゼロパディング処理を施すことでフーリエ変換後の階調性が増し、後述するステップ409において位置合わせ精度を向上させることが出来る。ステップS405において、信号処理手段053は、ステップS404にて実行したフーリエ変換によって得られる複素信号の絶対値を計算する。この値が当該スキャンの断層像のIntensityとなる。ステップS406において、信号処理手段053はインデックスjが、所定数(m)に到達したかを判断する。すなわち、ポジションyでの断層画像のIntensity計算がm回繰り返されたかを判断する。所定数に満たない場合はS402に戻り、同一Y位置における断層画像のIntensity計算を繰り返す。所定数に達した場合は、次ステップへ進む。
[OCTA image acquisition]
Next, a method for generating the OCTA image 301 will be described using FIG. In step S401, the signal processing means 053 extracts the repetitive B-scan interference signal (for m sheets) at the position yk . At step S402, the signal processing means 053 extracts the j-th tomographic data. In step S403, the signal processing means 053 subtracts the acquired background data from the interference signal. In step S404, the signal processing means 053 transforms the interference signal from which the background has been subtracted into a wavenumber function, and performs Fourier transform. In this embodiment, a fast Fourier transform (FFT) is applied. Note that zero padding may be performed before the Fourier transform to increase the interference signal. By performing the zero padding process, the gradation after Fourier transform is increased, and the alignment accuracy can be improved in step 409 to be described later. At step S405, the signal processing means 053 calculates the absolute value of the complex signal obtained by the Fourier transform performed at step S404. This value is the intensity of the tomographic image of the scan. In step S406, the signal processing means 053 determines whether the index j has reached a predetermined number (m). That is, it is determined whether the intensity calculation of the tomographic image at the position yk has been repeated m times. If the number is less than the predetermined number, the process returns to S402 to repeat the intensity calculation of the tomographic image at the same Y position. If the predetermined number is reached, proceed to the next step.

ステップS407において、信号処理手段053はあるyポジションにおけるmフレームの同一断層画像の中で、画像の類似度を計算する。具体的には、信号処理手段053はmフレームの断層画像の内の任意の一枚をテンプレートとして選択し、残りのm-1フレームの画像との相関値を算出する。なお、相関値の算出方法は他の方法であってもよい。ステップS408において、信号処理手段053はステップS407で算出した相関値の中で、一定の閾値以上である相関の高い画像を選択する。閾値は任意に設定が可能であり、被検者の瞬きや固視微動によって画像としての相関が低下したフレームを排除することができるように設定する。前述したように、OCTAでは、被験体組織のうち流れのある組織(例えば血液)と流れのない組織の間の対比を、画像間の相関値に基づき区別する技術である。即ち、流れの無い組織は画像間で相関が高いという前提の上で流れのある組織を抽出するため、画像として相関が低い場合、MC(モーションコントラスト)を計算する際に誤検出となり、あたかも画像全体が流れのある組織であるかのように判定してしまう。このステップではそうした誤検出を回避するために、予め画像として相関の低い断層画像を排除し、相関の高い画像のみを選択する。画像選択の結果、同一ポジションyで取得されたmフレームの画像は適宜取捨選択され、qフレームの画像となる。ここで、qの取りうる値は、1≦q≦mである。 In step S407, the signal processing means 053 calculates the similarity of images in the same tomographic images of m frames at a certain yk position. Specifically, the signal processing means 053 selects an arbitrary one of m frames of tomographic images as a template, and calculates the correlation value with the remaining m−1 frames of images. Note that another method may be used to calculate the correlation value. In step S408, the signal processing unit 053 selects images with high correlation values above a certain threshold among the correlation values calculated in step S407. The threshold can be arbitrarily set, and is set so as to exclude frames in which the correlation as an image has decreased due to blinking or involuntary eye movement of the subject. As described above, OCTA is a technique for distinguishing between tissue with flow (eg, blood) and tissue without flow among subject tissues based on the correlation value between images. That is, tissue with flow is extracted on the assumption that tissue without flow has high correlation between images. It is judged as if the whole is an organization with flow. In this step, in order to avoid such erroneous detection, tomographic images with low correlation are eliminated as images in advance, and only images with high correlation are selected. As a result of the image selection, the m-frame images acquired at the same position yk are appropriately selected to become the q -frame images. Here, the possible values of q are 1≤q≤m.

ステップS409において、信号処理手段053は、ステップS408にて選択されたqフレームの断層画像の位置合わせを行う。位置合わせのテンプレートとして選択するフレームは、互いに全ての組み合わせで相関を計算し、フレーム別に相関係数の和を求め、その和が最大となるフレームを選択してもよい。次に、テンプレートでフレーム毎に照合し位置ずれ量(δX、δY、δθ)を求める。具体的にはテンプレート画像の位置と角度を変えながら類似度を表す指標であるNormalized Cross-Correlation(NCC)を計算し、この値が最大となるときの画像位置の差を位置ずれ量として求める。本発明では、類似度を表す指標は、テンプレートとフレーム内の画像の特徴の類似性を表す尺度であれば種々変更が可能である。例えばSum of Absolute Difference(SAD)、Sum of Squared Difference(SSD)、Zero-means Normalized Cross-Correlation(ZNCC)、Phase Only Correlation(POC)、Rotation Invariant Phase Only Correlation(RIPOC)等を用いてもよい。 In step S409, the signal processing unit 053 aligns the tomographic images of the q frames selected in step S408. The frames selected as templates for alignment may be correlated with each other in all combinations, the sum of correlation coefficients may be calculated for each frame, and the frame with the maximum sum may be selected. Next, the template is matched for each frame to obtain positional deviation amounts (δX, δY, δθ). Specifically, Normalized Cross-Correlation (NCC), which is an index representing the degree of similarity, is calculated while changing the position and angle of the template image, and the difference between the image positions when this value is maximized is obtained as the displacement amount. In the present invention, the index representing the degree of similarity can be changed in various ways as long as it is a scale representing the similarity between the features of the image in the template and the frame.例えばSum of Absolute Difference(SAD)、Sum of Squared Difference(SSD)、Zero-means Normalized Cross-Correlation(ZNCC)、Phase Only Correlation(POC)、Rotation Invariant Phase Only Correlation(RIPOC)等を用いてもよい。

次に信号処理手段053は位置ずれ量(δX、δY、δθ)に応じて位置補正をテンプレート以外の(q-1)フレームに適用し、フレームの位置合わせを行う。qが1である場合はこのステップは実行されない。 Next, the signal processing means 053 applies positional correction to (q−1) frames other than the template according to the amount of positional deviation (δX, δY, δθ) to align the frames. If q is 1, this step is not performed.

ステップS410において信号処理手段053はMCを計算する。MCは例えば断層画像間の輝度の脱相関を示す値である。本実施例では、ステップS408で選択し、ステップS409で位置合わせを行ったqフレームのIntensity画像間において、同じ位置のピクセルごとに分散値を計算し、その分散値をMCとする。MCの求め方は種々あり、本発明においてMCは同一Y位置での複数の断層画像の各ピクセルの輝度値の変化を表す指標であれば適用が可能である。尚、q=1の時、即ち、瞬きや固視微動の影響のために画像として相関が低く、同一ポジションyの位置においてMCの計算が不可能な場合は異なる処理を行う。例えば、特徴量を0としてステップを終了しても良いし、前後y-1、y+1の画像におけるMCが得られる場合、前後の分散値から値を補間しても良い。この場合、正しく計算できなかった特徴量は補完値であるとして異常を通知しても良い。また、特徴量の計算が出来なかったY位置を記憶しておき、自動で再スキャンを行っても良い。或いは、自動の再スキャンを行うことをせず、再測定を促す警告を出しても良い。 In step S410, the signal processing means 053 calculates MC. MC is, for example, a value indicating decorrelation of brightness between tomographic images. In the present embodiment, among q frames of intensity images selected in step S408 and aligned in step S409, a variance value is calculated for each pixel at the same position, and the variance value is defined as MC. There are various ways to obtain MC, and in the present invention, MC can be applied as long as it is an index representing changes in luminance values of pixels of a plurality of tomographic images at the same Y position. When q=1, that is, when the image correlation is low due to the influence of blinking and involuntary eye movement, and MC cannot be calculated at the same position yk , different processing is performed. For example, the step may be terminated with the feature amount set to 0, or when MC in images of y k −1 and y k +1 before and after is obtained, values may be interpolated from variance values before and after. In this case, an abnormality may be notified by regarding the feature amount that could not be calculated correctly as a supplementary value. Alternatively, the Y position where the feature amount could not be calculated may be stored and rescanning may be performed automatically. Alternatively, a warning prompting remeasurement may be issued without performing automatic rescanning.

ステップS411において、信号処理手段053はステップS409にて位置合わせを行ったIntensity画像を平均化し、Intensity平均化画像を生成する。 In step S411, the signal processing unit 053 averages the intensity images aligned in step S409 to generate an intensity-averaged image.

ステップS412において信号処理手段053は、ステップS410で出力したMCの閾値処理をする。閾値の値は、信号処理手段053がステップS411で出力したIntensity平均化画像からノイズフロアでランダムノイズのみが表示されているエリアを抽出し、標準偏差σを計算し、ノイズフロアの平均輝度(intensity)値+2σと設定する。信号処理手段053は、各Intensityが上記閾値以下の領域に対応したMCの値を0に設定する。この閾値処理により、ランダムノイズに由来するMCを除去することでノイズを軽減することができる。閾値の値は小さいほどMCの検出感度は上がる一方、ノイズ成分も増す。また、大きいほどノイズは減るがMC検出の感度は下がる。本実施例では閾値をノイズフロアの平均輝度(intensity)値+2σとして設定したが、閾値はこれに限るものではない。 In step S412, the signal processing means 053 performs threshold processing on MC output in step S410. The threshold value is obtained by extracting an area where only random noise is displayed on the noise floor from the intensity-averaged image output by the signal processing means 053 in step S411, calculating the standard deviation σ, and calculating the average brightness of the noise floor (intensity ) value + 2σ. The signal processing means 053 sets 0 to the value of MC corresponding to the area where each intensity is equal to or less than the threshold value. This threshold processing can reduce noise by removing MC derived from random noise. The smaller the threshold value, the higher the MC detection sensitivity, but the noise component also increases. Also, the larger the value, the less the noise, but the lower the sensitivity of MC detection. In this embodiment, the threshold is set as the average intensity value of the noise floor+2σ, but the threshold is not limited to this.

ステップS413において、信号処理手段053はインデックスkが、所定数(n)に到達したかを判断する。すなわち、n箇所の全てのY位置において、画像相関度計算、画像選択、位置合わせ、Intensity画像平均化計算、MCの計算、及び閾値処理を行ったかを判断する。所定数に満たない場合はS401に戻り、所定数に到達した場合は、次のステップS414へ進む。ステップS413を終了した時点で、すべてのY位置での断層画像におけるIntensity平均画像とMCの3次元ボリュームデータ(3次元OCTAデータ)が生成されたことになる。なお、3次元のMC画像は、MCの3次元ボリュームデータの一例である。ステップS414では、信号処理手段053は、生成された3次元のOCTAデータに対し、深さ方向に積算したMC正面画像(MCのEnFace画像)を生成する。すなわち、信号処理手段053は、眼底のモーションコントラスト画像を取得する取得手段の一例に相当する。図3(a)は、MC正面画像の一例である。この時、MC正面画像の生成にあたり、積算する画像深さ範囲は任意に設定して良い。例えば、信号処理手段053は、ステップS411にて生成されたIntensityの平均化画像を元に眼底網膜の層境界を抽出し、所望の層を含むようにMC正面画像を生成する。MC正面画像を生成した後、信号処理手段053は信号処理フローを終了する。以上説明した装置構成、撮影方法、信号処理手順を用いることにより、所望領域においてMC画像(OCTA画像)を取得することが可能となる。なおMC画像には3次元のMC画像およびEnFace画像のような2次元のMC画像を含む。本実施例では、m=4の条件下でOCTA画像を取得している。 In step S413, the signal processing means 053 determines whether the index k has reached a predetermined number (n). That is, it is determined whether image correlation degree calculation, image selection, alignment, intensity image averaging calculation, MC calculation, and threshold processing have been performed at all n Y positions. If the number is less than the predetermined number, the process returns to S401, and if the number has reached the predetermined number, the process proceeds to the next step S414. When step S413 is completed, an intensity average image and three-dimensional MC volume data (three-dimensional OCTA data) in tomographic images at all Y positions have been generated. The three-dimensional MC image is an example of MC three-dimensional volume data. In step S414, the signal processing unit 053 generates an MC front image (MC EnFace image) by integrating the generated three-dimensional OCTA data in the depth direction. In other words, the signal processing means 053 corresponds to an example of acquisition means for acquiring a motion contrast image of the fundus. FIG. 3A is an example of an MC front image. At this time, when generating the MC front image, the image depth range to be integrated may be set arbitrarily. For example, the signal processing unit 053 extracts the layer boundary of the fundus retina based on the intensity averaged image generated in step S411, and generates the MC front image so as to include the desired layer. After generating the MC front image, the signal processing means 053 terminates the signal processing flow. By using the apparatus configuration, imaging method, and signal processing procedure described above, it is possible to obtain an MC image (OCTA image) in a desired region. Note that the MC image includes a three-dimensional MC image and a two-dimensional MC image such as an EnFace image. In this example, an OCTA image is acquired under the condition of m=4.

黄斑部を撮像した3次元のOCTAデータに対して、図3(b)の様に、積算する深さ範囲を網膜表層側の数層(内境界膜302からINL中心部303)に限定すると図3(a)のような網膜表層(Superficial Capillary)のMC正面画像が得られる。信号処理手段053は、MC正面画像から黄斑中心の眼底血管301が抽出できる。なお、MC正面画像を生成するための深さ範囲は上記の例に限らない。 For three-dimensional OCTA data obtained by imaging the macula, as shown in FIG. An MC frontal image of the superficial capillary (superficial capillary) such as 3(a) is obtained. The signal processing means 053 can extract the fundus blood vessel 301 at the center of the macula from the MC front image. Note that the depth range for generating the MC front image is not limited to the above example.

[MC画像重ね合せ画像取得]
次にMC画像を複数枚取得する方法について、図5を用いて説明する。制御手段054はステップS501において、MC取得枚数Fのユーザ入力を促すGUIをモニタ055に表示させ、ステップS502にてユーザがFを入力する(F:1以上の整数)。なお、MC取得枚数Fはユーザ入力によらず予め決められた値であってもよい。ステップS503において、制御手段054はOCT光学系を制御してMC画像取得枚数iを1枚から順に取得し、ステップS504、505、506に示すように、ユーザの指定したFまでMC画像を取得する。ステップS505においては図4の処理が実行される。なお、MC画像の生成はステップS505で実行してもよいし、MC取得枚数Fのためのスキャンが完了した後に行うこととしてもよいし、MC取得枚数Fのためのスキャンと並行して行うこととしてもよい。
[MC image superimposed image acquisition]
Next, a method of acquiring a plurality of MC images will be described with reference to FIG. In step S501, the control means 054 causes the monitor 055 to display a GUI prompting the user to input the number F of MCs to be obtained, and in step S502 the user inputs F (F: an integer equal to or greater than 1). Note that the MC acquisition number F may be a predetermined value regardless of the user's input. In step S503, the control unit 054 controls the OCT optical system to obtain the MC image acquisition number i in order from 1, and as shown in steps S504, 505, and 506, acquires MC images up to F specified by the user. . In step S505, the processing of FIG. 4 is executed. Note that the generation of the MC image may be performed in step S505, may be performed after the scanning for the number F of MC acquisitions is completed, or may be performed in parallel with the scanning for the number F of MC acquisitions. may be

所望の枚数のMC画像を取得した後、ステップS507において、信号処理手段053はデータ(複数のMC画像のデータ)をメモリ052に保存する。ステップS508において、信号処理手段053は、保存された複数のMC画像を用い、MCの重ね合せ画像を取得し、別のデータとしてメモリ052に保存する(ステップS509)。本実施例では、MC画像を10枚取得している。本処理により、複数枚のMC重ね合せ画像が取得できる。なお、重ね合わせるMC画像は3次元のMC画像であってもよいし2次元のMC画像(MCのEnFace画像)であってもよい。なお、後述する動静脈の判定においてMC画像の重ね合わせは必須の処理ではなく、重ね合わせを行っていないMC画像から動静脈の判定を行うこととしてもよい。 After acquiring the desired number of MC images, the signal processing means 053 stores data (data of a plurality of MC images) in the memory 052 in step S507. In step S508, the signal processing means 053 acquires a superimposed image of MC using the plurality of saved MC images, and stores it in the memory 052 as separate data (step S509). In this embodiment, 10 MC images are acquired. Through this processing, a plurality of MC superimposed images can be acquired. Note that the MC image to be superimposed may be a three-dimensional MC image or a two-dimensional MC image (EnFace image of MC). It should be noted that superimposition of MC images is not an essential process for arteriovenous determination, which will be described later, and arteriovenous determination may be performed from MC images that have not been superimposed.

(実施例1:第1の動静脈判定方法)
本実施例では、上述のように得た重ね合わせされたMC画像を用い、動静脈分離する例について、図6を用い説明する。
(Example 1: First arteriovenous determination method)
In this embodiment, an example of arteriovenous separation using superimposed MC images obtained as described above will be described with reference to FIG.

先ず、信号処理手段053は、図6(a)に示すMC重ね合せ画像601をメモリ052から取得する。信号処理手段053は、画像601から、内境界膜および神経線維層(RNFL)除き、図6(b)に示すMC画像602を取得する。内境界膜および神経線維層をMC正面画像から除くことで動静脈の判定が容易なMC正面画像となる。なお、内境界膜から内顆粒層の上層までを除いてMC画像062を生成することとしてもよい。すなわち、MC画像602は、内顆粒層のうち下層に位置する血管の層のMC正面画像である。なお、MC画像602は、内顆粒層のうち下層より脈絡膜側の層を含んでいてもよいし含まないようにしてもよい。また、内顆粒層のうち上層のみのMC正面画像を生成することとしてもよい。内顆粒層の一部のMC正面画像は表層における血管の影響を受けにくくなるため動静脈の判定精度を向上させることが可能となる。信号処理手段053は、例えば、3次元のMC画像からMC画像602を生成する。なお、動静脈判定のために生成するMC正面画像は上記の例に限定されるものではない。例えば、動静脈判定のために生成するMC正面画像は、内境界膜および神経線維層を含まず神経節細胞層を含む画像であってもよいし、内境界膜、神経線維層、神経節細胞層および内網状層を含まず内顆粒層の一部を含む画像であってもよい。なお、例えば、動静脈判定のために生成するMC正面画像は、内顆粒層の一部より脈絡膜側にある層を含まないこととしてもよい。ここで内顆粒層の一部とは、例えば、内顆粒層を硝子体側および脈絡膜側の上下二つに分割した場合のいずれか一方である。 First, the signal processing means 053 acquires from the memory 052 the MC superimposed image 601 shown in FIG. The signal processing means 053 obtains the MC image 602 shown in FIG. 6B from the image 601 by removing the inner limiting membrane and nerve fiber layer (RNFL). By removing the inner limiting membrane and the nerve fiber layer from the MC front image, the MC front image becomes easy to determine arteries and veins. Note that the MC image 062 may be generated by excluding the inner limiting membrane to the upper layer of the inner nuclear layer. That is, the MC image 602 is an MC front image of the layer of blood vessels located in the lower layer of the inner nuclear layer. Note that the MC image 602 may or may not include the layer closer to the choroid than the lower layer in the inner nuclear layer. Alternatively, an MC front image of only the upper layer of the inner nuclear layer may be generated. An MC front image of a portion of the inner nuclear layer is less likely to be affected by blood vessels in the superficial layer, so it is possible to improve the determination accuracy of arteries and veins. The signal processing means 053, for example, generates an MC image 602 from the three-dimensional MC image. Note that the MC front image generated for arteriovenous determination is not limited to the above example. For example, the MC front image generated for arteriovenous determination may be an image containing the ganglion cell layer without containing the inner limiting membrane and the nerve fiber layer, or an image containing the inner limiting membrane, the nerve fiber layer, and the ganglion cell. The image may include a portion of the inner nuclear layer without including the stratum corneum and the inner plexiform layer. Note that, for example, the MC front image generated for arteriovenous determination may not include a layer closer to the choroid than a part of the internal nuclear layer. Here, the part of the inner nuclear layer is, for example, either one of the cases where the inner nuclear layer is divided into upper and lower halves on the vitreous body side and the choroid side.

信号処理手段053は、MC画像602を二値化し、図6(c)に示す画像603を取得する。信号処理手段053は、画像603に対してエロージョン(ノイズ除去方法であれば、他の方法でも良い)を実施しエロージョン画像604を取得する。信号処理手段053は、画像604から主要な血管(606~610)を取得する。血管の取得はMC画像602に対するユーザの指定に基づいて行ってもよいし、ユーザの指定に依らず自動で行うこととしてもよい。また、血管の取得は3次元のMC画像に基づいて行うこととしてもよいし、2次元のMC画像に基づいて行うこととしてもよい。例えば3次元のMC画像に基づいて血管を取得する場合には正面方向から見た場合の血管の交差の影響を受けにくいため、深さ方向で交差した血管を別のものとして取得することが可能となる。なお、自動で血管を取得する場合には血管の長さが所定値以上の血管を主要な血管として抽出することとしてもよい。 The signal processing means 053 binarizes the MC image 602 to obtain an image 603 shown in FIG. 6(c). The signal processing means 053 obtains an erosion image 604 by performing erosion on the image 603 (another method may be used as long as it is a noise removal method). The signal processing means 053 obtains the major blood vessels (606-610) from the image 604. FIG. Acquisition of the blood vessel may be performed based on the user's designation for the MC image 602, or may be performed automatically without depending on the user's designation. Also, acquisition of blood vessels may be performed based on a three-dimensional MC image, or may be performed based on a two-dimensional MC image. For example, when acquiring blood vessels based on a 3D MC image, it is possible to acquire blood vessels that intersect in the depth direction as separate objects because they are less susceptible to the crossing of blood vessels when viewed from the front. becomes. In the case of automatically acquiring blood vessels, blood vessels whose length is greater than or equal to a predetermined value may be extracted as main blood vessels.

信号処理手段053は、抽出した血管を元画像602に適応させた画像605を取得する。ここで、信号処理手段053は、例えば、MC画像602と画像605との位置関係を対応付けることで、主要な血管606~610のMC画像602における位置を特定する。ここで、血管609は、血管606が分岐した血管である為、信号処理手段053は、血管606と血管609は同一血管として取り扱う。その為、本処理で独立した血管は、606、607、608、610、となる。信号処理手段053は、独立した血管(606、607、608、610)の血管周囲(血管壁垂線に沿って、2ピクセル:約20μm)の輝度を測定する。信号処理手段053は、血管周囲の単位ピクセルあたりの輝度(Iave:単位ピクセルあたりの輝度値)をモーションコントラスト値の代表値として算出する。ここで、輝度を測定する領域は評価領域の一例である。この評価領域は血管に隣接する領域であってもよいし血管に隣接していなくともよい。例えば、評価領域は血管に隣接していなくても血管から2ピクセル以内に位置する領域であればよい。信号処理手段053は、このような条件を満たす評価領域に基づいて血管が動脈か静脈かを判定する。すなわち、信号処理手段053は、モーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値に基づいて血管が動脈か静脈かを判定する判定手段の一例に相当する。 The signal processing means 053 acquires an image 605 in which the extracted blood vessels are adapted to the original image 602 . Here, the signal processing means 053 identifies the positions of the main blood vessels 606 to 610 in the MC image 602 by, for example, associating the positional relationship between the MC image 602 and the image 605 . Here, since the blood vessel 609 is a branched blood vessel of the blood vessel 606, the signal processing means 053 treats the blood vessel 606 and the blood vessel 609 as the same blood vessel. Therefore, blood vessels 606, 607, 608, and 610 are independent in this process. The signal processing means 053 measures the luminance around the blood vessels (2 pixels: about 20 μm along the blood vessel wall normal) of the independent blood vessels (606, 607, 608, 610). The signal processing means 053 calculates the luminance per unit pixel around the blood vessel (Iave: luminance value per unit pixel) as a representative value of the motion contrast value. Here, the area where luminance is measured is an example of the evaluation area. This evaluation region may or may not be adjacent to a blood vessel. For example, the evaluation region may be a region located within 2 pixels from the blood vessel even if it is not adjacent to the blood vessel. The signal processing means 053 determines whether the blood vessel is an artery or a vein based on the evaluation area that satisfies such conditions. That is, the signal processing means 053 is an example of a determination means for determining whether a blood vessel is an artery or a vein based on the motion contrast value of the evaluation region, which is the region located within a predetermined distance from the region corresponding to the blood vessel in the motion contrast image. Equivalent to.

また、評価領域は血管から2ピクセルの領域に限定されるものではなく、2ピクセルよりも大きくてもよいし2ピクセル未満であってもよい。例えば、評価領域は血管径に基づいて決定されることとしてもよい。例えば、血管径が短いほど評価領域は血管に近くなるようにしてもよい。すなわち、評価領域が位置する場所を規定する距離である血管に相当する領域から所定距離は、血管に相当する領域の太さに基づいて決定されてもよい。具体的には、この所定距離は、血管に相当する領域の太さが小さいほど短くなることとしてもよい。 Also, the evaluation area is not limited to the area of 2 pixels from the blood vessel, and may be larger than 2 pixels or smaller than 2 pixels. For example, the evaluation region may be determined based on vessel diameter. For example, the shorter the blood vessel diameter, the closer the evaluation region to the blood vessel. That is, the predetermined distance from the region corresponding to the blood vessel, which is the distance defining the location where the evaluation region is located, may be determined based on the thickness of the region corresponding to the blood vessel. Specifically, this predetermined distance may be shorter as the thickness of the region corresponding to the blood vessel is smaller.

また、血管径が短いほど評価領域の血管走行方向に交差する方向の幅を短くすることとしてもよい。すなわち、評価領域の血管の走行方向に交差する方向における大きさは、血管に相当する領域の太さに基づいて決定されることとしてもよい。 Alternatively, the width of the evaluation region in the direction intersecting the running direction of the blood vessel may be shortened as the blood vessel diameter becomes shorter. That is, the size of the evaluation region in the direction intersecting the running direction of the blood vessel may be determined based on the thickness of the region corresponding to the blood vessel.

なお、評価領域の血管の走行方向における大きさは動静脈判定において重要なパラメータの一つである。そこで、血管の走行方向における評価領域の大きさは、所定値より大きいこととしてもよい。例えば、信号処理手段053は、血管全域に対して評価領域を設定することとしてもよい。また、血管の走行方向における評価領域の血管の走行距離に対する割合は、所定値より大きいこととしてもよい。なお、評価領域は2次元のMC画像(MC正面画像)に設定しても良いし、3次元のMC画像に設定することとしてもよい。 The size of the evaluation region in the running direction of the blood vessel is one of the important parameters in arteriovenous determination. Therefore, the size of the evaluation region in the running direction of the blood vessel may be larger than a predetermined value. For example, the signal processing means 053 may set the evaluation region for the entire blood vessel. Also, the ratio of the evaluation region to the running distance of the blood vessel in the running direction of the blood vessel may be greater than a predetermined value. Note that the evaluation area may be set to a two-dimensional MC image (MC front image), or may be set to a three-dimensional MC image.

信号処理手段053は、算出された各血管の輝度平均値(Iave)が一定の閾値(Is)を超えている場合は、本血管を静脈と判定し、超えていない場合は、本血管を動脈と判定する。すなわち、信号処理手段053は、代表値が閾値より大きい場合に血管を静脈と判定し、代表値が閾値未満の場合に血管を動脈と判定する。 The signal processing means 053 determines that the blood vessel is a vein if the calculated average luminance value (Iave) of each blood vessel exceeds a certain threshold value (Is), and determines that the blood vessel is an artery if not. I judge. That is, the signal processing means 053 determines that the blood vessel is a vein when the representative value is greater than the threshold, and determines the blood vessel as an artery when the representative value is less than the threshold.

実際には、信号処理手段053は、図6(f)の様なデータを取得することができる。信号処理手段053は、血管606の輝度平均値IaveはIsよりも低い為、動脈と判定できる。また、血管607、608、610の輝度平均値IaveはIsよりも高い為、信号処理手段053は、血管607、608、610を静脈と判定できる。なお、閾値Isは固定であってもよいし可変であってもよい。信号処理手段053は、例えば、血管径に応じて閾値Isを変更することとしてもよい。信号処理手段053は、血管径が短いほど閾値Isを上げることとしてもよい。すなわち、閾値Isは血管に依らず一定の値であってもよいし、血管毎に適応的に設定される値であってもよい。 Actually, the signal processing means 053 can acquire data as shown in FIG. 6(f). Since the average luminance value Iave of the blood vessel 606 is lower than Is, the signal processing means 053 can determine that the blood vessel 606 is an artery. Also, since the luminance average value Iave of the blood vessels 607, 608, and 610 is higher than Is, the signal processing means 053 can determine the blood vessels 607, 608, and 610 as veins. Note that the threshold Is may be fixed or variable. The signal processing means 053 may change the threshold value Is according to the blood vessel diameter, for example. The signal processing means 053 may increase the threshold value Is as the blood vessel diameter decreases. That is, the threshold Is may be a constant value regardless of the blood vessel, or may be a value adaptively set for each blood vessel.

以上のプロセスを図7のフローチャートを用い、説明する。 The above process will be described with reference to the flow chart of FIG.

ステップS701において、信号処理手段053は、図5の処理にて得た重ね合わ後のMC画像(3次元のMC画像)をメモリ052から読みだす。ステップS702において、信号処理手段053は、3次元のMC画像からEnFace画像を取得する。本実施例では、信号処理手段053は、GCL(神経節細胞層)/IPL(内網状層)の層境界とIPL/INL(内顆粒層)(-15μm:負の符号は脈絡膜側を示す)の位置の境界とを深さ範囲とするEnFace画像を取得した。ステップS703において、信号処理手段053は、ステップS702で得た画像に画像処理を施し、主要な血管を抽出する。本実施例では信号処理手段053は、MC画像を二値化した後、エロージョン処理を一回実施した(図6(d)参照)。信号処理手段053は、画像において一定以上続くドット(画素)の集合(線)を抽出する。本実施例では、信号処理手段053は、80ピクセル以上(約1.0mm以上)の線を主要な血管として抽出した。なお、血管抽出のための数値は80ピクセルに限定されるものではない。 In step S701, the signal processing means 053 reads from the memory 052 the superimposed MC image (three-dimensional MC image) obtained by the processing in FIG. At step S702, the signal processing means 053 acquires an EnFace image from the three-dimensional MC image. In this embodiment, the signal processing means 053 divides the GCL (ganglion cell layer)/IPL (inner plexiform layer) layer boundary and the IPL/INL (inner nuclear layer) (−15 μm: the negative sign indicates the choroid side) An EnFace image was acquired with a depth range of . In step S703, the signal processing means 053 applies image processing to the image obtained in step S702 to extract major blood vessels. In this embodiment, the signal processing means 053 performs erosion processing once after binarizing the MC image (see FIG. 6(d)). The signal processing means 053 extracts a set (line) of dots (pixels) that continue for a certain number or more in the image. In this example, the signal processing means 053 extracted lines of 80 pixels or more (approximately 1.0 mm or more) as major blood vessels. Note that the numerical value for blood vessel extraction is not limited to 80 pixels.

ステップS704において、信号処理手段053はステップS703で得られた主要な血管をナンバリングする。ステップS705において、信号処理手段053はナンバリングされた血管をS702で取得されたMC画像に適応させる(図6(e)参照)。ステップS706において、信号処理手段053はステップS705で得られた画像605を用い、各血管周囲の輝度(モーションコントラスト値)を計測する。本実施例では、血管の周囲(2ピクセル:約20μmエリア)の輝度を計測し、各々の血管に対して、輝度平均値(Iave)を算出する。なお、信号処理手段053は輝度平均ではなく輝度の中央値であってもよい。ステップS707において、信号処理手段053はステップS706で得られた各血管の輝度平均(Iave)と閾値(Is)を比較する。ステップS708において、信号処理手段053はIaveがIsより低い場合は、動脈と判定する。ステップS709において、IaveがIsより高い場合は、静脈と判定する。 At step S704, the signal processing means 053 numbers the major blood vessels obtained at step S703. At step S705, the signal processing means 053 adapts the numbered blood vessels to the MC image acquired at S702 (see FIG. 6(e)). In step S706, the signal processing means 053 uses the image 605 obtained in step S705 to measure the luminance (motion contrast value) around each blood vessel. In this embodiment, the brightness around the blood vessel (2 pixels: approximately 20 μm area) is measured, and the brightness average value (Iave) is calculated for each blood vessel. The signal processing means 053 may use the median value of luminance instead of the average luminance. In step S707, the signal processing means 053 compares the average brightness (Iave) of each blood vessel obtained in step S706 with the threshold value (Is). In step S708, the signal processing means 053 determines an artery when Iave is lower than Is. In step S709, if Iave is higher than Is, it is determined as vein.

上記の例によれば、モーションコントラスト画像から動静脈を判定することが可能となる。なお、Iaveに替えて中央値、標準偏差、最大値などを評価領域の代表値としてもよい。 According to the above example, it is possible to determine arteries and veins from the motion contrast image. In place of Iave, the median value, standard deviation, maximum value, or the like may be used as the representative value of the evaluation area.

(実施例2:第2の動静脈判定方法)
実施例1では、血管壁垂線より20μmの位置の輝度により、動静脈判定を実施したが、本実施例では以下の様に血管中心より、輝度プロファイルを計測する事で、動静脈を判定する。
(Example 2: Second arteriovenous determination method)
In Example 1, arteriovenous determination was performed based on the brightness at a position 20 μm from the blood vessel wall perpendicular line, but in the present example, arteriovenous determination is performed by measuring the brightness profile from the center of the blood vessel as follows.

具体的には、実施例1と同様、信号処理手段053はMC画像から血管を抽出する(図10(a))。図10(a)の様に、信号処理手段053は、抽出した血管1010、1014の走行方向に対して垂直に500μmのエリア1011、1012、1013を規定する。エリア1011,1012,1013は、ユーザの入力に基づいて規定されることとしてもよいし、ユーザの入力に依らず規定することとしてもよい。なお、本明細書において垂直とは完全に垂直な場合および略垂直な場合を含む概念である。また、エリア1011、1012,1013の大きさは500μmに限定されるものではなく、他の値であってもよい。例えば、上記のエリアは血管毎に個別の大きさであってもよい。血管径に応じてエリアの大きさを変えることとしてもよく、例えば、血管径が短いほどエリアの大きさを小さくしてもよい。信号処理手段053は、各々のエリア1011、1012、1013に対して、輝度プロファイル(モーションコントラスト値のプロファイル)測定する。エリア1011の輝度プロファイルは、図10(b)の様に計測され、同様に、エリア1012は図10(c)、エリア1013は図10(d)の様に計測された。信号処理手段053は、図10(b)に示す輝度プロファイルから動静脈の判定を実施する。信号処理手段053は、例えば、血管が存在しない領域(バックグラウンドノイズと同等レベル)の輝度値(モーションコントラスト値)をIs(輝度閾値)とする。信号処理手段053は、Isよりも輝度が高いプロファイル領域1001、Isよりも輝度が低いプロファイル領域1002、プロファイル中で輝度が高いプロファイル領域1003、Isよりも輝度が低いプロファイル領域1004にプロファイルを分割できる。図10(a)におけるエリア1011と、図10(b)の輝度プロファイルとを比較すると、プロファイル領域1001には毛細血管網、プロファイル領域1002には無血管領域、プロファイル領域1003には数十μmの太い血管、プロファイル領域1004には無血管領域が存在している事が確認できる。更に、プロファイル領域1002と、プロファイル領域1004の無血管領域は、複数の点(画素)、つまり、数十μm以上の領域において無血管領域が存在している事を示している。眼底の血管構造上、無血管領域を周囲に帯びている血管1010は、動脈と判断する事が出来る。 Specifically, as in the first embodiment, the signal processing means 053 extracts blood vessels from the MC image (FIG. 10(a)). As shown in FIG. 10(a), the signal processing means 053 defines areas 1011, 1012, 1013 of 500 μm perpendicularly to the running direction of the extracted blood vessels 1010, 1014. FIG. Areas 1011, 1012, and 1013 may be defined based on user input, or may be defined independently of user input. In this specification, the term “perpendicular” is a concept including completely perpendicular and substantially perpendicular. Also, the size of the areas 1011, 1012, and 1013 is not limited to 500 μm, and may be other values. For example, the above areas may be sized individually for each vessel. The size of the area may be changed according to the diameter of the blood vessel. For example, the smaller the diameter of the blood vessel, the smaller the size of the area. The signal processing means 053 measures the brightness profile (motion contrast value profile) for each of the areas 1011 , 1012 and 1013 . The luminance profile of the area 1011 was measured as shown in FIG. 10(b), similarly, the area 1012 was measured as shown in FIG. 10(c), and the area 1013 was measured as shown in FIG. 10(d). The signal processing means 053 determines arteries and veins from the luminance profile shown in FIG. 10(b). The signal processing means 053 sets, for example, the luminance value (motion contrast value) of a region in which blood vessels do not exist (the same level as the background noise) as Is (luminance threshold). The signal processing means 053 can divide the profile into a profile region 1001 with higher luminance than Is, a profile region 1002 with lower luminance than Is, a profile region 1003 with higher luminance in the profile, and a profile region 1004 with lower luminance than Is. . Comparing the area 1011 in FIG. 10A with the luminance profile in FIG. It can be confirmed that thick blood vessels and a non-vascular area exist in the profile area 1004 . Furthermore, the avascular regions of the profile region 1002 and the profile region 1004 show that the avascular region exists at a plurality of points (pixels), that is, regions of several tens of μm or more. From the vascular structure of the fundus, a blood vessel 1010 surrounded by an avascular region can be determined as an artery.

同様に、エリア1012の輝度プロファイルについて、図10(c)を用い説明する。。領域1011の際と同様に、信号処理手段053は、Isよりも輝度が高いプロファイル領域1005、Isよりも輝度が低いプロファイル領域1006、プロファイル中で輝度が高いプロファイル領域1007、Isよりも輝度が低いプロファイル領域1008、に図10(c)に示すプロファイルを分割できる。エリア1012と、図10(c)の輝度プロファイルを比較すると、プロファイル領域1005には毛細血管網、プロファイル領域1006には無血管領域、プロファイル領域1007には数十μmの太い血管(血管1010よりも太い)、プロファイル領域1008には、無血管領域、が存在している事を示している。更に、プロファイル領域1006と、プロファイル領域1008の無血管領域は、複数の点、つまり、数十μm以上の領域において、無血管領域が存在している事が分かる。信号処理手段053は、以上の無血管領域の存在から、領域1012も無血管領域を周囲に帯びている為、MC画像から動脈と判断する事が出来る。領域1012の血管は血管1010が分岐している為、当然の結果である。本実施例では1つの血管1010に対して複数のエリア1011,1012を設定しているが、一方のエリアのプロファイルに基づいて動静脈の判定を行い、その判定結果を連結する血管に反映させてもよい。また、判定の精度を高めるために複数のエリアで動脈(または静脈)と判定された場合のみ判定対象の血管を動脈と判定しないこととしてもよい。 Similarly, the brightness profile of area 1012 will be described with reference to FIG. 10(c). . Similar to the area 1011, the signal processing means 053 processes the profile area 1005 with higher luminance than Is, the profile area 1006 with lower luminance than Is, the profile area 1007 with higher luminance in the profile, and the profile area 1007 with lower luminance than Is. The profile shown in FIG. 10( c ) can be divided into profile regions 1008 . Comparing the area 1012 with the luminance profile in FIG. thick), and the profile region 1008 shows the presence of an avascular region. Furthermore, it can be seen that the avascular regions of profile region 1006 and profile region 1008 have avascular regions at a plurality of points, that is, regions of several tens of μm or more. Based on the existence of the avascular region, the signal processing means 053 can determine that the region 1012 is an artery from the MC image because the region 1012 also has an avascular region around it. The blood vessel in the area 1012 is a natural result because the blood vessel 1010 branches off. In this embodiment, a plurality of areas 1011 and 1012 are set for one blood vessel 1010. Arteriovenous determination is performed based on the profile of one area, and the determination result is reflected in the connecting blood vessels. good too. Also, in order to improve the accuracy of determination, only when a plurality of areas are determined to be arteries (or veins), the determination target blood vessel may not be determined to be an artery.

同様に、領域1013の輝度プロファイルについて、図10(d)を用い説明する。領域1011の際と同様に、信号処理手段053は、Isよりも輝度が高いプロファイル領域1009、Isよりも輝度が低いプロファイル領域1015、プロファイル中で輝度が高いプロファイル領域1015、にプロファイルを分割できる。輝度がIsよりも高いプロファイル領域1009、1016、は毛細血管など何らかの血管が存在している。更に、輝度の低いプロファイル領域1015は、一点であり、無血管領域というよりも、血管と血管の間である事が分かる。信号処理手段053は、血管1014は、無血管領域は存在せず(または無血管領域が閾値以下であるため)静脈と判定する事が出来る。 Similarly, the brightness profile of region 1013 will be described with reference to FIG. 10(d). As with the region 1011, the signal processing means 053 can divide the profile into a profile region 1009 with a higher luminance than Is, a profile region 1015 with a lower luminance than Is, and a profile region 1015 with a higher luminance in the profile. Profile regions 1009 and 1016 with luminance higher than Is contain some kind of blood vessels such as capillaries. Furthermore, it can be seen that the low intensity profile region 1015 is a single point and is between blood vessels rather than an avascular region. The signal processing means 053 can determine that the blood vessel 1014 is a vein because there is no avascular region (or because the avascular region is below the threshold).

すなわち、信号処理手段053は、モーションコントラスト値のプロファイルから得られる無血管領域の大きさから動静脈の判定を行うことができる。 That is, the signal processing means 053 can determine the artery and vein from the size of the avascular region obtained from the motion contrast value profile.

以上の判定、つまり、第2の動静脈判定方法の手順について、図11を用い、説明する。ステップS1101において、信号処理手段053は、図5の処理にて得た重ね合わせ後のMC画像を読みだす。ステップS1102において、信号処理手段053はMC画像より、血管を抽出する。ステップS1103において、信号処理手段053は、血管走行の方向に対して、垂直方向に200μmの直線を設定し、直線上の輝度(モーションコントラスト値)を計測する。ステップS1104において、信号処理手段053は閾値Isをメモリ052から読み出す。ステップS1105において、信号処理手段053は、輝度が閾値Isよりも低い領域の数(画素数)nを計測する。閾値Isは第1閾値の一例に相当する。本実施例では、画素数をカウントするのみとした。ステップS1106、1107において、ステップS1105で計測した画素数がn>4であれば、信号処理手段053は無血管領域が閾値より多く存在する為、動脈と判定する。ステップS1106、110において、n≦4であれば、信号処理手段053は無血管領域が閾値以下の為、静脈と判定する。すなわち、信号処理手段053は評価領域においてモーションコントラスト値が第1閾値未満である領域の大きさに基づいて血管が動脈か静脈かを判定するといえる。また、上記の「4」は第2閾値の一例に相当する。すなわち、信号処理手段053は、価領域においてモーションコントラスト値が第1閾値未満である領域の大きさが第2閾値より大きい場合に前記血管を動脈と判定するといえる。また、信号処理手段053は、評価領域においてモーションコントラスト値が第1閾値未満である領域の大きさが第2閾値より小さい場合に前記血管を静脈と判定するといえる。
The determination described above, that is, the procedure of the second arteriovenous determination method will be described with reference to FIG. In step S1101, the signal processing means 053 reads out the superimposed MC image obtained by the processing in FIG. In step S1102, the signal processing means 053 extracts blood vessels from the MC image. In step S1103, the signal processing means 053 sets a straight line of 200 μm in the direction perpendicular to the running direction of the blood vessel, and measures the luminance (motion contrast value) on the straight line. In step S1104, the signal processing means 053 reads the threshold value Is from the memory 052. FIG. In step S1105, the signal processing unit 053 measures the number (number of pixels) n of regions whose brightness is lower than the threshold value Is. The threshold Is corresponds to an example of a first threshold. In this embodiment, only the number of pixels is counted. In steps S1106 and 1107, if the number of pixels measured in step S1105 is n>4, the signal processing means 053 determines that the area is an artery because the number of avascular regions is greater than the threshold. In steps S1106 and 1109, if n≤4 , the signal processing means 053 determines that the avascular region is a vein because the avascular region is below the threshold. That is, it can be said that the signal processing means 053 determines whether the blood vessel is an artery or a vein based on the size of the region in which the motion contrast value is less than the first threshold in the evaluation region. Also, the above "4" corresponds to an example of the second threshold. That is, it can be said that the signal processing unit 053 determines that the blood vessel is an artery when the size of the region in which the motion contrast value is less than the first threshold in the value region is greater than the second threshold. Further, it can be said that the signal processing unit 053 determines that the blood vessel is a vein when the size of the region in which the motion contrast value is less than the first threshold in the evaluation region is smaller than the second threshold.

ステップS1110において、制御手段054はモニタ055に結果を表示させる。例えば、制御手段054は、動脈と静脈とを異なる色で示したMC画像をモニタ055に表示させる。 In step S1110, the control means 054 causes the monitor 055 to display the result. For example, the control means 054 causes the monitor 055 to display an MC image in which arteries and veins are shown in different colors.

以上の様に、MC画像を用い、血管の周囲の輝度を計測する事で、動静脈を判定する事が出来る。本実施例では、プロファイル領域を直線領域としたが、2次元領域、3次元領域、点の集合とした領域などを用いても良い。大きさについても同様に、実施例以外の大きさで良い。輝度の測定には、輝度平均、標準偏差、最大値などを評価領域の代表値として用いても良い。 As described above, the artery and vein can be determined by measuring the luminance around the blood vessel using the MC image. In this embodiment, the profile area is a linear area, but a two-dimensional area, a three-dimensional area, an area made up of a set of points, or the like may be used. Similarly, the size may be any size other than those of the examples. For the luminance measurement, luminance average, standard deviation, maximum value, etc. may be used as representative values of the evaluation area.

閾値Isに関しても、設置環境、ユーザによる設定、人種により変更する事で精度の高い判定が可能となる。図11のフローにも記載したが、画像から血管を抽出するフローは手動でも自動でも良い。 As for the threshold value Is, it is possible to make a highly accurate determination by changing it according to the installation environment, setting by the user, and race. As described in the flow of FIG. 11, the flow for extracting blood vessels from images may be manual or automatic.

本実施例では、MC画像の重ね合せを用いたが、MC画像単体を用いても動静脈の判定は可能である。 Although MC images are superimposed in this embodiment, it is also possible to determine arteries and veins using MC images alone.

(変形例1)
ステップ702において、MC画像を取得の際、INL(内顆粒層)に基づいて、MC正面画像を取得すると、動静脈判定がより安定する。具体的には、信号処理手段053は、図3(c)の様に、線307(内境界膜)から線308(神経線維層下部)、線308(神経線維層下部)から線309(神経節細胞層下部)、線309(神経節細胞層下部)から線306(INL中央)、線306(INL中央)から線310(外網状層下部)、で分割する。信号処理手段053は、この分割情報を用い、以下の様に4層分離し、第二層において、上述の動静脈判定を実施すると、データが安定する。第一層を線307から線308の5μm程度下部(脈絡膜方向)の間の層と定義する。第二層を線308の5μm以上下部から線309の5μm程度上部の間の層と定義する。第三層を線309の5μm程度上部から線306の間の層と定義する。第四層を線306から線310の間の層と定義する。前記、MC画像(MC正面画像)として、第二層を用いる事で、動静脈の判定がより精度高く得る事が出来る。第二層を用いたMC画像は、内境界膜および神経線維層を含まず、神経節細胞層を含む画像に相当する。なお、図3(c)における線304はINL上端、線305はINL下端を示している。また、第三層、第四層を動静脈判定に用いることとしてもよい。第四層を用いたMC画像は、内境界膜、神経線維層および神経節細胞層を含まず、内顆粒層の全域のうち一部のみを含む画像に相当する。
(Modification 1)
At step 702, when acquiring the MC image, if the MC front image is acquired based on the INL (inner nuclear layer), the arteriovenous determination becomes more stable. Specifically, the signal processing means 053, as shown in FIG. line 309 (below ganglion cell layer) to line 306 (INL middle), line 306 (INL middle) to line 310 (outer plexiform layer). Using this division information, the signal processing means 053 divides into four layers as follows, and when the above-described arteriovenous determination is performed in the second layer, the data is stabilized. A first layer is defined as the layer between line 307 and about 5 μm below line 308 (in the choroidal direction). A second layer is defined as the layer between more than 5 μm below line 308 and about 5 μm above line 309 . The third layer is defined as the layer between line 306 and about 5 μm above line 309 . A fourth layer is defined as the layer between lines 306 and 310 . By using the second layer as the MC image (MC front image), arteriovenous determination can be obtained with higher accuracy. MC images with the second layer correspond to images that do not include the inner limiting membrane and nerve fiber layer, but include the ganglion cell layer. Line 304 in FIG. 3C indicates the INL upper end, and line 305 indicates the INL lower end. Also, the third layer and the fourth layer may be used for arteriovenous determination. An MC image using the fourth layer corresponds to an image that does not include the inner limiting membrane, nerve fiber layer and ganglion cell layer, but includes only a portion of the entire inner nuclear layer.

なお、線306はINLの中心としたがこれに限定されるものではなく、線306はINL内の血管の配列に基づいて上下2つの層に分離する位置であってもよい。INL内の血管はX方向(深さ方向に直交する方向)に直線的に並んでいるため(例えば上下2段の血管がそれぞれ直線的に並んでいる)、信号処理手段053は血管の配列に基づいてINLを2層に分離する位置を求めることができる。具体的には、信号処理手段053はINL内の血管をX方向(またはY方向)に結ぶ線をINL内の2段の血管について求め、求めた線同士の深さ方向における中点を求める。X方向において複数得られるこの中点を結んだ線を線306としてもよい。すなわち、信号処理手段053は、内顆粒層に含まれる血管の配列に基づいて内顆粒層の一部(内顆粒層の上側の層または下側の層)を決定する決定手段の一例に相当する。信号処理手段053は、線306を用いて第三層および第四層のMC画像を生成する。すなわち、内顆粒層の一部に基づいて、モーションコントラスト画像を生成する生成手段の一例に相当する。 Although the line 306 is the center of the INL, the line 306 is not limited to this, and the line 306 may be separated into two upper and lower layers based on the arrangement of blood vessels in the INL. Since the blood vessels in the INL are linearly aligned in the X direction (direction orthogonal to the depth direction) (for example, the blood vessels in the upper and lower two stages are respectively linearly aligned), the signal processing means 053 is arranged according to the blood vessel array. Based on this, the position for separating the INL into two layers can be obtained. Specifically, the signal processing means 053 obtains lines connecting the blood vessels in the INL in the X direction (or Y direction) for two stages of the blood vessels in the INL, and obtains the midpoint between the obtained lines in the depth direction. A line connecting a plurality of midpoints obtained in the X direction may be used as the line 306 . That is, the signal processing means 053 corresponds to an example of a determination means for determining a part of the inner nuclear layer (the upper layer or the lower layer of the inner nuclear layer) based on the arrangement of the blood vessels contained in the inner nuclear layer. . The signal processing means 053 uses the lines 306 to generate MC images of the third and fourth layers. That is, it corresponds to an example of generating means for generating a motion contrast image based on a part of the inner nuclear layer.

また、線306により規定される内顆粒層の一部(上層または下層)のみのMC画像が生成されてもよい。なお、本変形例は実施例1、3、4に対しても適用可能である。 Also, an MC image of only a portion (upper or lower layer) of the inner nuclear layer defined by line 306 may be generated. This modified example can also be applied to the first, third, and fourth embodiments.

(変形例2)
本例では、血管を分離する事で、明確なMC画像を取得でき、実施例1、2の解析が更に、向上した例を記述する。
(Modification 2)
In this example, a clear MC image can be acquired by separating blood vessels, and an example in which the analyzes in Examples 1 and 2 are further improved will be described.

図9(a)の画像901はXZ断面におけるMC信号のみを表示した画像である。図9(a)の黒点902はOCT画像で時間的変化を有したエリア(点)である。黒点902はモーションコントラスト値が所定値以上の信号を有している部分であり、すなわち血管部分に相当する。黒点903も同様である。黒点902は網膜表層部の血管を示し、黒点903は脈絡膜のエリアの血管を示している。 An image 901 in FIG. 9A is an image displaying only the MC signal in the XZ cross section. A black dot 902 in FIG. 9(a) is an area (point) having a temporal change in the OCT image. A black dot 902 is a portion having a signal with a motion contrast value greater than or equal to a predetermined value, that is, it corresponds to a blood vessel portion. The black spot 903 is also the same. Black dots 902 indicate blood vessels in the superficial layer of the retina, and black dots 903 indicate blood vessels in the choroidal area.

図9(a)の画像において、a、b、c、dの矢印位置でx方向に輝度(モーションコントラスト値)を加算すると、図9(b)の様になる。このa、b、c、dの矢印の位置は、輝度断層画像のAスキャン方向のプロファイルのピーク位置から特定することが可能である。なお、a、b、c、dの矢印の位置を特定するためのAスキャンは複数のAスキャンの積算値を用いることとしてもよい。浅層(Superficial Capillary)と深層(Deep capillary)に存在する血管は、図9(a)の様にa~dの様に4つの血管に分類出来る事が分かった。特に、血管層aは、輝度が低く、前述の実施例では、第一層に属していたと考えられる。同様に、血管層bは第二層、血管層cは第三層、血管層dは第四層に属していたと考えられる。例えば、信号処理手段053は、第二層に相当する血管層bの輝度の積算値が高くなるようにx方向に積算する線の角度を変更し、血管層bの輝度の積算値が最大となる角度の線を基準にして動静脈判定のためのMC正面画像を生成することとしてもよい。信号処理手段053は、例えば、血管層bの輝度の積算値が最大となる角度の線を中心として当該線に直交する方向に所定の幅を有する領域を用いてMC正面画像を生成する。なお、所定の幅は、予め決められた任意の値であってもよいし、血管層のモーションコントラスト値の分散値または標準偏差値を用いることとしてもよい。すなわち、信号処理手段053は、血管の配列に基づいてMC正面画像を生成する。 If the brightness (motion contrast value) is added in the x direction at the arrow positions of a, b, c, and d in the image of FIG. 9(a), it becomes as shown in FIG. 9(b). The positions of the arrows a, b, c, and d can be identified from the peak positions of the profile of the luminance tomographic image in the A-scan direction. Note that the A-scans for specifying the positions of the arrows a, b, c, and d may use the integrated values of a plurality of A-scans. It was found that the blood vessels existing in the superficial capillary and the deep capillary can be classified into four blood vessels, a to d, as shown in FIG. 9(a). In particular, the blood vessel layer a has a low brightness and is considered to belong to the first layer in the above example. Similarly, vascular layer b is thought to have belonged to the second layer, vascular layer c to the third layer, and vascular layer d to the fourth layer. For example, the signal processing means 053 changes the angle of the line for integration in the x-direction so that the integrated value of the brightness of the blood vessel layer b corresponding to the second layer is increased, and the integrated value of the brightness of the blood vessel layer b is maximized. An MC front image for arteriovenous determination may be generated with reference to a line with a different angle. The signal processing means 053 generates the MC front image using, for example, a region having a predetermined width in a direction perpendicular to the line centered on the line of the angle at which the integrated value of the brightness of the blood vessel layer b is maximum. Note that the predetermined width may be an arbitrary value determined in advance, or may use a variance value or a standard deviation value of the motion contrast values of the blood vessel layer. That is, the signal processing means 053 generates an MC front image based on the arrangement of blood vessels.

なお、血管層bの位置はユーザにより特定されてもよいし、信号処理手段053によりx方向における輝度の積算をz方向に順次行うことで得られるピークの位置に基づいて決定することも可能である。信号処理手段053は、例えば、脈絡膜側から2番目のピーク位置を血管層bとして特定することが可能となる。 The position of the blood vessel layer b may be specified by the user, or may be determined based on the position of the peak obtained by sequentially integrating the brightness in the x direction in the z direction using the signal processing means 053. be. The signal processing means 053 can specify, for example, the second peak position from the choroid side as the blood vessel layer b.

本例の様に、血管を用いてMC正面画像を生成することで、動静脈判定に適したMC画像を取得できる。また、動静脈判定のみならず、所望の血管のMC正面画像が生成されるため、診断にも適している。なお、本変形例は実施例1,3、4に対しても適用可能である。 By generating an MC front image using blood vessels as in this example, an MC image suitable for arteriovenous determination can be obtained. In addition, it is suitable not only for arteriovenous determination but also for diagnosis because an MC front image of a desired blood vessel is generated. This modified example can also be applied to the first, third, and fourth embodiments.

(実施例3:動静脈判定に関する情報の表示)
実施例1、2では評価領域内のモーションコントラスト値または無血管領域の大きさに基づいてMC画像に基づく動静脈の判定を自動で行うことについて述べたが、本実施例では動静脈の判定を支援する情報を表示する例について説明する。
(Example 3: Display of information on arteriovenous determination)
In Examples 1 and 2, it was described that arteriovenous determination is automatically performed based on the MC image based on the motion contrast value or the size of the avascular region in the evaluation region. An example of displaying supporting information will be described.

本実施例では、図7のステップS706で得られたIaveおよび図11のステップS1105で得られた無血管領域を示す画素の数nの少なくとも一方を制御手段054がモニタ055に表示させる。本実施例では血管が動脈であるか静脈であるかの自動判定は実施しない。Iaveまたは数nは、血管が動脈か静脈かを示す情報の一例に相当する。また、制御手段054は、動脈か静脈かを示す情報を表示部に表示させる表示制御手段の一例に相当する。 In this embodiment, the control means 054 causes the monitor 055 to display at least one of Iave obtained in step S706 of FIG. 7 and the number n of pixels indicating the avascular region obtained in step S1105 of FIG. In this embodiment, automatic determination of whether a blood vessel is an artery or a vein is not performed. Iave or number n corresponds to an example of information indicating whether a blood vessel is an artery or a vein. Also, the control means 054 corresponds to an example of a display control means for causing the display unit to display information indicating whether it is an artery or a vein.

制御手段054は、ユーザにより選択された血管または装置により自動的に選択された血管に関して、Iaveおよび数nの少なくとも一方をモニタ055に表示させる。制御手段054は更に、Iaveおよび数nの少なくとも一方の動静脈判定の基準となる閾値をモニタ055に表示させることとしてもよい。また、MC画像が更にモニタ055に表示されることとしてもよい。例えば、MC画像上の血管がユーザにより指定されると当該血管に関するIaveおよび数nの少なくとも一方と、Iaveおよび数nの少なくとも一方の動静脈判定の基準となる閾値とがモニタ055に表示される。 The control means 054 causes the monitor 055 to display at least one of Iave and the number n regarding the blood vessel selected by the user or automatically selected by the device. The control means 054 may further cause the monitor 055 to display at least one of Iave and the number n, which is a reference for arteriovenous determination. Also, the MC image may be further displayed on the monitor 055 . For example, when a blood vessel on an MC image is designated by the user, at least one of Iave and number n related to the blood vessel, and a threshold value of at least one of Iave and number n, which is a reference for arteriovenous determination, are displayed on the monitor 055. .

このようにすれば、動静脈判定に必要な情報をユーザが把握することができる。 In this way, the user can grasp information necessary for arteriovenous determination.

(実施例4:FAZ検出)
本実施例では、FAZ解析をより安定的に提供できる解析装置について述べる。
(Example 4: FAZ detection)
A present Example describes the analysis apparatus which can provide FAZ analysis more stably.

FAZとは、中心窩における無血管領域であり、図3(a)の311の領域である。MC信号を用いた従来の浅層(Superficial Capillary)画像では、FAZの計測が安定しなかった。理由は、浅層(Superficial Capillary)と深層(Deep capillary)の分割境界が曖昧で、層セグメンテーション定義に依存していた為である。 FAZ is an avascular region in the fovea, which is the region 311 in FIG. 3(a). In conventional superficial capillary images using MC signals, FAZ measurements were not stable. The reason is that the dividing boundary between the superficial capillary and the deep capillary is ambiguous and depends on the layer segmentation definition.

本実施例のフローについて、図8を用い、説明する。 The flow of this embodiment will be described with reference to FIG.

ステップS801において、信号処理手段053は重ね合わせ後のMC画像をメモリ052から取得する。ステップS802において、ステップS801で取得した画像を上述した第一層、第二層、第三層、第四層に分離する。ステップS803において、信号処理手段053は、ステップS802で分割された第三層のMC画像を抽出する。例えば、信号処理手段053はステップS801で取得した重ね合わせ後の3次元のMC画像に基づいて第三層のMC画像(MC正面画像)を生成する。ステップS804において、信号処理手段053は、ステップS803で取得した第三層のMC画像を用い、FAZを計測する。本実施例では、第三層のMC画像を二値化する事でFAZを計測した。 In step S801, the signal processing means 053 acquires the MC image after superimposition from the memory 052. FIG. In step S802, the image obtained in step S801 is separated into the first, second, third, and fourth layers described above. In step S803, the signal processing means 053 extracts the MC image of the third layer divided in step S802. For example, the signal processing unit 053 generates a third-layer MC image (MC front image) based on the superimposed three-dimensional MC image obtained in step S801. In step S804, the signal processing unit 053 measures FAZ using the third layer MC image acquired in step S803. In this example, the FAZ was measured by binarizing the MC image of the third layer.

上述の様なフローでFAZを計測すると、従来の浅層(Superficial Capillary)で計測した際よりも繰り返し精度が向上した。また、疾患眼において、同様の処理を実施する事で更にFAZの数値が安定した。 When the FAZ is measured with the flow as described above, the repeatability is improved as compared with the measurement with the conventional superficial capillary. Moreover, in diseased eyes, the numerical value of FAZ was further stabilized by performing the same processing.

本実施例の処理は、同一被験者における経時変化情報を取得する際、軽微な変化を正確に抽出できる為、経時変化を計測する際は特に効果がある。 The processing of this embodiment is particularly effective in measuring changes over time because it is possible to accurately extract slight changes when acquiring information on changes over time in the same subject.

(その他の実施形態)
以上、実施形態例を詳述したが、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other embodiments)
Although the embodiments have been described in detail above, the technology disclosed herein can be embodied as, for example, a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Moreover, it goes without saying that the object of the present invention is achieved by the following. That is, a recording medium (or storage medium) recording software program code (computer program) for realizing the functions of the above-described embodiments is supplied to the system or device. Such a storage medium is, of course, a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiments, and the recording medium recording the program code constitutes the present invention.

なお、上述した実施例および変形例は適宜組み合わせて実施してもよい。 Note that the above-described embodiments and modifications may be combined as appropriate.

053 信号処理手段
054 制御手段
055 モニタ
053 signal processing means 054 control means 055 monitor

Claims (16)

眼底のモーションコントラスト画像を取得する取得手段と、
前記モーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値の代表値に基づいて前記血管が動脈か静脈かを判定する判定手段と、を備え
前記代表値は、前記評価領域におけるモーションコントラスト値の平均値であることを特徴とする画像処理装置。
acquisition means for acquiring a motion contrast image of the fundus;
determination means for determining whether the blood vessel is an artery or a vein based on a representative value of motion contrast values of an evaluation region, which is a region located within a predetermined distance from a region corresponding to the blood vessel in the motion contrast image ;
The image processing apparatus , wherein the representative value is an average value of motion contrast values in the evaluation area .
前記判定手段は、前記代表値が閾値未満の場合に前記血管を動脈と判定し、または、前記代表値が前記閾値より大きい場合に前記血管を静脈と判定することを特徴とする請求項記載の画像処理装置。 2. The determining means determines that the blood vessel is an artery if the representative value is less than a threshold, or determines that the blood vessel is a vein if the representative value is greater than the threshold. image processing device. 眼底のモーションコントラスト画像を取得する取得手段と、
前記モーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値が第1閾値未満である領域の大きさに基づいて前記血管が動脈か静脈かを判定する判定手段と、を備え、
前記判定手段は、前記評価領域においてモーションコントラスト値が前記第1閾値未満である領域の大きさが第2閾値より大きい場合に前記血管を動脈と判定し、または、前記評価領域においてモーションコントラスト値が前記第1閾値未満である領域の大きさが前記第2閾値より小さい場合に前記血管を静脈と判定することを特徴とする画像処理装置。
acquisition means for acquiring a motion contrast image of the fundus;
It is determined whether the blood vessel is an artery or a vein based on the size of the region in which the motion contrast value of the evaluation region, which is the region located within a predetermined distance from the region corresponding to the blood vessel in the motion contrast image, is less than a first threshold. and a determination means,
The determining means determines that the blood vessel is an artery when the size of the area in the evaluation area where the motion contrast value is less than the first threshold is greater than the second threshold, or the motion contrast value in the evaluation area is determined to be an artery. An image processing apparatus, wherein the blood vessel is determined to be a vein when the size of the region smaller than the first threshold is smaller than the second threshold.
前記評価領域は、前記血管に相当する領域に隣接する領域であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 4. The image processing apparatus according to claim 1 , wherein the evaluation area is an area adjacent to the area corresponding to the blood vessel. 前記血管の走行方向における前記評価領域の大きさは、所定値より大きいことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 5. The image processing apparatus according to any one of claims 1 to 4 , wherein the size of the evaluation area in the running direction of the blood vessel is larger than a predetermined value. 前記血管の走行方向における前記評価領域の前記血管の走行距離に対する割合は、所定値より大きいことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 5. The image processing apparatus according to any one of claims 1 to 4 , wherein a ratio of the evaluation area to the running distance of the blood vessel in the running direction of the blood vessel is larger than a predetermined value. 前記評価領域の前記血管の走行方向に交差する方向における大きさは、前記血管に相当する領域の太さに基づいて決定されることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 5. The method according to any one of claims 1 to 4 , wherein the size of the evaluation area in a direction intersecting the running direction of the blood vessel is determined based on the thickness of the area corresponding to the blood vessel. image processing device. 前記所定距離は、前記血管に相当する領域の太さに基づいて決定されることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 8. The image processing apparatus according to any one of claims 1 to 7 , wherein the predetermined distance is determined based on the thickness of the area corresponding to the blood vessel. 前記所定距離は、前記血管に相当する領域の太さが小さいほど短くなることを特徴とする請求項記載の画像処理装置。 9. The image processing apparatus according to claim 8 , wherein the predetermined distance becomes shorter as the thickness of the region corresponding to the blood vessel becomes smaller. 前記モーションコントラスト画像はEnFace画像であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 10. The image processing apparatus according to claim 1 , wherein said motion contrast image is an EnFace image. 前記モーションコントラスト画像は、内境界膜および神経線維層を含まず、神経節細胞層を含む画像、または、内境界膜、神経線維層および神経節細胞層を含まず、内顆粒層の全域のうち一部のみを含む画像であることを特徴とする請求項10記載の画像処理装置。 The motion contrast image is an image that does not include the inner limiting membrane and the nerve fiber layer but includes the ganglion cell layer, or an image that does not include the inner limiting membrane, the nerve fiber layer and the ganglion cell layer and is the entire inner nuclear layer 11. The image processing apparatus according to claim 10 , wherein the image is an image including only a part. 前記内顆粒層の一部を、前記内顆粒層に含まれる血管の配列に基づいて決定する決定手段と、
前記決定手段により決定された前記内顆粒層の一部に基づいて、前記モーションコントラスト画像を生成する生成手段と、を更に備えることを特徴とする請求項11記載の画像処理装置。
a determining means for determining a portion of the inner nuclear layer based on the arrangement of blood vessels contained in the inner nuclear layer;
12. The image processing apparatus according to claim 11 , further comprising generating means for generating the motion contrast image based on the portion of the inner nuclear layer determined by the determining means.
前記決定手段は、深さ方向に直交する方向における血管の配列に基づいて前記内顆粒層の一部を決定することを特徴とする請求項12記載の画像処理装置。 13. The image processing apparatus according to claim 12 , wherein the determining means determines the part of the inner nuclear layer based on the arrangement of blood vessels in a direction orthogonal to the depth direction. 前記モーションコントラスト画像は、前記内顆粒層の一部より脈絡膜側にある層の画像を含まないことを特徴とする請求項12または13に記載の画像処理装置。 14. The image processing apparatus according to claim 12 , wherein the motion contrast image does not include an image of a layer closer to the choroid than part of the inner nuclear layer. 眼底のモーションコントラスト画像を取得する取得工程と、
前記モーションコントラスト画像における血管に相当する領域から所定距離以内に位置する領域である評価領域のモーションコントラスト値の代表値に基づいて前記血管が動脈か静脈かを判定する判定工程と、を備え
前記代表値は、前記評価領域におけるモーションコントラスト値の平均値であることを特徴とする画像処理方法。
an acquisition step of acquiring a motion contrast image of the fundus;
a determination step of determining whether the blood vessel is an artery or a vein based on a representative value of the motion contrast values of the evaluation region, which is the region located within a predetermined distance from the region corresponding to the blood vessel in the motion contrast image ;
The image processing method , wherein the representative value is an average value of motion contrast values in the evaluation area .
請求項15に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to execute the image processing method according to claim 15 .
JP2018038354A 2018-03-05 2018-03-05 Image processing device, image processing method and program Active JP7140512B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018038354A JP7140512B2 (en) 2018-03-05 2018-03-05 Image processing device, image processing method and program
PCT/JP2019/006835 WO2019171986A1 (en) 2018-03-05 2019-02-22 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018038354A JP7140512B2 (en) 2018-03-05 2018-03-05 Image processing device, image processing method and program

Publications (3)

Publication Number Publication Date
JP2019150345A JP2019150345A (en) 2019-09-12
JP2019150345A5 JP2019150345A5 (en) 2021-03-11
JP7140512B2 true JP7140512B2 (en) 2022-09-21

Family

ID=67846663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018038354A Active JP7140512B2 (en) 2018-03-05 2018-03-05 Image processing device, image processing method and program

Country Status (2)

Country Link
JP (1) JP7140512B2 (en)
WO (1) WO2019171986A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900593B2 (en) 2021-04-23 2024-02-13 Fujifilm Sonosite, Inc. Identifying blood vessels in ultrasound images
US20220361840A1 (en) * 2021-04-23 2022-11-17 Fujifilm Sonosite, Inc. Displaying blood vessels in ultrasound images
US11896425B2 (en) 2021-04-23 2024-02-13 Fujifilm Sonosite, Inc. Guiding instrument insertion

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003019119A (en) 2001-07-10 2003-01-21 Canon Inc Eyeground rheometer
WO2008069062A1 (en) 2006-12-01 2008-06-12 Kyushu Tlo Company, Limited Blood flow speed image creating device
JP2014504523A (en) 2011-01-20 2014-02-24 ユニバーシティ オブ アイオワ リサーチ ファウンデーション Automatic measurement of arteriovenous ratio in blood vessel images
JP2017077413A (en) 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017202369A (en) 2017-08-23 2017-11-16 株式会社トプコン Ophthalmologic image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003019119A (en) 2001-07-10 2003-01-21 Canon Inc Eyeground rheometer
WO2008069062A1 (en) 2006-12-01 2008-06-12 Kyushu Tlo Company, Limited Blood flow speed image creating device
JP2014504523A (en) 2011-01-20 2014-02-24 ユニバーシティ オブ アイオワ リサーチ ファウンデーション Automatic measurement of arteriovenous ratio in blood vessel images
JP2017077413A (en) 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017202369A (en) 2017-08-23 2017-11-16 株式会社トプコン Ophthalmologic image processing device

Also Published As

Publication number Publication date
WO2019171986A1 (en) 2019-09-12
JP2019150345A (en) 2019-09-12

Similar Documents

Publication Publication Date Title
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
JP7193343B2 (en) Method and apparatus for reducing artifacts in OCT angiography using machine learning techniques
KR102046309B1 (en) Image generating apparatus, image generating method, and storage medium
US10022047B2 (en) Ophthalmic apparatus
US9839351B2 (en) Image generating apparatus, image generating method, and program
US8079711B2 (en) Method for finding the lateral position of the fovea in an SDOCT image volume
EP2462863B1 (en) Image processing apparatus for processing tomographic image of subject's eye, imaging system, method for processing image, and program
US10354385B2 (en) Optical coherence tomography (OCT) data processing method, storage medium storing program for executing the OCT data processing method, and processing device
JP6627342B2 (en) OCT motion contrast data analysis device, OCT motion contrast data analysis program.
CA2844433A1 (en) Motion correction and normalization of features in optical coherence tomography
JP7140512B2 (en) Image processing device, image processing method and program
US11238584B2 (en) Device, method, and program for visualizing network of blood vessels of skin
JP6870723B2 (en) OCT motion contrast data analysis device, OCT motion contrast data analysis program.
JP2018191761A (en) Information processing device, information processing method, and program
JP7130989B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP2019150554A (en) Image processing system and method for controlling the same
JP6976818B2 (en) Image processing equipment, image processing methods and programs
WO2019172043A1 (en) Image processing device and control method thereof
JP7111874B2 (en) ophthalmic imaging equipment
JP6992030B2 (en) Image generator, image generation method and program
JP2020037010A (en) Ophthalmologic apparatus, display control method, and program
JP2019080808A (en) Examination apparatus, method of controlling examination apparatus, and program
JP2017144047A (en) Imaging apparatus and driving method therefor, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R151 Written notification of patent or utility model registration

Ref document number: 7140512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151