JP2020054812A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2020054812A
JP2020054812A JP2019177555A JP2019177555A JP2020054812A JP 2020054812 A JP2020054812 A JP 2020054812A JP 2019177555 A JP2019177555 A JP 2019177555A JP 2019177555 A JP2019177555 A JP 2019177555A JP 2020054812 A JP2020054812 A JP 2020054812A
Authority
JP
Japan
Prior art keywords
image
image processing
avascular
blood vessel
npa
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019177555A
Other languages
Japanese (ja)
Inventor
坂川 幸雄
Yukio Sakakawa
幸雄 坂川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2020054812A publication Critical patent/JP2020054812A/en
Pending legal-status Critical Current

Links

Abstract

To provide a mechanism that, when a blood vessel image of a subject has multiple candidates of avascular area, can accurately detect those avascular areas.SOLUTION: An image processing device specifies multiple avascular areas corresponding to multiple positions that are set to a blood vessel image of a subject (S350), and determines whether there is any overlapped avascular area in the specified multiple avascular areas (S370).SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関するものである。   The present invention relates to an image processing device, an image processing method, and a program.

従来から、光干渉断層計(Optical Coherence Tomography:OCT)など断層画像撮影装置を用いて、例えば被検体として被検眼の眼底を撮影すると、網膜層内部の状態を3次元的に観察することができる。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから、特に眼科診療の分野で広く用いられている。このOCTの形態として、例えば広帯域な光源とマイケルソン干渉計とを組み合わせたTD−OCT(Time Domain OCT)がある。このTD−OCTでは、測定光から分岐させた参照光を反射させる参照ミラーの位置を一定速度で移動させて、測定光と参照光との干渉光を取得し、被検体の深さ方向の光強度分布を得るように構成されている。しかしながら、このTD−OCTでは、機械的な駆動が必要となるため、高速に断層画像を取得することは難しい。そこで、より高速な断層画像の取得法として、広帯域光源を用いて分光器で干渉光に基づく干渉信号を取得するSD−OCT(Spectral Domain OCT)や、高速波長掃引光源を用いて時間的に分光するSS−OCT(Swept Source OCT)が開発されている。   2. Description of the Related Art Conventionally, when a fundus of an eye to be examined is photographed as a subject using, for example, a tomographic image photographing apparatus such as an optical coherence tomography (OCT), a state inside a retinal layer can be three-dimensionally observed. . Since this tomographic imaging apparatus is useful for more accurately diagnosing a disease, it is widely used particularly in the field of ophthalmic medical care. As a form of the OCT, for example, there is a TD-OCT (Time Domain OCT) in which a broadband light source and a Michelson interferometer are combined. In this TD-OCT, the position of a reference mirror that reflects the reference light branched from the measurement light is moved at a constant speed to obtain the interference light between the measurement light and the reference light, and the light in the depth direction of the subject is obtained. It is configured to obtain an intensity distribution. However, in this TD-OCT, it is difficult to obtain a tomographic image at high speed because mechanical driving is required. Therefore, as a method of acquiring a tomographic image at a higher speed, a spectroscope uses a broadband light source to acquire an interference signal based on the interference light, or a spectral domain OCT, or a temporally spectral source using a high-speed wavelength sweep light source. SS-OCT (Swept Source OCT) has been developed.

また、近年では、被検体の血管画像(例えば、被検眼の眼底血管画像)の生成のためにOCTを用いて非侵襲に血管を3次元で描出するOCT Angiography(以下、「OCTA」と記載する)技術が用いられるようになってきている。このOCTAでは、測定光で被検体の同一位置を複数回走査し、赤血球の変位と測定光との相互作用により得られるモーションコントラストを画像化する。   In recent years, OCT Angiography (hereinafter, referred to as “OCTA”) that non-invasively renders a blood vessel three-dimensionally using OCT to generate a blood vessel image of a subject (for example, a fundus blood vessel image of an eye to be examined). ) Technology is being used. In this OCTA, the same position of the subject is scanned a plurality of times with measurement light, and a motion contrast obtained by the interaction between the displacement of the red blood cells and the measurement light is imaged.

また、例えば糖尿病網膜症の疾病診断のため、2次元の正面OCTA画像から、中心窩無血管性域や無灌流領域のような無血管領域の特定等が行われている。例えば、特許文献1では、血管画像であるOCTA画像上での無血管領域の特定のため、ユーザーからの指示によって設定されたシード点の位置情報に基づいて無血管領域を特定する処理を行っている。   In addition, for example, for a disease diagnosis of diabetic retinopathy, identification of an avascular region such as a foveal avascular region or an unperfused region is performed from a two-dimensional frontal OCTA image. For example, in Patent Literature 1, in order to specify an avascular region on an OCTA image which is a blood vessel image, a process of specifying an avascular region based on position information of a seed point set by an instruction from a user is performed. I have.

特開2017−47127号公報JP 2017-47127 A

上述した特許文献1に記載の技術は、被検体の血管画像に1つの無血管領域の候補がある場合に、1つのシード点を設定して当該1つの無血管領域を特定するものである。このため、特許文献1に記載の技術では、被検体の血管画像に複数の無血管領域の候補がある場合には、これらの無血管領域を精度良く検出することは困難であるという問題があった。   In the technique described in Patent Document 1 described above, when there is one candidate for an avascular region in a blood vessel image of a subject, one seed point is set to specify the one avascular region. For this reason, the technique described in Patent Literature 1 has a problem that when there are a plurality of candidates for an avascular region in a blood vessel image of a subject, it is difficult to accurately detect these avascular regions. Was.

本発明は、このような問題点に鑑みてなされたものであり、被検体の血管画像に複数の無血管領域の候補がある場合に、これらの無血管領域を精度良く検出できる仕組みを提供することを目的の一つとする。   The present invention has been made in view of such a problem, and provides a mechanism that can accurately detect these avascular regions when there are a plurality of candidate avascular regions in a blood vessel image of a subject. It is one of the purposes.

本発明の画像処理装置の一つは、被検体の血管画像に対して設定された複数の位置に対応する複数の無血管領域を特定する特定手段と、前記複数の無血管領域における無血管領域同士の重複を判定する判定手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、上述した画像処理装置の各手段としてコンピュータを機能させるためのプログラムを含む。
One of the image processing apparatuses according to the present invention includes a specifying unit that specifies a plurality of avascular regions corresponding to a plurality of positions set with respect to a blood vessel image of a subject, and an avascular region in the plurality of avascular regions. Determining means for determining the overlap between them.
Further, the present invention includes an image processing method by the above-described image processing apparatus, and a program for causing a computer to function as each unit of the above-described image processing apparatus.

本発明の一つによれば、被検体の血管画像に複数の無血管領域の候補がある場合に、これらの無血管領域を精度良く検出することができる。   According to an embodiment of the present invention, when there are a plurality of candidates for an avascular region in a blood vessel image of a subject, these avascular regions can be accurately detected.

第1の実施形態に係る画像処理装置を含む画像処理システムの概略構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a schematic configuration of an image processing system including an image processing device according to a first embodiment. 第1の実施形態に係る画像処理装置の内部の概略構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a schematic configuration inside the image processing apparatus according to the first embodiment. 第1の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure of an image processing method performed by the image processing apparatus according to the first embodiment. 第1の実施形態を示し、OCTA撮影を説明するための図である。FIG. 3 shows the first embodiment and is a diagram for explaining OCTA imaging. 第1の実施形態を示し、図3に示すフローチャートの処理によって得られる画像を含む情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of information including an image obtained by the processing of the flowchart illustrated in FIG. 3 according to the first embodiment. 第1の実施形態を示し、図3に示すフローチャートの処理によって得られる画像を含む情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of information including an image obtained by the processing of the flowchart illustrated in FIG. 3 according to the first embodiment. 第1の実施形態を示し、図3(a)のステップS350の処理を説明するための図である。FIG. 4 shows the first embodiment, and is a diagram for explaining the process of step S350 in FIG. 第1の実施形態を示し、図3(c)のステップS355の処理で得られたNPA(無血管領域)のマスク画像の一例を示す図である。FIG. 4 illustrates the first embodiment, and is a diagram illustrating an example of a mask image of an NPA (avascular region) obtained in step S355 in FIG. 3C. 第1の実施形態を示し、図3(a)のステップS380の処理を説明するための図である。FIG. 4 shows the first embodiment, and is a diagram for explaining the processing in step S380 in FIG. 第1の実施形態を示し、図3(d)のステップS386の処理を説明するための図である。FIG. 6 shows the first embodiment, and is a diagram for explaining the processing of step S386 in FIG. 変形例1を説明するための図である。FIG. 9 is a diagram for describing a first modification. 変形例2を説明するための図である。FIG. 9 is a diagram for explaining a modification 2; 第2の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。9 is a flowchart illustrating an example of a processing procedure of an image processing method performed by the image processing apparatus according to the second embodiment. 第2の実施形態を示し、図13に示すフローチャートの処理を説明するための図である。FIG. 14 shows the second embodiment and is a diagram for describing the processing of the flowchart shown in FIG. 13. 第3の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。13 is a flowchart illustrating an example of a processing procedure of an image processing method by an image processing device according to a third embodiment. 第3の実施形態を示し、図15に示すフローチャートの処理を説明するための図である。FIG. 16 shows the third embodiment, and is a diagram for describing the processing in the flowchart shown in FIG. 15. 第4の実施形態を示し、図1の表示装置に表示されるNPA情報の経時変化を時系列に示す情報の一例を示す図である。FIG. 14 shows the fourth embodiment, and is a diagram illustrating an example of information indicating a temporal change of NPA information displayed on the display device in FIG. 1 in a time series. 変形例6を説明するための図である。FIG. 14 is a diagram for explaining a modification 6; 変形例7及び変形例8を説明するための図である。It is a figure for explaining modification 7 and modification 8.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, an embodiment (embodiment) for carrying out the present invention will be described with reference to the drawings.

[第1の実施形態]
まず、第1の実施形態について説明する。
[First Embodiment]
First, a first embodiment will be described.

第1の実施形態では、入力された(具体的に本実施形態では、被検眼の眼底)の血管画像(具体的に本実施形態では、眼底血管画像)に関して、中心窩無血管性域や、無灌流領域等の注目領域にあるNPA(無血管領域)の特定方法として、複数のNPA候補のそれぞれの中にシード点を設定し、その情報に基づいてそれぞれのNPAを特定する方法例を説明する。この際、シード点は、NPA(無血管領域)の検出の開始点に相当する。   In the first embodiment, the input (specifically, in the present embodiment, the fundus of the subject's eye) blood vessel image (specifically, in the present embodiment, the fundus blood vessel image), the foveal avascular area, As a method of specifying an NPA (avascular region) in a region of interest such as a non-perfusion region, a method of setting a seed point in each of a plurality of NPA candidates and specifying each NPA based on the information will be described. I do. At this time, the seed point corresponds to a start point of detection of an NPA (avascular region).

具体的に、本実施形態に係る画像処理装置では、眼底血管画像に複数のNPA候補があって、その眼底血管画像をユーザー(操作者)に提示し、ユーザーの操作入力からそれぞれのNPA候補にシード点を設定し、設定されたシード点に基づいてNPAを特定する。そして、本実施形態に係る画像処理装置では、特定されたNPAのオーバーラップ(特定されたNPA同士の重複)が発生した場合に、ユーザーに警告を提示し、ユーザーの操作入力からオーバーラップされたNPAの編集処理を行い、それぞれのNPAを特定する、例を説明する。   Specifically, in the image processing apparatus according to the present embodiment, there are a plurality of NPA candidates in the fundus blood vessel image, the fundus blood vessel image is presented to the user (operator), and each NPA candidate is input from the user's operation input. A seed point is set, and an NPA is specified based on the set seed point. Then, in the image processing apparatus according to the present embodiment, when an overlap of the specified NPAs (duplication of the specified NPAs) occurs, a warning is presented to the user, and the overlap is performed from the user's operation input. An example will be described in which NPA editing processing is performed to specify each NPA.

図1は、第1の実施形態に係る画像処理装置100を含む画像処理システム10の概略構成の一例を示す図である。画像処理システム10は、図1(a)に示すように、画像処理装置100、断層画像撮影装置200、入力装置300、及び、表示装置400を有して構成されている。画像処理装置100は、例えばインタフェースを介して、断層画像撮影装置200、入力装置300及び表示装置400と接続されている。   FIG. 1 is a diagram illustrating an example of a schematic configuration of an image processing system 10 including an image processing apparatus 100 according to the first embodiment. As shown in FIG. 1A, the image processing system 10 includes an image processing device 100, a tomographic image capturing device 200, an input device 300, and a display device 400. The image processing device 100 is connected to the tomographic image capturing device 200, the input device 300, and the display device 400 via, for example, an interface.

断層画像撮影装置200は、眼部(図1(b)の被検眼E)の断層画像を含む各種の画僧を撮影する装置である。本実施形態においては、断層画像撮影装置200として、SD−OCTを用いるものとする。しかしながら、本発明においては、断層画像撮影装置200は、このSD−OCTに限定されるものではなく、例えばSS−OCTを用いてもよく、更には、断層画像を撮影できる装置であれば他の装置も適用可能である。この断層画像撮影装置200は、図1(a)に示すように、測定光学系200−1、ステージ部200−2、及び、ベース部200−3を含み構成されている。測定光学系200−1は、図1(b)に示す被検眼Eの前眼部画像、被検眼EのSLO眼底画像、被検眼Eの断層画像を撮影するための光学系である。ステージ部200−2は、測定光学系200−1を前後左右方向(図1(b)のxyz方向)に移動可能に構成された構成部である。ベース部200−3は、後述の分光器を内蔵している構成部である。   The tomographic image photographing apparatus 200 is an apparatus for photographing various image monks including a tomographic image of the eye (eye E to be examined in FIG. 1B). In the present embodiment, the tomographic image capturing apparatus 200 uses SD-OCT. However, in the present invention, the tomographic image capturing apparatus 200 is not limited to the SD-OCT, and may use, for example, the SS-OCT. Apparatus is also applicable. As shown in FIG. 1A, the tomographic imaging apparatus 200 includes a measurement optical system 200-1, a stage 200-2, and a base 200-3. The measurement optical system 200-1 is an optical system for capturing an anterior eye image of the eye E, an SLO fundus image of the eye E, and a tomographic image of the eye E shown in FIG. The stage section 200-2 is a component configured to be able to move the measuring optical system 200-1 in the front, rear, left, and right directions (xyz directions in FIG. 1B). The base unit 200-3 is a component that incorporates a spectroscope described later.

画像処理装置100は、例えば入力装置300から入力された情報に基づいて、断層画像撮影装置200で撮影された断層画像を含む各種の画像を処理する装置である。また、画像処理装置100は、ステージ部200−2の制御や、アラインメント動作の制御、断層画像の再構成等を実行するコンピュータである。また、画像処理装置100は、記憶部120を含み構成されており、記憶部120は、例えば、断層画像撮影用のプログラム、患者情報、撮影データ、眼底血管画像、過去検査の画像データ、無血管領域(NPA)情報等の計測データなどを記憶する。   The image processing device 100 is a device that processes various images including a tomographic image captured by the tomographic image capturing device 200 based on information input from the input device 300, for example. The image processing apparatus 100 is a computer that controls the stage unit 200-2, controls the alignment operation, reconstructs a tomographic image, and the like. The image processing apparatus 100 includes a storage unit 120. The storage unit 120 includes, for example, a program for capturing tomographic images, patient information, imaging data, fundus vascular images, image data of past examinations, Measurement data such as area (NPA) information is stored.

入力装置300は、画像処理装置100に対して各種の情報を入力する装置である。この入力装置300は、例えば、キーボードやマウス、タッチ操作画面などを含み構成されており、ユーザーは、この入力装置300を介して、画像処理装置100や断層画像撮影装置200に対して指示を行う。   The input device 300 is a device that inputs various information to the image processing device 100. The input device 300 includes, for example, a keyboard, a mouse, and a touch operation screen, and a user issues an instruction to the image processing device 100 or the tomographic image capturing device 200 via the input device 300. .

表示装置400は、例えば画像処理装置100の制御に基づいて、画像処理装置100で処理された各種の画像や各種の情報を表示する装置である。この表示装置400は、例えば、モニタを含み構成されている。   The display device 400 is a device that displays various images and various information processed by the image processing device 100 under the control of the image processing device 100, for example. The display device 400 includes, for example, a monitor.

(断層画像撮影装置200の概略構成)
次に、図1(b)を用いて、断層画像撮影装置200の概略構成について説明する。この図1(b)には、図1(a)に示す測定光学系200−1の内部の概略構成と、図1(a)に示すベース部200−3の内部の概略構成が示されている。
(Schematic configuration of tomographic imaging apparatus 200)
Next, a schematic configuration of the tomographic imaging apparatus 200 will be described with reference to FIG. FIG. 1B shows a schematic configuration inside the measurement optical system 200-1 shown in FIG. 1A and a schematic configuration inside the base unit 200-3 shown in FIG. 1A. I have.

まず、測定光学系200−1の内部の概略構成について説明する。
測定光学系200−1では、被検眼Eに対向して対物レンズ201が設置され、その光軸上に第1ダイクロイックミラー202及び第2ダイクロイックミラー203が配置されている。これらのダイクロイックミラー202及び203によって、OCT光学系の光路231と、SLO光学系及び固視灯用の光路232と、前眼観察用の光路233とに、光が波長帯域ごとに分岐される。ここで、SLO光学系は、共焦点レーザー走査検眼鏡(Scanning Laser Ophthalmoscope:SLO)の光学系である。
First, a schematic configuration inside the measurement optical system 200-1 will be described.
In the measurement optical system 200-1, an objective lens 201 is installed so as to face the eye E, and a first dichroic mirror 202 and a second dichroic mirror 203 are arranged on the optical axis. By these dichroic mirrors 202 and 203, light is branched into an optical path 231 of the OCT optical system, an optical path 232 for the SLO optical system and the fixation lamp, and an optical path 233 for anterior eye observation for each wavelength band. Here, the SLO optical system is an optical system of a confocal laser scanning ophthalmoscope (Scanning Laser Ophthalmoscope: SLO).

SLO光学系及び固視灯用の光路232には、SLO走査手段204、レンズ205及び206、ミラー207、第3ダイクロイックミラー208、SLO光源209、固視灯210、APD(Avalanche Photodiode)211が配置されている。ミラー207は、例えば穴あきミラーや中空のミラーが蒸着されたプリズムであり、SLO光源209による照明光と被検眼Eからの戻り光とを分離する。第3ダイクロイックミラー208は、SLO光源209の光路と固視灯210の光路とに波長帯域ごとに分離する。SLO走査手段204は、SLO光源209から発せられた光を被検眼E上で走査するものであり、X方向に走査するXスキャナ及びY方向に走査するYスキャナから構成されている。本実施形態では、例えば、SLO走査手段204のXスキャナは高速走査を行う必要があるためポリゴンミラーで構成され、SLO走査手段204のYスキャナはガルバノミラーで構成されている。レンズ205は、SLO光学系及び固視灯210の焦点合わせのため、不図示のモータによって駆動される。SLO光源209は、780nm付近の波長の光を発生する。固視灯210は、可視光を発生して被検眼Eの固視を促すものである。APD211は、被検眼Eからの戻り光を検出する。   In the optical path 232 for the SLO optical system and the fixation light, an SLO scanning means 204, lenses 205 and 206, a mirror 207, a third dichroic mirror 208, an SLO light source 209, a fixation light 210, and an APD (Avalanche Photodiode) 211 are arranged. Have been. The mirror 207 is, for example, a prism on which a perforated mirror or a hollow mirror is deposited, and separates the illumination light from the SLO light source 209 from the return light from the eye E. The third dichroic mirror 208 separates the optical path of the SLO light source 209 and the optical path of the fixation lamp 210 for each wavelength band. The SLO scanning unit 204 scans the light emitted from the SLO light source 209 on the eye E, and includes an X scanner that scans in the X direction and a Y scanner that scans in the Y direction. In the present embodiment, for example, the X scanner of the SLO scanning unit 204 needs to perform high-speed scanning, and is configured by a polygon mirror, and the Y scanner of the SLO scanning unit 204 is configured by a galvanometer mirror. The lens 205 is driven by a motor (not shown) for focusing the SLO optical system and the fixation lamp 210. The SLO light source 209 generates light having a wavelength near 780 nm. The fixation lamp 210 generates visible light to promote fixation of the subject's eye E. The APD 211 detects the return light from the subject's eye E.

SLO光源209から発せられた光は、第3ダイクロイックミラー208で反射され、ミラー207を通過し、レンズ206及び205を通ってSLO走査手段204によって被検眼E(具体的に本実施形態では、被検眼Eの眼底Er)上で走査される。被検眼Eからの戻り光は、照明光と同じ経路を戻った後、ミラー207によって反射され、APD211へと導かれて、SLO眼底画像が得られる。また、固視灯210から発せられた光は、第3ダイクロイックミラー208、ミラー207を透過し、レンズ206及び205を通り、SLO走査手段204によって被検眼E上の任意の位置に所定の形状を作り、被検眼Eの固視を促す。   The light emitted from the SLO light source 209 is reflected by the third dichroic mirror 208, passes through the mirror 207, passes through the lenses 206 and 205, and is examined by the SLO scanning unit 204 (specifically, in this embodiment, the subject's eye E). It is scanned on the fundus Er) of the optometry E. The return light from the subject's eye E returns along the same path as the illumination light, is reflected by the mirror 207, is guided to the APD 211, and an SLO fundus image is obtained. The light emitted from the fixation lamp 210 passes through the third dichroic mirror 208 and the mirror 207, passes through the lenses 206 and 205, and has a predetermined shape at an arbitrary position on the eye E by the SLO scanning means 204. To promote fixation of the eye E.

前眼観察用の光路233には、レンズ212、スプリットプリズム213、レンズ214、赤外光を検知する前眼部観察用のCCD215が配置されている。CCD215は、不図示の前眼部観察用照射光の波長、具体的には970nm付近に感度を持つものである。スプリットプリズム213は、被検眼Eの瞳孔と共役な位置に配置されており、被検眼Eに対する測定光学系200−1のZ軸方向(光軸方向)の距離を、前眼部のスプリット像として検出できる。   In the optical path 233 for anterior eye observation, a lens 212, a split prism 213, a lens 214, and a CCD 215 for anterior eye observation for detecting infrared light are arranged. The CCD 215 has a sensitivity at a wavelength of irradiation light (not shown) for anterior ocular segment observation, specifically, around 970 nm. The split prism 213 is disposed at a position conjugate with the pupil of the eye E to be inspected, and the distance in the Z-axis direction (optical axis direction) of the measuring optical system 200-1 to the eye E to be inspected is defined as a split image of the anterior eye part. Can be detected.

OCT光学系の光路231には、OCT光学系が配置されており、このOCT光学系は被検眼E(具体的に本実施形態では、被検眼Eの眼底Er)の断層画像を撮影するためのものである。より具体的に、OCT光学系は、断層画像を形成するための干渉信号を得るものである。XYスキャナ216は、測定光を被検眼E(具体的に本実施形態では、被検眼Eの眼底Er)に対して走査するOCT走査手段である。このXYスキャナ216は、図1(b)では1枚のミラーとして図示されているが、実際には図1(b)に示すx方向及びy方向の2軸方向の走査を行うガルバノミラーである。レンズ217及び218のうちのレンズ217は、光カプラー219に接続されている光ファイバー225から出射するOCT光源220からの光を、被検眼Eに焦点合わせするために不図示のモータによって駆動される。この焦点合わせによって、被検眼Eからの戻り光は、同時に光ファイバー225の先端にスポット状に結像されて入射されることとなる。次に、OCT光学系の光路231を構成する、OCT光源220から被検眼Eへの光路と参照光学系と分光器240について説明する。OCT光源220から被検眼Eへの光路には、OCT光源220、光ファイバー224、光カプラー219、光ファイバー225、光ファイバー225に設けられた偏光調整部228、レンズ218、レンズ217、XYスキャナ216が配置されている。参照光学系としては、光カプラー219に接続された光ファイバー226、光ファイバー226に設けられた偏光調整部229、レンズ223、分散補償ガラス222、参照ミラー221が設けられている。分光器240は、ベース部200−3の内部に設けられており、光カプラー219に接続された光ファイバー227からの光を受光する。光ファイバー224〜227は、例えば、光カプラー219に接続されて一体化しているシングルモードの光ファイバーである。本実施形態では、これらの構成によってマイケルソン干渉計を構成している。   An OCT optical system is disposed in the optical path 231 of the OCT optical system. The OCT optical system is used to capture a tomographic image of the eye E (specifically, in this embodiment, the fundus Er of the eye E). Things. More specifically, the OCT optical system obtains an interference signal for forming a tomographic image. The XY scanner 216 is an OCT scanning unit that scans the measurement light with respect to the eye E (specifically, in this embodiment, the fundus Er of the eye E). Although the XY scanner 216 is illustrated as a single mirror in FIG. 1B, it is actually a galvano mirror that performs scanning in two axial directions in the x and y directions shown in FIG. 1B. . The lens 217 of the lenses 217 and 218 is driven by a motor (not shown) to focus light from the OCT light source 220 emitted from the optical fiber 225 connected to the optical coupler 219 to the eye E. By this focusing, the return light from the eye E is simultaneously focused on the tip of the optical fiber 225 in the form of a spot and is incident. Next, the optical path from the OCT light source 220 to the eye E, the reference optical system, and the spectroscope 240, which constitute the optical path 231 of the OCT optical system, will be described. An OCT light source 220, an optical fiber 224, an optical coupler 219, an optical fiber 225, a polarization adjusting unit 228 provided on the optical fiber 225, a lens 218, a lens 217, and an XY scanner 216 are arranged on the optical path from the OCT light source 220 to the eye E. ing. As the reference optical system, an optical fiber 226 connected to the optical coupler 219, a polarization adjusting unit 229 provided on the optical fiber 226, a lens 223, a dispersion compensation glass 222, and a reference mirror 221 are provided. The spectroscope 240 is provided inside the base unit 200-3, and receives light from the optical fiber 227 connected to the optical coupler 219. The optical fibers 224 to 227 are, for example, single-mode optical fibers connected to and integrated with the optical coupler 219. In the present embodiment, these configurations constitute a Michelson interferometer.

OCT光源220から出射された光は、光ファイバー224を通じ、光カプラー219を介して光ファイバー225側に進む測定光と、光ファイバー226側に進む参照光とに分割される。光カプラー219で分岐した測定光は、上述したOCT光源220から被検眼Eへの光路を介してダイクロイックミラー203及び202,対物レンズ201を通じて、観察対象である被検眼E(具体的に本実施形態では、被検眼Eの眼底Er)に照射される。そして、被検眼Eに照射された測定光は、被検眼Eによる反射や散乱により同じ光路を通じて光カプラー219に到達する。   The light emitted from the OCT light source 220 is split through the optical fiber 224 into measurement light traveling toward the optical fiber 225 via the optical coupler 219 and reference light traveling toward the optical fiber 226. The measurement light branched by the optical coupler 219 passes through the dichroic mirrors 203 and 202 and the objective lens 201 through the above-described optical path from the OCT light source 220 to the eye E to be inspected. Then, the light is irradiated on the fundus Er) of the eye E to be examined. Then, the measurement light applied to the eye E reaches the optical coupler 219 through the same optical path due to reflection and scattering by the eye E.

一方、光カプラー219で分岐した参照光は、光ファイバー226、レンズ223、測定光と参照光との波長分散を合わせるために挿入された分散補償ガラス222を介して参照ミラー221に到達し反射される。そして、参照ミラー221で反射した参照光は、同じ光路を戻り、光カプラー219に到達する。   On the other hand, the reference light branched by the optical coupler 219 reaches the reference mirror 221 via the optical fiber 226, the lens 223, and the dispersion compensation glass 222 inserted for adjusting the wavelength dispersion of the measurement light and the reference light, and is reflected. . Then, the reference light reflected by the reference mirror 221 returns along the same optical path and reaches the optical coupler 219.

光カプラー219によって、被検眼Eを経由して戻った測定光と参照ミラー221を経由して戻った参照光とは、合波されて干渉光となる。ここで、測定光の光路長と参照光の光路長とが、ほぼ同一となったときに干渉を生じる。参照ミラー221は、不図示のモータ及び駆動機構によって、光軸方向に調整可能に保持されており、測定光の光路長に参照光の光路長を合わせることが可能に構成されている。また、偏光調整部228及び229は、それぞれ、光ファイバー225及び226に設けられており、偏光調整を行う。これらの偏光調整部228及び229は、対応する光ファイバーをループ状に引きまわした部分を幾つか持っている。このループ状の部分を光ファイバーの長手方向を中心として回転させることで光ファイバーに捩じりを加え、測定光と参照光の偏光状態を各々調整して合わせることができる。そして、光カプラー219で発生した干渉光は、光ファイバー227を介して分光器240に導かれる。   The measurement light returned via the eye E and the reference light returned via the reference mirror 221 are multiplexed by the optical coupler 219 into interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light become substantially the same. The reference mirror 221 is held so as to be adjustable in the optical axis direction by a motor and a driving mechanism (not shown), and is configured to be able to adjust the optical path length of the reference light to the optical path length of the measurement light. The polarization adjusters 228 and 229 are provided in the optical fibers 225 and 226, respectively, and perform polarization adjustment. These polarization adjusting sections 228 and 229 have several portions where the corresponding optical fibers are drawn in a loop. By rotating the loop portion about the longitudinal direction of the optical fiber, the optical fiber is twisted, and the polarization states of the measurement light and the reference light can be adjusted and matched. Then, the interference light generated by the optical coupler 219 is guided to the spectroscope 240 via the optical fiber 227.

分光器240は、レンズ241、回折格子242、レンズ243、及び、ラインセンサ244を含み構成されている。この分光器240は、測定光を照射した被検眼E(具体的に本実施形態では、被検眼Eの眼底Er)からの戻り光と測定光に対応する参照光とを合波して得た干渉光(合波光)を検出する検出手段である。光ファイバー227から出射された干渉光は、レンズ241を介して平行光となった後、回折格子242で分光され、レンズ243によってラインセンサ244に結像される。そして、ラインセンサ244は、結像された干渉光に基づく干渉信号を生成する。   The spectroscope 240 includes a lens 241, a diffraction grating 242, a lens 243, and a line sensor 244. The spectroscope 240 is obtained by multiplexing the return light from the eye E to which the measurement light is irradiated (specifically, in this embodiment, the fundus Er of the eye E to be inspected) with the reference light corresponding to the measurement light. It is a detecting means for detecting interference light (combined light). The interference light emitted from the optical fiber 227 is converted into parallel light through the lens 241, is then separated by the diffraction grating 242, and is imaged on the line sensor 244 by the lens 243. Then, the line sensor 244 generates an interference signal based on the formed interference light.

次いで、OCT光源220の周辺について説明する。
OCT光源220は、例えば、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。この場合、OCT光源220から出射される光の中心波長は855nm程度、その波長バンド幅は約100nm程度である。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメーターである。OCT光源220としては、ここではSLDを用いたがこれに限定されるものではなく、低コヒーレント光が出射できる光源であれば適用可能であり、例えばASE(Amplified Spontaneous Emission)等を用いることができる。OCT光源220から出射される光の中心波長は、被検眼Eを測定することを鑑みると、近赤外光が適する。また、OCT光源220から出射される光の中心波長は、得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることが望ましい。双方の理由から、本実施形態では、OCT光源220から出射される光の中心波長を855nm程度とした。また、本実施形態では、干渉計としてマイケルソン干渉計を用いたが、例えばマッハツェンダー干渉計を用いてもよい。例えば、測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉計を用い、光量差が比較的小さい場合にはマイケルソン干渉計を用いることが望ましい。
Next, the periphery of the OCT light source 220 will be described.
The OCT light source 220 is, for example, an SLD (Super Luminescent Diode) that is a typical low coherent light source. In this case, the center wavelength of the light emitted from the OCT light source 220 is about 855 nm, and its wavelength bandwidth is about 100 nm. Here, the bandwidth is an important parameter because it affects the resolution of the obtained tomographic image in the optical axis direction. Although the SLD is used here as the OCT light source 220, the present invention is not limited to this. Any light source that can emit low coherent light can be used. For example, ASE (Amplified Spontaneous Emission) or the like can be used. . The near-infrared light is suitable for the center wavelength of the light emitted from the OCT light source 220 in consideration of measuring the eye E to be inspected. Further, the center wavelength of the light emitted from the OCT light source 220 affects the resolution in the lateral direction of the obtained tomographic image. For both reasons, in the present embodiment, the center wavelength of the light emitted from the OCT light source 220 is set to about 855 nm. Further, in the present embodiment, a Michelson interferometer is used as an interferometer, but a Mach-Zehnder interferometer may be used, for example. For example, it is desirable to use a Mach-Zehnder interferometer when the light amount difference is large and to use a Michelson interferometer when the light amount difference is relatively small, according to the light amount difference between the measurement light and the reference light.

(画像処理装置100の概略構成)
次に、図1(a)に示す画像処理装置100の内部の概略構成について説明する。
図2は、第1の実施形態に係る画像処理装置100の内部の概略構成の一例を示す図である。この図2では、画像処理装置100に加えて、図1(a)に示す断層画像撮影装置200、入力装置300及び表示装置400も図示している。
(Schematic Configuration of Image Processing Apparatus 100)
Next, a schematic configuration inside the image processing apparatus 100 shown in FIG. 1A will be described.
FIG. 2 is a diagram illustrating an example of a schematic configuration inside the image processing apparatus 100 according to the first embodiment. In FIG. 2, in addition to the image processing device 100, a tomographic image capturing device 200, an input device 300, and a display device 400 shown in FIG.

画像処理装置100は、例えば断層画像撮影装置200に通信可能に接続されたパーソナルコンピュータ(PC)であり、図2に示すように、画像取得部110、記憶部120、撮影制御部130、画像処理部140、及び、表示制御部150を含み構成されている。   The image processing device 100 is, for example, a personal computer (PC) communicably connected to the tomographic image capturing device 200, and as shown in FIG. 2, an image acquiring unit 110, a storage unit 120, a capturing control unit 130, an image processing unit And a display control unit 150.

画像処理装置100は、例えば、演算処理装置であるCPUが、ソフトウェアモジュールのプログラムを実行することによって、画像取得部110、撮影制御部130、画像処理部140及び表示制御部150の機能を実現する形態を採りうる。なお、本発明は、この形態に限定されるものではなく、例えば、画像処理部140をASIC等の専用のハードウェアで実現してもよいし、表示制御部150をCPUとは異なるGPU等の専用プロセッサーを用いて実現してもよい。また、断層画像撮影装置200と画像処理装置100との通信接続は、ネットワークを介した構成であってもよい。   In the image processing device 100, for example, the functions of the image acquisition unit 110, the imaging control unit 130, the image processing unit 140, and the display control unit 150 are realized by a CPU that is an arithmetic processing device executing a program of a software module. It can take the form. Note that the present invention is not limited to this mode. For example, the image processing unit 140 may be realized by dedicated hardware such as an ASIC, or the display control unit 150 may be implemented by a GPU or the like different from a CPU. It may be realized by using a dedicated processor. Further, the communication connection between the tomographic imaging apparatus 200 and the image processing apparatus 100 may be configured via a network.

画像取得部110は、断層画像撮影装置200によって撮影されたSLO眼底画像や断層画像の信号データを取得する。この画像取得部110は、断層画像生成部111、及び、モーションコントラストデータ生成部112を含み構成されている。断層画像生成部111は、断層画像撮影装置200によって撮影された断層画像の信号データ(干渉信号)を取得し、これに信号処理を行うことによって被検体(本実施形態では、被検眼Eの眼底Er)の断層画像を生成する。そして、断層画像生成部111は、生成した断層画像のデータを記憶部120に格納する。モーションコントラストデータ生成部112は、被検体の同一位置を繰り返し撮影し、その撮影間における被検体の時間的な変化を検出したデータであるモーションコントラストデータを生成する。   The image acquiring unit 110 acquires signal data of an SLO fundus image and a tomographic image captured by the tomographic image capturing apparatus 200. The image acquisition unit 110 includes a tomographic image generation unit 111 and a motion contrast data generation unit 112. The tomographic image generation unit 111 acquires signal data (interference signal) of a tomographic image captured by the tomographic image capturing apparatus 200 and performs signal processing on the signal data (interference signal) to obtain the subject (the fundus E of the eye E in the present embodiment). An Er) tomographic image is generated. Then, the tomographic image generation unit 111 stores the data of the generated tomographic image in the storage unit 120. The motion contrast data generation unit 112 repeatedly captures the same position of the subject, and generates motion contrast data that is data obtained by detecting a temporal change of the subject during the capturing.

記憶部120は、被検眼Eの情報(患者の氏名、年齢、性別など)、撮影により得られた画像(断層画像、SLO画像、OCTA画像など)や合成画像、撮影パラメーター、NPA(無血管領域)情報、計測値、ユーザーが設定したパラメーター等を関連付けて保持している。   The storage unit 120 stores information on the eye E (patient's name, age, gender, and the like), images (tomographic images, SLO images, OCTA images, and the like) obtained by imaging, composite images, imaging parameters, NPA (avascular region) ) Information, measurement values, parameters set by the user, etc. are stored in association with each other.

撮影制御部130は、断層画像撮影装置200に対して撮影制御を行う。撮影制御には、断層画像撮影装置200に対して撮影パラメーターの設定に関して指示することや、撮影の開始もしくは終了に関して指示することも含まれる。この際、撮影制御部130は、例えば、記憶部120に記憶されている撮影パラメーターを用いて断層画像撮影装置200に対する撮影制御を行う形態を採りうる。   The imaging control unit 130 performs imaging control on the tomographic imaging apparatus 200. The photographing control includes instructing the tomographic image photographing apparatus 200 about setting of photographing parameters and instructing start or end of photographing. At this time, for example, the imaging control unit 130 may adopt a form in which imaging control for the tomographic imaging apparatus 200 is performed using the imaging parameters stored in the storage unit 120.

画像処理部140は、各種の画像(断層画像、SLO画像、OCTA画像など)に対して画像処理を行う。この画像処理部140は、図2に示すように、位置合わせ部141、合成部142、補正部143、画像特徴取得部144、投影部145、及び、解析部146を有して構成されている。   The image processing unit 140 performs image processing on various images (tomographic images, SLO images, OCTA images, and the like). As shown in FIG. 2, the image processing unit 140 includes a positioning unit 141, a synthesizing unit 142, a correcting unit 143, an image feature acquiring unit 144, a projecting unit 145, and an analyzing unit 146. .

位置合わせ部141は、合成部142が合成処理を行う際に用いる位置合わせパラメーターを生成する等を行う。   The alignment unit 141 generates alignment parameters used when the synthesizing unit 142 performs the synthesizing process, and the like.

合成部142は、位置合わせ部141により得られた位置合わせパラメーターに基づいて、モーションコントラストデータ生成部112で生成された複数のモーションコントラストデータを合成し、モーションコントラスト画像を生成する等を行う。   The combining unit 142 combines a plurality of pieces of motion contrast data generated by the motion contrast data generating unit 112 based on the positioning parameters obtained by the positioning unit 141, and generates a motion contrast image and the like.

補正部143は、モーションコントラスト画像内に生じるプロジェクションアーチファクトを2次元もしくは3次元的に抑制する等の補正処理を行う(プロジェクションアーチファクトについては、図3(b)のS314で説明する)。   The correction unit 143 performs correction processing such as two-dimensionally or three-dimensionally suppressing projection artifacts occurring in the motion contrast image (projection artifacts will be described in S314 of FIG. 3B).

画像特徴取得部144は、断層画像生成部111で生成された断層画像から、被検眼Eの眼底Erにおける網膜や脈絡膜の層境界、中心窩や視神経乳頭中心の位置等の画像特徴を取得する。   From the tomographic image generated by the tomographic image generating unit 111, the image feature obtaining unit 144 obtains image features such as the layer boundaries of the retina and choroid in the fundus Er of the eye E, the position of the fovea, and the center of the optic disc.

投影部145は、画像特徴取得部144で取得された層境界の位置に基づく深度範囲でモーションコントラスト画像を投影し、正面モーションコントラスト画像を生成する等を行う。   The projection unit 145 projects a motion contrast image in a depth range based on the position of the layer boundary acquired by the image feature acquisition unit 144, and generates a front motion contrast image, and the like.

解析部146は、各種の画像に対して解析処理を行う。例えば、解析部146は、投影部145で得られた正面モーションコントラスト画像からNPA(無血管領域)の特定や計測処理を行う。この解析部146は、図2に示すように、強調部1461、抽出部1462、計測部1463、及び、座標変換部1464を含み構成されている。   The analysis unit 146 performs analysis processing on various images. For example, the analysis unit 146 specifies and measures NPA (avascular region) from the front motion contrast image obtained by the projection unit 145. As shown in FIG. 2, the analyzing unit 146 includes an emphasizing unit 1461, an extracting unit 1462, a measuring unit 1463, and a coordinate converting unit 1464.

強調部1461は、被検体(本実施形態では、被検眼Eの眼底Er)の血管強調処理を実行する。抽出部1462は、血管強調画像に基づいてNPAの境界線を抽出して、NPAの抽出を行う。計測部1463は、抽出部1462で抽出されたNPAのマスク画像を生成したり、NPAの面積や体積などの計測値を算出したりする。座標変換部1464は、正面モーションコントラスト画像の座標変換を行う。座標変換部1464による座標変換の例としては、直交座標から極座標への座標変換や、極座標から直交座標への座標変換が挙げられる。   The enhancement unit 1461 performs a blood vessel enhancement process on the subject (the fundus Er of the eye E in the present embodiment). The extracting unit 1462 extracts a boundary line of the NPA based on the blood vessel enhanced image, and extracts the NPA. The measurement unit 1463 generates a mask image of the NPA extracted by the extraction unit 1462, and calculates a measurement value such as the area and volume of the NPA. The coordinate conversion unit 1464 performs coordinate conversion of the front motion contrast image. Examples of coordinate conversion by the coordinate conversion unit 1464 include coordinate conversion from rectangular coordinates to polar coordinates and coordinate conversion from polar coordinates to rectangular coordinates.

(画像処理装置100による画像処理方法)
次に、図1及び図2に示す画像処理装置100による画像処理方法について説明する。
図3は、第1の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。具体的に、図3(a)は、第1の実施形態に係る画像処理方法の全体的な処理手順を示すフローチャートであり、また、図3(b)〜図3(d)は、それぞれ、図3(a)に示すステップS310,S350,S380の詳細な処理手順を示すフローチャートである。
(Image processing method by image processing apparatus 100)
Next, an image processing method by the image processing apparatus 100 shown in FIGS. 1 and 2 will be described.
FIG. 3 is a flowchart illustrating an example of a processing procedure of an image processing method by the image processing apparatus 100 according to the first embodiment. Specifically, FIG. 3A is a flowchart illustrating an overall processing procedure of the image processing method according to the first embodiment, and FIGS. 3B to 3D respectively illustrate FIGS. 4 is a flowchart illustrating a detailed processing procedure of steps S310, S350, and S380 illustrated in FIG.

ここで、図3の説明を行う前に、図4を用いてOCTA撮影について説明する。
図4は、第1の実施形態を示し、OCTA撮影を説明するための図である。具体的に、図4は、主走査方向が水平方向(図1(b)のx方向)であり、その垂直方向の副走査方向(図1(b)のy方向)の各位置(yi;1≦i≦n)において、r回連続でBスキャンを行うOCTA撮影の例を示している。なお、OCTA撮影において、同一位置で複数回走査することをクラスタ走査、同一位置で得られた複数枚の断層画像のことをクラスタと呼ぶ。そして、クラスタ単位でモーションコントラストデータを生成し、1クラスタあたりの断層画像数(略同一位置での走査回数)を増やすと、モーションコントラスト画像の一種であるOCTA画像のコントラストが向上することが知られている。
Here, before describing FIG. 3, OCTA imaging will be described with reference to FIG.
FIG. 4 is a diagram illustrating the first embodiment and illustrating OCTA imaging. Specifically, in FIG. 4, the main scanning direction is a horizontal direction (x direction in FIG. 1B), and each position (yi; y) in the vertical sub scanning direction (y direction in FIG. 1B). In (1 ≦ i ≦ n), an example of OCTA imaging in which B scans are performed r times in succession is shown. In OCTA imaging, scanning a plurality of times at the same position is referred to as cluster scanning, and a plurality of tomographic images obtained at the same position is referred to as a cluster. It is known that when motion contrast data is generated in cluster units and the number of tomographic images per cluster (the number of scans at substantially the same position) is increased, the contrast of an OCTA image, which is a type of motion contrast image, is improved. ing.

以下に、図3(a)に示す、第1の実施形態に係る画像処理方法の全体的な処理手順について説明する。   The overall processing procedure of the image processing method according to the first embodiment shown in FIG.

<ステップS310>
まず、図3(a)のステップS310において、画像取得部110及び画像処理部140は、眼底血管画像としてモーションコントラスト画像であるOCTA画像を取得する。この際、画像処理装置100は、記憶部120にすでに記憶されている眼底血管画像を取得してもよいが、本実施形態においては、画像処理装置100が測定光学系200−1を制御して、取得された断層画像からモーションコントラスト画像を生成して取得する例を示す。即ち、本実施形態では、画像取得部110及び画像処理部140は、測定光が被検体である眼底Erの同一位置を走査するように制御して得た複数の断層画像を用いてモーションコントラストを眼底血管画像として生成して取得する形態を採る。なお、本発明においては、この取得方法に限定されるものではなく、眼底血管画像の取得であれば、その他の方法でもよい。
<Step S310>
First, in step S310 in FIG. 3A, the image acquisition unit 110 and the image processing unit 140 acquire an OCTA image that is a motion contrast image as a fundus blood vessel image. At this time, the image processing apparatus 100 may acquire a fundus blood vessel image already stored in the storage unit 120. However, in the present embodiment, the image processing apparatus 100 controls the measurement optical system 200-1. An example in which a motion contrast image is generated from an acquired tomographic image and acquired is shown. That is, in the present embodiment, the image acquisition unit 110 and the image processing unit 140 use the plurality of tomographic images obtained by controlling the measurement light to scan the same position of the fundus Er as the subject, and use the plurality of tomographic images to determine the motion contrast. A mode of generating and acquiring a fundus blood vessel image is adopted. In the present invention, the present invention is not limited to this acquisition method, and any other method may be used as long as a fundus blood vessel image is acquired.

図5は、第1の実施形態を示し、図3に示すフローチャートの処理によって得られる画像を含む情報の一例を示す図である。
具体的に、例えば、ステップS310の処理では、眼底血管画像として、図5(a)に示すようなモーションコントラスト画像が取得される。なお、本発明においては、これに限定されるものではなく、その他の眼底血管画像、例えば、フルオレセイン血管造影画像やインドシアニングリーン(indocyanine green:ICG)血管造影画像、OCT血管造影画像などを取得するようにしてもよい。
FIG. 5 is a diagram illustrating the first embodiment and illustrating an example of information including an image obtained by the processing of the flowchart illustrated in FIG. 3.
Specifically, for example, in the process of step S310, a motion contrast image as shown in FIG. 5A is obtained as a fundus blood vessel image. In the present invention, the present invention is not limited to this, and other fundus blood vessel images such as a fluorescein angiographic image, an indocyanine green (ICG) angiographic image, and an OCT angiographic image are obtained. You may do so.

<ステップS320>
続いて、ステップS320において、解析部146の強調部1461は、ノイズの影響を最小にして、ステップS310で取得された眼底血管画像の画像強調処理を行う。この処理の具体例を以下に記載する。
・S320−1) ステップS310で取得された眼底血管画像に、「narrow window size」の「Gaussian Low Pass Filter(LPF)」をかけて、Light−Filtered OCTA image(LF−OCTA画像)を生成する。ここでは、「narrow windowのsize」は、3ピクセルとする。
・S320−2) ステップS310で取得された眼底血管画像に、「wide window size」の「Gaussian Low Pass Filter(LPF)」をかけて、Strong−Filtered OCTA image(SF−OCTA画像)を生成する。ここでは、「wide windowのsize」は、85ピクセルとする。
・S320−3) LF−OCTA画像をSF−OCTA画像で割り算を行い、Relative Variation OCTA(RV−OCTA)画像を生成する。
・S320−4) 特定の閾値RL(Ratio Limit)を用いて、RV−OCTA画像の二値化を行う。ここでは、閾値RLを1とする。そして、RV−OCTA画像の各ピクセル値がRL以下であれば、そのピクセルをゼロにする。さもなければ、そのピクセルを1にする。
・S320−5) 二値化された画像に、morphological filterをかける。ここでは、kernel size=3のopen−close処理を行う。この処理によって画像上の塩ノイズを減らし、血管構造の連続性を改善する。
以上のステップS320の処理を行うことにより、例えば図5(b)に示す眼底血管画像が得られる。
<Step S320>
Subsequently, in step S320, the enhancement unit 1461 of the analysis unit 146 performs image enhancement processing on the fundus blood vessel image acquired in step S310 while minimizing the influence of noise. A specific example of this processing will be described below.
-S320-1) A "Gaussian Low Pass Filter (LPF)" of "narrow window size" is applied to the fundus blood vessel image acquired in step S310 to generate a Light-Filtered OCTA image (LF-OCTA image). Here, “narrow window size” is three pixels.
-S320-2) A "Gaussian Low Pass Filter (LPF)" of "wide window size" is applied to the fundus blood vessel image acquired in step S310 to generate a Strong-Filtered OCTA image (SF-OCTA image). Here, “size of wide window” is set to 85 pixels.
-S320-3) The LF-OCTA image is divided by the SF-OCTA image to generate a Relative Variation OCTA (RV-OCTA) image.
-S320-4) Binarization of the RV-OCTA image is performed using a specific threshold value RL (Ratio Limit). Here, the threshold RL is set to 1. If each pixel value of the RV-OCTA image is equal to or less than RL, the pixel is set to zero. Otherwise, set the pixel to one.
-S320-5) Morphological filter is applied to the binarized image. Here, open-close processing of kernel size = 3 is performed. This process reduces salt noise on the image and improves the continuity of the blood vessel structure.
By performing the processing in step S320, for example, a fundus blood vessel image shown in FIG. 5B is obtained.

<ステップS330>
続いて、ステップS330において、解析部146は、ステップS320で得られた眼底血管画像内の複数のNPA候補のそれぞれに対してシード点を設定する。即ち、ここでは、眼底血管画像に複数のNPA候補があり、当該複数のNPA候補に対応する複数のシード点を設定する。
<Step S330>
Subsequently, in step S330, the analysis unit 146 sets a seed point for each of the plurality of NPA candidates in the fundus blood vessel image obtained in step S320. That is, here, there are a plurality of NPA candidates in the fundus blood vessel image, and a plurality of seed points corresponding to the plurality of NPA candidates are set.

ここでは、ステップS330におけるシード点の設定方法として、ユーザーが入力装置300を介して入力した情報に基づいて、解析部146が複数のシード点を設定するものとする。この場合、具体的に、まず、画像処理装置100が表示装置400に眼底血管画像であるOCTA画像を表示させ、ユーザーが、入力装置300を介して、OCTA画像内の複数のNPA候補のそれぞれの1点を選択して指定する。そして、解析部146は、入力装置300を介して、ユーザーの入力情報を取得し、眼底血管画像であるOCTA画像に対して、指定された1点ごとにシード点を設定する。なお、本発明においては、この形態に限定されるものではなく、解析部146が、自動的にシード点を設定する形態も、本発明に適用可能である。   Here, as a method of setting a seed point in step S330, it is assumed that analysis unit 146 sets a plurality of seed points based on information input by the user via input device 300. In this case, specifically, first, the image processing device 100 causes the display device 400 to display an OCTA image that is a fundus blood vessel image, and the user inputs, via the input device 300, each of the plurality of NPA candidates in the OCTA image. Select and specify one point. Then, the analysis unit 146 acquires input information of the user via the input device 300, and sets a seed point for each designated point in the OCTA image that is a fundus blood vessel image. The present invention is not limited to this mode, and a mode in which the analysis unit 146 automatically sets a seed point is also applicable to the present invention.

解析部146が、自動的にシード点を設定する形態の一例を以下に記載する。
・OCTA画像の構造解析を行い、被検眼Eの眼底の中心窩を検出する。
・OCTA画像に、Strong low pass filterをかけ、minimum intensityの領域を検出する。
・その他のmodalityの眼底画像(例えば、SLO眼底画像や眼底カメラ画像)の解析結果を用いて検出する。
以上の処理によって、検出された複数の領域内のそれぞれの1点をシード点として自動的に設定する。
An example of a mode in which the analysis unit 146 automatically sets a seed point will be described below.
The structural analysis of the OCTA image is performed, and the fovea of the fundus of the eye E is detected.
-A strong low pass filter is applied to the OCTA image to detect a minimum intensity area.
Detection is performed using an analysis result of a fundus image of another modality (for example, an SLO fundus image or a fundus camera image).
Through the above processing, one point in each of the detected regions is automatically set as a seed point.

図6は、第1の実施形態を示し、図3に示すフローチャートの処理によって得られる画像を含む情報の一例を示す図である。
図6(a)は、ステップS330の処理結果の一例を示す図である。図6(a)において、眼底血管画像601は、ステップS320の処理後の画像であり、この眼底血管画像601には、NPA(無血管領域)602が示されている。また、この眼底血管画像601には、ステップS330において設定されたシード点603及びシード点604が示されている。
FIG. 6 illustrates the first embodiment, and is a diagram illustrating an example of information including an image obtained by the processing of the flowchart illustrated in FIG. 3.
FIG. 6A is a diagram illustrating an example of the processing result of step S330. In FIG. 6A, a fundus blood vessel image 601 is an image after the processing in step S320, and an NPA (avascular region) 602 is shown in the fundus blood vessel image 601. The fundus blood vessel image 601 shows the seed points 603 and 604 set in step S330.

以降の処理では、本ステップS330で設定された複数のシード点のそれぞれに対応するNPAの特定が行われる。そのため、最初は、対象とする領域J=0とする。   In the subsequent processing, the NPA corresponding to each of the plurality of seed points set in step S330 is specified. Therefore, initially, the target area J is set to 0.

<ステップS340>
続いて、ステップS340において、解析部146は、ステップS330で設定された複数のシード点から領域Jのシード点を選択する。
<Step S340>
Subsequently, in step S340, the analysis unit 146 selects a seed point of the region J from the plurality of seed points set in step S330.

<ステップS350>
続いて、ステップS350において、解析部146は、ステップS340で選択された領域Jのシード点を用いて、そのシード点を含むNPAの特定処理を行う。
図6(b)及び図6(c)は、ステップS350の処理結果の一例を示す図である。具体的に、図6(b)には、シード点603に基づき特定されたNPA(無血管領域)605が示されており、また、図6(c)には、シード点604に基づき特定されたNPA(無血管領域)606が示されている。
<Step S350>
Subsequently, in step S350, the analysis unit 146 performs an NPA specifying process including the seed point using the seed point of the region J selected in step S340.
FIGS. 6B and 6C are diagrams illustrating an example of the processing result of step S350. Specifically, FIG. 6B illustrates an NPA (avascular region) 605 specified based on the seed point 603, and FIG. 6C illustrates an NPA (avascular region) specified based on the seed point 604. NPA (avascular region) 606 is shown.

<ステップS360>
続いて、ステップS360において、解析部146は、ステップS330で設定された複数のシード点の全てのシード点からNPA(無血管領域)の特定が終了したか否かの判定を行う。具体的に、未だNPAの特定が行われていないシード点があり、次のNPAがある場合には(S360/YES)、領域J=J+1とした上で、ステップS340に戻り、ステップS340以降の処理を行う。一方、全てのシード点からNPAの特定が終了した場合(次のNPAが無い場合)には(S360/NO)、ステップS370に進む。
<Step S360>
Subsequently, in step S360, the analysis unit 146 determines whether or not the specification of the NPA (avascular region) has been completed from all of the plurality of seed points set in step S330. Specifically, if there is a seed point for which the NPA has not yet been specified and there is a next NPA (S360 / YES), the region J is set to J + 1, the process returns to step S340, and the process after step S340 is performed. Perform processing. On the other hand, if the specification of the NPA has been completed from all the seed points (if there is no next NPA) (S360 / NO), the process proceeds to step S370.

<ステップS370>
ステップS370に進むと、解析部146は、ステップS350で特定されたNPA(無血管領域)のオーバーラップが発生したか否かを判定する。即ち、ステップS370では、異なるシード点から特定された複数のNPA(無血管領域)において、重複する共通の領域があるか否かを判定する。なお、ここでは、ステップS370の処理を、解析部146が行うものとして説明を行ったが、例えば合成部142が行う形態であってもよい。
<Step S370>
In step S370, the analysis unit 146 determines whether an overlap of the NPA (avascular region) specified in step S350 has occurred. That is, in step S370, it is determined whether or not there is an overlapping common area in a plurality of NPAs (avascular areas) specified from different seed points. Here, the description has been made assuming that the processing of step S370 is performed by the analysis unit 146, but the processing may be performed by the synthesis unit 142, for example.

図6(d)は、ステップS370の処理結果の一例を示す図である。具体的に、図6(d)には、ステップS350において特定されたNPA(無血管領域)605とNPA(無血管領域)606とがオーバーラップする重複領域(共通領域)607が示されている。ここで、本実施形態では、解析部146は、重複領域(共通領域)607を検出するのに際して、例えば、図6(b)に示すNPA(無血管領域)605の境界線内のピクセルを白ピクセルにし、それ以外のピクセルを黒ピクセルにして、NPA605のマスク画像を生成するとともに(このNPA605のマスク画像は、後述するステップS355で生成したマスク画像を用いてもよい)、図6(c)に示すNPA(無血管領域)606の境界線内のピクセルを白ピクセルにし、それ以外のピクセルを黒ピクセルにして、NPA606のマスク画像を生成し(このNPA606のマスク画像は、後述するステップS355で生成したマスク画像を用いてもよい)、NPA605のマスク画像とNPA606のマスク画像との重複領域(共通領域)を、重複領域(共通領域)607として検出する形態を採りうる。そして、ステップS370の判定の結果、図6(d)に示す重複領域(共通領域)607が存在する場合にはオーバーラップが発生したと判断し(S370/YES)、ステップS380に進む。一方、図6(d)に示す重複領域(共通領域)607が存在せずに異なるシード点から独立したNPA(無血管領域)が特定された場合にはオーバーラップが発生していないと判断し(S370/NO)、ステップS390に進む。   FIG. 6D is a diagram illustrating an example of the processing result of step S370. Specifically, FIG. 6D shows an overlapping region (common region) 607 where the NPA (avascular region) 605 and the NPA (avascular region) 606 specified in step S350 overlap. . Here, in the present embodiment, when detecting the overlapping area (common area) 607, the analyzing unit 146, for example, replaces the pixels within the boundary line of the NPA (avascular area) 605 shown in FIG. 6A. A mask image of the NPA 605 is generated by setting pixels as pixels and other pixels as black pixels (the mask image of the NPA 605 may be a mask image generated in step S355 described later), and FIG. The pixels within the boundary of the NPA (avascular region) 606 shown in FIG. 6 are white pixels, and the other pixels are black pixels to generate a mask image of the NPA 606 (this mask image of the NPA 606 is described later in step S355). A generated mask image may be used), and an overlapping area (common area) between the mask image of NPA 605 and the mask image of NPA 606 The range), may take the form of detecting the overlap region (common region) 607. If the result of determination in step S370 is that there is an overlap area (common area) 607 shown in FIG. 6D, it is determined that overlap has occurred (S370 / YES), and the flow proceeds to step S380. On the other hand, when the overlapping area (common area) 607 shown in FIG. 6D does not exist and an independent NPA (avascular area) is specified from a different seed point, it is determined that no overlap has occurred. (S370 / NO), the process proceeds to step S390.

<ステップS380>
ステップS380に進むと、画像処理装置100は、オーバーラップが発生したNPA(無血管領域)の対処処理を行う。本実施形態では、例えば、ユーザーに対して、警告表示を提示し、ユーザーの操作入力に基づいて当該NPA(無血管領域)の編集を行う等、の対処処理を行う。その後、ステップS390に進む。
<Step S380>
In step S380, the image processing apparatus 100 performs a process for dealing with an NPA (avascular region) in which an overlap has occurred. In the present embodiment, for example, countermeasures such as presenting a warning display to the user and editing the NPA (avascular region) based on the user's operation input are performed. Thereafter, the process proceeds to step S390.

<ステップS390>
ステップS390に進むと、画像処理部140は、以上の処理によって特定されたNPA情報を記憶部120に送信し、記憶部120は、当該NPA情報を記憶して保存する。さらに、本ステップにおいて、表示制御部150は、ステップS370の判定結果に係る情報を表示装置400に表示させる処理を行う。具体的に、表示制御部150は、例えば、記憶部120に記憶されたNPA情報と画像処理部140によって取得された眼底血管画像を表示装置400に送信し、表示装置400に、眼底血管画像にNPA情報を重ねて表示させる。ここでは、表示方法として、それぞれのシード点に対するNPA(無血管領域)は、異なる色にして表示する表示態様及び異なる模様にして表示する表示態様のうちの少なくとも1つの表示態様によって、それぞれのNPAを識別可能とする形態を採りうる。なお、本発明においてはこの形態に限定されるものではなく、例えば、全てのNPAを同じ色で表示する形態も、本発明に適用可能である。さらに、表示制御部150は、表示装置400に対して、画像処理部140が特定した複数のNPA(無血管領域)のそれぞれ面積を表示させる表示態様や複数のNPAの面積を合計した合計面積を表示装置400に表示させる表示態様を採りうる。なお、本実施形態においては、複数のNPA(無血管領域)のそれぞれの面積、及び、当該それぞれの面積を合計した合計面積のうち、少なくとも1つの面積を表示する表示態様であればよい。この場合、これらの面積は、例えば計測部1463で算出される。
そして、ステップS390の処理が終了すると、図3(a)に示すフローチャートの処理が終了する。
<Step S390>
In step S390, the image processing unit 140 transmits the NPA information specified by the above processing to the storage unit 120, and the storage unit 120 stores and stores the NPA information. Further, in this step, the display control unit 150 performs a process of causing the display device 400 to display information related to the determination result in step S370. Specifically, the display control unit 150 transmits, for example, the NPA information stored in the storage unit 120 and the fundus blood vessel image acquired by the image processing unit 140 to the display device 400, and the display device 400 The NPA information is superimposed and displayed. Here, as the display method, the NPA (avascular region) for each seed point is determined by at least one of a display mode of displaying in a different color and a display mode of displaying in a different pattern. Can be adopted. The present invention is not limited to this mode, and for example, a mode in which all NPAs are displayed in the same color is also applicable to the present invention. Further, the display control unit 150 displays, on the display device 400, a display mode in which the areas of the plurality of NPAs (avascular regions) identified by the image processing unit 140 are displayed, and a total area obtained by summing the areas of the plurality of NPAs. A display mode to be displayed on the display device 400 can be adopted. In the present embodiment, any display mode may be used as long as at least one area is displayed among the respective areas of a plurality of NPAs (avascular regions) and the total area obtained by adding the respective areas. In this case, these areas are calculated by the measuring unit 1463, for example.
Then, when the processing in step S390 ends, the processing in the flowchart illustrated in FIG. 3A ends.

次に、図3(b)を用いて、図3(a)のステップS310に示す眼底血管画像(OCTA画像)の取得処理における詳細な処理手順の一例について説明する。   Next, an example of a detailed processing procedure in the processing of acquiring a fundus blood vessel image (OCTA image) shown in step S310 of FIG. 3A will be described with reference to FIG.

≪ステップS311≫
まず、図3(b)のステップS311において、画像処理装置100は、ユーザーが入力装置300を介して入力した情報に基づいて、断層画像撮影装置200に対して指示する、眼底血管画像として取得するOCTA画像の撮影条件を設定する。
具体的には、
・S311−1) 検査セットの選択もしくは登録
・S311−2) 選択した検査セットにおけるスキャンモードの選択もしくは追加
・S311−3) スキャンモードに対応する撮影パラメーター設定
の手順を行う。
本実施形態では、以下のように設定して、適宜休憩を挟みながら(同一撮像条件の)OCTA撮影を所定の回数だけ繰り返し実行する。
・S311−1) Macular Disease検査セットを登録
・S311−2) OCTAスキャンモードを選択
・S311−3) 以下の(A)〜(H)に示す撮影パラメーターを設定
(A)走査パターン:Small Square
(B)走査領域サイズ:3mm×3mm
(C)主走査方向:水平方向(X方向)
(D)走査間隔:0.01mm
(E)固視灯位置:中心窩
(F)1クラスタあたりのBスキャン数:4
(G)コヒーレンスゲート位置:硝子体側
(H)既定表示レポート種別:単検査用レポート
なお、検査セットとは、検査目的別に設定した(スキャンモードを含む)撮像手順や、各スキャンモードで取得したOCT画像やOCTA画像の既定の表示法を指す。これにより、黄斑疾患眼向けの設定がなされたOCTAスキャンモードを含む検査セットが、例えば「Macular Disease」という名前で登録される。登録された検査セットは記憶部120に記憶される。
{Step S311}
First, in step S311 in FIG. 3B, the image processing apparatus 100 acquires a fundus blood vessel image that instructs the tomographic image capturing apparatus 200 based on information input by the user via the input device 300. The photographing conditions of the OCTA image are set.
In particular,
S311-1) Selection or registration of an examination set S311-2) Selection or addition of a scan mode in the selected examination set S311-3) Procedures for setting imaging parameters corresponding to the scan mode are performed.
In the present embodiment, the following settings are made, and OCTA imaging (under the same imaging condition) is repeatedly executed a predetermined number of times while appropriately taking a break.
・ S311-1) Register a Molecular Disease inspection set ・ S311-2) Select OCTA scan mode ・ S311-3) Set the following imaging parameters (A) to (H) (A) Scan pattern: Small Square
(B) Scanning area size: 3 mm x 3 mm
(C) Main scanning direction: horizontal direction (X direction)
(D) Scan interval: 0.01 mm
(E) Fixation light position: fovea (F) Number of B scans per cluster: 4
(G) Coherence gate position: Vitreous body side (H) Default display report type: Single inspection report Note that an inspection set is an imaging procedure set for each inspection purpose (including a scan mode) and OCT acquired in each scan mode. Refers to the default display method for images and OCTA images. As a result, an examination set including the OCTA scan mode set for the macular disease eye is registered, for example, under the name “Macular Disease”. The registered test set is stored in the storage unit 120.

≪ステップS312≫
続いて、ステップS312において、ユーザーから入力装置300を介して撮影開始の指示が入力されると、画像処理装置100は、ステップS311で設定された撮影条件に従って繰り返しOCTA撮影を開始する。
{Step S312}
Subsequently, in step S312, when an instruction to start imaging is input from the user via the input device 300, the image processing apparatus 100 repeatedly starts OCTA imaging according to the imaging conditions set in step S311.

具体的に、撮影制御部130は、断層画像撮影装置200に対して、ステップS311で設定された撮影条件に基づいて繰り返しOCTA撮影を実施する制御を行う。これによって、断層画像撮影装置200は、対応するOCT断層画像を取得する。なお、本実施形態では、ステップS312におけるOCTA撮影における繰り返し撮影回数を3回とするが、これに限らず、繰り返し撮影回数を任意の回数に設定することができる。また、本実施形態においては、繰り返し撮影間の撮影時間間隔が各繰り返し撮影内の断層画像の撮影時間間隔よりも長い場合に限定されるものではなく、両者が略同一である場合も、本実施形態に含まれる。   Specifically, the imaging control unit 130 controls the tomographic imaging apparatus 200 to repeatedly perform OCTA imaging based on the imaging conditions set in step S311. Thus, the tomographic imaging apparatus 200 acquires a corresponding OCT tomographic image. In the present embodiment, the number of times of repeated imaging in OCTA imaging in step S312 is set to three, but the number of times of repeated imaging is not limited to this and can be set to an arbitrary number. Further, in the present embodiment, the present invention is not limited to the case where the photographing time interval between repetitive photographing is longer than the photographing time interval of tomographic images in each repetitive photographing. Included in the form.

また、このステップS312において、断層画像撮影装置200は、SLO画像の取得も行い、SLO動画像に基づく追尾処理を実行する。そして、本実施形態において、繰り返しOCTA撮影における追尾処理に用いる基準SLO画像は、1回目の繰り返しOCTA撮影において設定した基準SLO画像とし、全ての繰り返しOCTA撮影において共通の基準SLO画像を用いる。また、繰り返しOCTA撮影中は、ステップS311で設定した撮影条件に加えて、左右眼の選択、及び、追尾処理の実行有無についても、同じ設定値を用いる(変更しない)ものとする。   In step S312, the tomographic image capturing apparatus 200 also acquires an SLO image, and executes a tracking process based on the SLO moving image. In the present embodiment, the reference SLO image used in the tracking processing in the repeated OCTA imaging is the reference SLO image set in the first repeated OCTA imaging, and a common reference SLO image is used in all the repeated OCTA imagings. During repeated OCTA imaging, the same setting values are used (not changed) for the selection of the left and right eyes and the execution of tracking processing in addition to the imaging conditions set in step S311.

≪ステップS313≫
続いて、ステップS313において、画像取得部110及び画像処理部140は、ステップS312において断層画像撮影装置200で取得された情報に基づいて、OCT断層画像とモーションコントラスト画像を生成する。
{Step S313}
Subsequently, in step S313, the image acquiring unit 110 and the image processing unit 140 generate an OCT tomographic image and a motion contrast image based on the information acquired by the tomographic image capturing apparatus 200 in step S312.

具体的に、まず、断層画像生成部111は、断層画像撮影装置200から取得した干渉信号に対して、波数変換及び高速フーリエ変換(FFT)、絶対値変換(振幅の取得)を行って、1クラスタ分の断層画像を生成する。   Specifically, first, the tomographic image generation unit 111 performs wave number conversion, fast Fourier transform (FFT), and absolute value conversion (acquisition of amplitude) on the interference signal acquired from the tomographic image capturing apparatus 200, and A tomographic image for the cluster is generated.

次いで、位置合わせ部141は、断層画像生成部111で生成された同一クラスタに属する断層画像同士を位置合わせし、重ねあわせ処理を行う。次いで、画像特徴取得部144は、位置合わせ部141によって重ね合わされた断層画像から層境界データを取得する。ここで、本実施形態では、層境界の取得法として可変形状モデルを用いるが、任意の公知の層境界取得手法を用いてもよい。なお、本実施形態においては、層境界の取得処理は必須ではなく、例えば、モーションコントラスト画像の生成を3次元のみで行い、深度方向に投影した2次元のモーションコントラスト画像を生成しない場合には、層境界の取得処理は省略できる。   Next, the positioning unit 141 performs positioning of the tomographic images belonging to the same cluster generated by the tomographic image generating unit 111, and performs a superposition process. Next, the image feature acquiring unit 144 acquires layer boundary data from the tomographic images superimposed by the positioning unit 141. Here, in the present embodiment, a variable shape model is used as a method of obtaining a layer boundary, but any known layer boundary obtaining method may be used. In the present embodiment, the acquisition process of the layer boundary is not essential. For example, when the generation of the motion contrast image is performed only in three dimensions and the two-dimensional motion contrast image projected in the depth direction is not generated, The process of acquiring a layer boundary can be omitted.

次いで、モーションコントラストデータ生成部112は、同一クラスタ内の隣接する断層画像間でモーションコントラストを算出する。本実施形態では、モーションコントラストとして、脱相関値Mxyを以下の式(1)に基づき求める。
この(1)式において、Axyは、断層画像データAの位置(x,y)における(FFT処理後の複素数データの)振幅を示し、Bxyは、断層データBの同一位置(x,y)における振幅を示している。また、(1)式において、0≦Mxy≦1であり、両振幅値の差異が大きいほど1に近い値をとる。(1)式に示す脱相関演算処理を(同一クラスタに属する)任意の隣接する断層画像間で行い、得られた(1クラスタあたりの断層画像数−1)個のモーションコントラスト値の平均を画素値として持つ画像を、最終的なモーションコントラスト画像として生成する。
なお、ここでは、FFT処理後の複素数データの振幅に基づいてモーションコントラストを計算したが、モーションコントラストの計算法はこれに限定されるものではない。例えば、複素数データの位相情報に基づいてモーションコントラストを計算してもよいし、振幅と位相の両方の情報に基づいてモーションコントラストを計算してもよい。また、例えば、複素数データの実部や虚部に基づいてモーションコントラストを計算してもよい。また、本実施形態では、モーションコントラストとして脱相関値を計算したが、モーションコントラストの計算法はこれに限定されるものではない。例えば、2つの値の差分に基づいてモーションコントラストを計算してもよいし、2つの値の比に基づいてモーションコントラストを計算してもよい。さらに、本実施形態では、取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラスト画像を得ているが、本発明はこの形態に限定されるものではない。例えば、取得された複数の脱相関値の中央値、あるいは最大値を画素値として持つ画像を最終的なモーションコントラスト画像として生成してもよい。
Next, the motion contrast data generation unit 112 calculates a motion contrast between adjacent tomographic images in the same cluster. In the present embodiment, the decorrelation value Mxy is obtained as the motion contrast based on the following equation (1).
In the equation (1), Axy indicates the amplitude (of the complex number data after the FFT processing) at the position (x, y) of the tomographic image data A, and Bxy indicates the amplitude at the same position (x, y) of the tomographic data B. The amplitude is shown. Further, in the equation (1), 0 ≦ Mxy ≦ 1, and the value becomes closer to 1 as the difference between the two amplitude values increases. The decorrelation calculation processing shown in equation (1) is performed between arbitrary adjacent tomographic images (belonging to the same cluster), and the average of the obtained (number of tomographic images per cluster minus one) motion contrast values is calculated as a pixel. An image having a value is generated as a final motion contrast image.
Here, although the motion contrast is calculated based on the amplitude of the complex number data after the FFT processing, the calculation method of the motion contrast is not limited to this. For example, the motion contrast may be calculated based on the phase information of the complex data, or the motion contrast may be calculated based on both the amplitude and the phase information. Further, for example, the motion contrast may be calculated based on the real part or the imaginary part of the complex data. In the present embodiment, the decorrelation value is calculated as the motion contrast, but the method of calculating the motion contrast is not limited to this. For example, the motion contrast may be calculated based on a difference between two values, or the motion contrast may be calculated based on a ratio of the two values. Further, in the present embodiment, the final motion contrast image is obtained by calculating the average value of the plurality of acquired decorrelation values, but the present invention is not limited to this embodiment. For example, an image having the pixel value of the median value or the maximum value of the acquired plurality of decorrelation values may be generated as the final motion contrast image.

≪ステップS314≫
続いて、ステップS314において、画像処理部140は、繰り返しOCTA撮影を通して得られたモーションコントラスト画像群を3次元的に位置合わせし、加算平均することで合成した高コントラストなモーションコントラスト画像を生成する。具体的に、モーションコントラスト画像の生成は、合成部142による合成処理によって行われる。この際、合成部142による合成処理は、単純加算平均に限定されるものではない。例えば、合成処理は、各モーションコントラスト画像の輝度値に対して任意の重みづけをした上で平均した値としてもよいし、中央値をはじめとする任意の統計値としてもよい。また、位置合わせ部141による上述した位置合わせ処理を2次元的に行う場合も、本発明に含まれる。なお、合成部142が合成処理に不適なモーションコントラスト画像が含まれているか否かを判定した上で、不適と判定したモーションコントラスト画像を除いて合成処理を行うように構成してもよい。例えば、各モーションコントラスト画像に対して評価値(例えば脱相関値の平均値や、fSNR)が所定の範囲外である場合に、合成処理に不適と判定すればよい。
{Step S314}
Subsequently, in step S314, the image processing unit 140 generates a high-contrast motion contrast image synthesized by performing three-dimensional positioning of the group of motion contrast images obtained through repeated OCTA imaging and performing averaging. Specifically, the generation of the motion contrast image is performed by a combining process by the combining unit 142. At this time, the combining process by the combining unit 142 is not limited to the simple averaging. For example, in the synthesizing process, a luminance value of each motion contrast image may be arbitrarily weighted and averaged, or may be an average value such as a median value. The present invention also includes a case where the above-described positioning process performed by the positioning unit 141 is performed two-dimensionally. The combining unit 142 may determine whether or not a motion contrast image inappropriate for the combining process is included, and then perform the combining process excluding the motion contrast image determined to be inappropriate. For example, if the evaluation value (for example, the average value of the decorrelation values or fSNR) of each motion contrast image is out of a predetermined range, it may be determined that the motion contrast image is not suitable for the combination processing.

本実施形態では、合成部142がモーションコントラスト画像を3次元的に合成した後、補正部143が当該モーションコントラスト画像内に生じるプロジェクションアーチファクトを3次元的に抑制する処理を行う。ここで、プロジェクションアーチファクトは、網膜表層血管内のモーションコントラストが深層側(網膜深層や網膜外層・脈絡膜)に映り込み、実際には血管の存在しない深層側の領域に高い脱相関値が生じる現象を指す。補正部143は、3次元のモーションコントラスト画像上に生じたプロジェクションアーチファクトを抑制する処理を実行する。ここでは、任意の公知のプロジェクションアーチファクト抑制手法を用いてもよいが、本実施形態では、「Step−down Exponential Filtering」を用いる。この「Step−down Exponential Filtering」では、3次元モーションコントラスト画像上の各Aスキャンデータに対して、以下の(2)式で表される処理を実行することにより、プロジェクションアーチファクトを抑制する。
この(2)式において、γは、負の値を持つ減衰係数を示し、D(x,y,z)は、プロジェクションアーチファクト抑制処理前の脱相関値を示し、DE(x,y,z)は、当該抑制処理後の脱相関値を示す。
In the present embodiment, after the synthesis unit 142 synthesizes the motion contrast image three-dimensionally, the correction unit 143 performs a process of three-dimensionally suppressing projection artifacts occurring in the motion contrast image. Here, the projection artifact is a phenomenon in which the motion contrast in the superficial blood vessels of the retina is reflected on the deep side (the deep retina, the outer retina and the choroid), and a high decorrelation value is generated in the deep area where no blood vessels actually exist. Point. The correction unit 143 performs a process of suppressing projection artifacts generated on the three-dimensional motion contrast image. Here, any known projection artifact suppression technique may be used, but in the present embodiment, “Step-down Exponential Filtering” is used. In this “Step-down Exponential Filtering”, projection artifacts are suppressed by executing a process represented by the following expression (2) on each A-scan data on a three-dimensional motion contrast image.
In the equation (2), γ indicates a damping coefficient having a negative value, D (x, y, z) indicates a decorrelation value before the projection artifact suppression processing, and D E (x, y, z) ) Indicates the decorrelation value after the suppression processing.

次いで、投影部145は、ステップS313において画像特徴取得部144が取得した層境界の位置に基づく深度範囲でモーションコントラスト画像を投影し、正面モーションコントラスト画像を生成する。ここでは、任意の深度範囲で投影してもよいが、本実施形態では、網膜表層及び網膜深層の深度範囲で2種類の正面モーションコントラスト画像を生成する。また、投影法としては、最大値投影(Maximum Intensity Projection:MIP)、平均値投影(Average Intensity Projection:AIP)のいずれかを選択でき、本実施形態では、最大値投影で投影するものとする。   Next, the projection unit 145 projects a motion contrast image in a depth range based on the position of the layer boundary acquired by the image feature acquisition unit 144 in step S313, and generates a front motion contrast image. Here, projection may be performed in an arbitrary depth range. In the present embodiment, two types of front motion contrast images are generated in the depth range of the retinal surface layer and the retinal deep layer. In addition, as the projection method, any one of a maximum intensity projection (MIP) and an average intensity projection (AIP) can be selected. In the present embodiment, the projection is performed by the maximum intensity projection.

≪ステップS315≫
続いて、ステップS315において、画像処理装置100は、取得した画像群(SLO画像や断層画像)と当該画像群の撮影条件データ、及び、生成した3次元及び正面モーションコントラスト画像と付随する生成条件データを、検査日時や披検眼Eを同定する情報と関連付けて記憶部120に保存する。
{Step S315}
Subsequently, in step S315, the image processing apparatus 100 acquires the acquired image group (SLO image or tomographic image), the imaging condition data of the image group, and the generated three-dimensional and frontal motion contrast image and the accompanying generation condition data. Is stored in the storage unit 120 in association with the examination date and time and information for identifying the eye E.

本実施形態では、以上のステップS311〜S315の処理を実施することによって、図3(a)に示すステップS310の処理が実行される。   In the present embodiment, the processing of step S310 shown in FIG. 3A is executed by performing the processing of steps S311 to S315 described above.

次に、図3(c)を用いて、図3(a)のステップS350に示すNPA(無血管領域)の特定処理における詳細な処理手順の一例について説明する。   Next, an example of a detailed processing procedure in the process of specifying an NPA (avascular region) shown in step S350 of FIG. 3A will be described with reference to FIG.

本実施形態では、直交座標の眼底血管画像から極座標の眼底血管画像への変換に基づき、極座標で表現されている眼底血管画像でNPA内のシード点を起点として最初のエッジ(端)を見つけることによってNPAの境界線や領域を特定する方法例を示す。   In the present embodiment, the first edge (end) is found from the seed point in the NPA as the starting point in the fundus blood vessel image represented by the polar coordinates based on the conversion from the rectangular coordinate fundus blood vessel image to the polar coordinate fundus blood vessel image. An example of a method of specifying a boundary line or an area of NPA by using the following will be described.

≪ステップS351≫
まず、図3(c)のステップS351において、解析部146の座標変換部1464は、ステップS340で選択された領域Jのシード点を極にして、その極に基づいて、直交座標の眼底血管画像であるOCTA画像から極座標のOCTA画像への変換を行う。極座標で「loss−less image」を生成する角度ステップは、以下の(3)式のように、コサイン法によって算出することができる。
この(3)式に示す角度ステップδθの値は、OCTA画像のサイズSとピクセル寸法pに依存する。また、(3)式において、acosは、arccosine関数であり、サイズSは、OCTA画像の中心からその最も遠い点へのmm単位の距離である。例えば、3mm×3mmのOCTA画像の解像度が232ピクセル×232ピクセルの場合には、S=0.5・√2・3mm ≒ 2.1mmとp=13μmであり、角度ステップδθは、約0.35度になる。そして、サンプル角度θ(i)は、θ(i)=δθ×iにする。ここでは、iは、サンプルのインデックスである。最初のサンプル角度、θ(0)=0度である。図5(c)は、このステップS351の処理結果を示す図である。ここでは、座標変換として直交座標から極座標変換を例として説明したが、本実施形態では、この変換方法に限定されるわけではなく、その他方法、例えば非直交座標(例えば球状であるか円筒形のコーディネート)への転換であってもよい。さらに、本実施形態では、座標変換を行って複数のNPA(無血管領域)を特定する例を説明するが、本発明においてはこの形態に限定されるものではなく、複数のNPA(無血管領域)が特定できれば当該座標変換を行うことは必須ではない。
{Step S351}
First, in step S351 of FIG. 3C, the coordinate conversion unit 1464 of the analysis unit 146 sets the seed point of the region J selected in step S340 as a pole, and based on the pole, the fundus blood vessel image in rectangular coordinates. From the OCTA image is converted to an OCTA image in polar coordinates. The angle step for generating “loss-less image” in polar coordinates can be calculated by the cosine method as in the following equation (3).
The value of the angle step δθ shown in the equation (3) depends on the size S and the pixel size p of the OCTA image. In Expression (3), acos is an arccosine function, and size S is a distance in mm from the center of the OCTA image to the farthest point. For example, when the resolution of a 3 mm × 3 mm OCTA image is 232 pixels × 232 pixels, S = 0.5 · {2.3 mm} 2.1 mm and p = 13 μm, and the angle step δθ is about 0. 35 degrees. Then, the sample angle θ (i) is set to θ (i) = δθ × i. Here, i is the index of the sample. The first sample angle, θ (0) = 0 degrees. FIG. 5C is a diagram showing the processing result of step S351. Here, as an example of the coordinate transformation, a rectangular coordinate to a polar coordinate transformation has been described. However, in the present embodiment, the present invention is not limited to this transformation method. For example, non-orthogonal coordinates (for example, spherical or cylindrical coordinates) may be used. (Coordination). Further, in the present embodiment, an example in which a plurality of NPAs (avascular region) are specified by performing coordinate conversion will be described. However, the present invention is not limited to this embodiment. ) Can be specified, it is not essential to perform the coordinate conversion.

≪ステップS352≫
続いて、ステップS352において、解析部146の抽出部1462は、ステップS351で生成された極座標のOCTA画像から、NPA(無血管領域)の境界線の抽出を行う。ここでは、極(極座標のOCTA画像の1番下の端)を起点として、最初に見つかったエッジをNPAの境界線候補とする。
図7は、第1の実施形態を示し、図3(a)のステップS350の処理を説明するための図である。具体的に、図3(c)のステップS352において、最初に見つかったエッジは、図7で点線によって表されている。
{Step S352}
Subsequently, in step S352, the extraction unit 1462 of the analysis unit 146 extracts the boundary line of the NPA (avascular region) from the polar coordinate OCTA image generated in step S351. Here, starting from the polar point (the bottom end of the OCTA image in polar coordinates), the first edge found is set as an NPA boundary line candidate.
FIG. 7 illustrates the first embodiment, and is a diagram for explaining the process of step S350 in FIG. 3A. Specifically, the edge found first in step S352 of FIG. 3C is represented by a dotted line in FIG.

≪ステップS353≫
続いて、ステップS353において、解析部146の抽出部1462は、ステップS352で抽出されたNPA境界線候補の平滑化処理を行う。ここでの平滑化処理では、10度の「window size」の「moving median filter(移動メディアンフィルタ)」を用いる。この平滑化処理の目的は、ステップS352で抽出された境界線候補のspike(スパイク,特異点)を削除することである。これらのスパイクは、血管構造の不連続性から発生され、NPA境界線としてふさわしくないとされる。図7の実線は、ステップS353による平滑化処理後のNPA境界線を示す。なお、ここでは、平滑化処理として「moving median filter」を用いる例を説明したが、この方法に限らず、例えば、移動平均法、Savitzky−Golayフィルタ、フーリエ変換法に基づくフィルタ等を用いた平滑化処理でもよい。
{Step S353}
Subsequently, in step S353, the extraction unit 1462 of the analysis unit 146 performs a smoothing process on the NPA boundary line candidate extracted in step S352. In the smoothing process here, a “moving median filter” (moving median filter) of “window size” of 10 degrees is used. The purpose of this smoothing process is to delete the spike (spike, singularity) of the boundary line candidate extracted in step S352. These spikes originate from discontinuities in the vasculature and are not suitable as NPA boundaries. The solid line in FIG. 7 indicates the NPA boundary line after the smoothing process in step S353. Here, an example in which “moving median filter” is used as the smoothing process has been described. However, the present invention is not limited to this method. For example, smoothing using a moving average method, a Savitzky-Golay filter, a filter based on a Fourier transform method, or the like. May be used.

≪ステップS354≫
続いて、ステップS354において、解析部146の座標変換部1464は、ステップS353で抽出された極座標のNPA境界線の画像を、直交座標へ変換する。
{Step S354}
Subsequently, in step S354, the coordinate conversion unit 1464 of the analysis unit 146 converts the image of the NPA boundary line of the polar coordinates extracted in step S353 into rectangular coordinates.

≪ステップS355≫
続いて、ステップS355において、解析部146の計測部1463は、NPA(無血管領域)のマスク画像を生成する。具体的に、計測部1463は、ステップS354で生成された直交座標のNPA境界線の画像を用いて、NPA境界線内のピクセルを白ピクセルにし、それ以外のピクセルを黒ピクセルにして、NPAのマスク画像を生成する。
図8は、第1の実施形態を示し、図3(c)のステップS355の処理で得られたNPA(無血管領域)のマスク画像の一例を示す図である。この図8において、白い領域がNPAのマスク画像の領域である。
{Step S355}
Subsequently, in step S355, the measurement unit 1463 of the analysis unit 146 generates a mask image of NPA (avascular region). Specifically, the measurement unit 1463 uses the image of the NPA boundary line of the rectangular coordinates generated in step S354 to set pixels within the NPA boundary line to white pixels, and to set other pixels to black pixels, and Generate a mask image.
FIG. 8 illustrates the first embodiment, and is a diagram illustrating an example of an NPA (avascular region) mask image obtained in the process of step S355 in FIG. 3C. In FIG. 8, the white area is the area of the NPA mask image.

本実施形態では、以上のステップS351〜S355の処理を実施することによって、図3(a)に示すステップS350の処理が実行される。   In the present embodiment, the processing of step S350 illustrated in FIG. 3A is performed by performing the processing of steps S351 to S355 described above.

次に、図3(d)を用いて、図3(a)のステップS380に示すオーバーラップ対処処理における詳細な処理手順の一例について説明する。   Next, an example of a detailed processing procedure in the overlap countermeasure processing shown in step S380 of FIG. 3A will be described with reference to FIG.

図9は、第1の実施形態を示し、図3(a)のステップS380の処理を説明するための図である。以下、この図9を参照しながら、図3(d)に示すフローチャートの説明を行う。   FIG. 9 illustrates the first embodiment, and is a diagram for explaining the process of step S380 in FIG. 3A. Hereinafter, the flowchart shown in FIG. 3D will be described with reference to FIG.

≪ステップS381≫
まず、図3(d)のステップS381において、表示制御部150は、眼底血管画像とオーバーラップ(領域の重複)が発生しているNPA(無血管領域)を表示装置400に表示させる。この際、ユーザーに注目させるために、表示制御部150は、例えば、オーバーラップが発生しているNPAの表示色を、周辺領域の色と異なる色にして、識別が容易に表示する制御を行う。ただし、本実施形態においては、この態様に限定されるものではなく、ユーザーに注目させるために他の表示方法、例えば、オーバーラップが発生しているNPAの領域全体を点滅表示させる表示態様や、そのNPAの輪郭を点滅表示させる表示態様も、適用可能である。
{Step S381}
First, in step S381 of FIG. 3D, the display control unit 150 causes the display device 400 to display an NPA (avascular region) in which the fundus blood vessel image overlaps (region overlap) occurs. At this time, in order to draw the user's attention, the display control unit 150 performs control to make the display color of the overlapped NPA different from the color of the peripheral region, for example, and to easily display the NPA. . However, in the present embodiment, the present invention is not limited to this mode, and other display methods for causing the user to pay attention, for example, a display mode in which the entire area of the NPA where the overlap occurs is displayed in a blinking manner, A display mode in which the outline of the NPA blinks is also applicable.

≪ステップS382≫
続いて、ステップS382において、表示制御部150は、NPA(無血管領域)同士のオーバーラップ(重複)が発生したことをユーザーに報知するための警告表示を、表示装置400に表示させる。
{Step S382}
Subsequently, in step S382, the display control unit 150 causes the display device 400 to display a warning display for notifying the user that overlap (overlap) between NPAs (avascular regions) has occurred.

図9(a)は、ステップS382の処理によって表示装置400に表示される警告表示画面901の一例を示す図である。図9(a)に示す警告表示画面901には、警告表示を非表示にするクローズボタン902と、手動編集ボタン903と、自動対処ボタン904と、無視ボタン905とが設けられている。そして、入力装置300は、ユーザーが選択したボタン(902〜905)の情報を画像処理装置100に入力する。そして、本実施形態では、画像処理装置100は、入力装置300を介して入力された、ユーザーが選択したボタン(902〜905)の情報に基づいて、警告表示の終了や、ステップS383以降の処理を行う。ただし、本実施形態では、この方法に限定されるものではなく、例えば、それぞれのボタンにキーボードのキーが対応していて、キーが押されたと検知されたときに選択されたボタンが特定される等の方法を用いてもよい。また、ステップS382における警告表示は、図9(a)に示す警告表示画面901による警告表示に限定されるものではなく、例えば、その他レイアウトや追加ボタンがあってもよい。   FIG. 9A is a diagram illustrating an example of the warning display screen 901 displayed on the display device 400 by the process of step S382. The warning display screen 901 shown in FIG. 9A includes a close button 902 for hiding the warning display, a manual edit button 903, an automatic response button 904, and an ignore button 905. Then, the input device 300 inputs information of the button (902 to 905) selected by the user to the image processing device 100. Then, in the present embodiment, the image processing apparatus 100 terminates the warning display based on the information of the button (902 to 905) selected by the user input through the input device 300, and performs the processing after step S 383. I do. However, the present embodiment is not limited to this method. For example, a key of a keyboard corresponds to each button, and a button selected when a key is detected to be pressed is specified. Etc. may be used. Further, the warning display in step S382 is not limited to the warning display on the warning display screen 901 shown in FIG. 9A, and may include, for example, other layouts and additional buttons.

≪ステップS383≫
続いて、ステップS383において、表示制御部150は、ステップS382で表示させた警告表示画面901に対してユーザーが手動編集ボタン903を選択したか否かを判定する。この判定の結果、ユーザーが手動編集ボタン903を選択した場合には(S383/YES)、ステップS384に進む。一方、ステップS383の判定の結果、ユーザーが手動編集ボタン903を選択していない場合には(S383/NO)、ステップS385に進む。
{Step S383}
Subsequently, in step S383, the display control unit 150 determines whether or not the user has selected the manual edit button 903 on the warning display screen 901 displayed in step S382. If the result of this determination is that the user has selected the manual edit button 903 (S383 / YES), the flow proceeds to step S384. On the other hand, if the result of determination in step S383 is that the user has not selected the manual edit button 903 (S383 / NO), the flow proceeds to step S385.

≪ステップS384≫
ステップS384に進むと、表示制御部150は、入力装置300を介してユーザーが入力した情報に基づいて、NPA(無血管領域)の編集処理を行う。
{Step S384}
In step S384, the display control unit 150 performs an NPA (avascular region) editing process based on information input by the user via the input device 300.

図9(b)〜図9(d)を用いて、ステップS384の処理例を説明する。
ステップS384に進むと、表示制御部150は、図9(b)に示すように、オーバーラップ(重複)が発生したNPA同士の領域906と編集ツール907を、表示装置400に表示させる。編集ツール907は、ユーザーが入力装置300を介して移動等の操作が可能となっている。ここでは、ユーザーが入力装置300のマウスを用いて編集ツール907の操作入力を行うものとするが、本実施形態においてはこの方法に限定されるものではない。表示制御部150は、ユーザーが入力装置300のマウスを用いて行った操作入力に基づいて、編集ツール907を領域906上で移動させる。また、表示制御部150は、例えば、ユーザーが入力装置300のマウスを用いて行ったクリック操作やドラッグ操作に基づいて、図9(c)に示すように、NPAの境界線908を提示する。また、表示制御部150は、例えば、この境界線908以外に、ユーザーが入力装置300を介して行った操作入力に基づいて、編集ツール907によってNPAの輪郭の提示や修正を行う。図9(d)は、ステップS384による手動編集の処理結果を示す図である。図9(d)に示すように、オーバーラップ(重複)が発生したNPA同士の領域906は、境界線908の設定によって、2つのNPA909及びNPA910に分割されている。この図9(d)に示す例では、2つのNPA909及びNPA910を、斜め線の向きを変えるハッチング表示で識別しているが、本実施形態においては、この例に限定されるものではなく、例えば、異なる色や異なる模様で識別するようにしてもよい。そして、この図9(b)〜図9(d)を用いて説明したステップS384の処理例では、表示制御部150は、ユーザーからの指示に応じて、オーバーラップ(重複)が生じている無血管領域同士を切り離すか否かを決定している。
ステップS384の処理が終了すると、ステップS387に進む。
A processing example of step S384 will be described with reference to FIGS. 9B to 9D.
In step S384, the display control unit 150 causes the display device 400 to display the area 906 of the NPAs where the overlap (overlap) has occurred and the editing tool 907, as shown in FIG. 9B. The editing tool 907 allows the user to perform operations such as movement via the input device 300. Here, it is assumed that the user performs an operation input of the editing tool 907 using the mouse of the input device 300, but the present embodiment is not limited to this method. The display control unit 150 moves the editing tool 907 on the area 906 based on an operation input performed by the user using the mouse of the input device 300. Further, the display control unit 150 presents an NPA boundary line 908 based on, for example, a click operation or a drag operation performed by the user using the mouse of the input device 300, as illustrated in FIG. 9C. In addition, the display control unit 150 presents and corrects the outline of the NPA using the editing tool 907 based on, for example, an operation input performed by the user via the input device 300, in addition to the boundary line 908. FIG. 9D is a diagram showing the processing result of the manual editing in step S384. As shown in FIG. 9D, the area 906 between the NPAs where the overlap (overlap) has occurred is divided into two NPAs 909 and 910 by setting the boundary line 908. In the example shown in FIG. 9D, the two NPAs 909 and 910 are identified by hatching that changes the direction of an oblique line. However, the present embodiment is not limited to this example. Alternatively, the identification may be performed using different colors or different patterns. Then, in the processing example of step S384 described with reference to FIGS. 9B to 9D, the display control unit 150 determines that no overlap has occurred in response to an instruction from the user. It is determined whether or not to separate the blood vessel regions.
When the process in step S384 ends, the process proceeds to step S387.

≪ステップS385≫
ステップS385に進むと、表示制御部150は、ステップS382で表示させた警告表示画面901に対してユーザーが自動対処ボタン904を選択したか否かを判定する。この判定の結果、ユーザーが自動対処ボタン904を選択した場合には(S385/YES)、ステップS386に進む。一方、ステップS385の判定の結果、ユーザーが自動対処ボタン904を選択していない場合(S385/NO)、例えば無視ボタン905やクローズボタン902が選択された場合には、ステップS387に進む。
{Step S385}
In step S385, the display control unit 150 determines whether the user has selected the automatic response button 904 on the warning display screen 901 displayed in step S382. If the result of this determination is that the user has selected the automatic response button 904 (S385 / YES), the flow proceeds to step S386. On the other hand, if the result of determination in step S385 is that the user has not selected the automatic action button 904 (S385 / NO), for example, if the ignore button 905 or the close button 902 has been selected, the flow proceeds to step S387.

≪ステップS386≫
ステップS386において、解析部146は、オーバーラップ(重複)が発生したNPA同士の領域に対して自動対処処理を行う。
{Step S386}
In step S386, the analysis unit 146 performs an automatic handling process on the area between the NPAs where the overlap (overlap) has occurred.

図10を用いて、ステップS386の処理例を説明する。
図10は、第1の実施形態を示し、図3(d)のステップS386の処理を説明するための図である。ここで、図10(a)は、オーバーラップ(重複)が発生したNPA同士の領域を黒色領域として示している。
ステップS386−Aにおいて、解析部146は、図10(a)に示すオーバーラップ(重複)が発生したNPA同士の領域に対して、ガウシアンフィルターなどのローパスフィルターを用いて、ぼかし処理を行う。図10(b)は、このステップS386−Aの処理結果の一例を示す。ここでは、標準偏差5ピクセルを用いるが、例えば、NPA画像の25分の1サイズの標準偏差を用いてもよい。
次いで、ステップS386−Bにおいて、解析部146は、例えばステップS386−Aにおけるガウシアンフィルターの結果画像の画素値に対して、等高線を算出する処理を行う。図10(c)は、このステップS386−Bの処理結果の一例を示す。
次いで、ステップS386−Cにおいて、解析部146は、シード点の数に基づいて、分割する領域の数を決定する。そして、解析部146は、ステップS386−Bで得られた高等線のピークを結ぶ尾根線に沿って、画素値が最低値になった位置を領域の分割点にして、その分割点を通る谷線をNPA領域の境界線に設定する。図10(d)は、ステップS386−Cの処理結果の一例を示す。具体的に、図10(d)では、表示制御部150によって、設定した境界線を提示するとともに、当該境界線によって画定された異なる2つのNPAを、斜め線の向きを変えるハッチング表示(異なる傾きの縞模様の表示)で識別表示している。なお、ステップS386Cにおいて、解析部146は、分割する領域の数をシード点に基づき決定したが、この方法に限定されるものではなく、例えば、ステップS386−Bで得られた高等線のピーク箇所に対して、分割する領域の数を決定する方法や、その他の方法を用いてもよい。
ステップS386の処理が終わると、ステップS387に進む。
A processing example of step S386 will be described with reference to FIG.
FIG. 10 is a diagram illustrating the first embodiment and illustrating the process of step S386 in FIG. 3D. Here, FIG. 10A illustrates a region between NPAs where overlap (overlap) has occurred as a black region.
In step S386-A, the analysis unit 146 performs a blurring process using a low-pass filter such as a Gaussian filter on the area between the NPAs where the overlap (overlap) illustrated in FIG. FIG. 10B shows an example of the processing result of step S386-A. Here, a standard deviation of 5 pixels is used, but for example, a standard deviation of 1 / 25th of the NPA image may be used.
Next, in step S386-B, the analysis unit 146 performs a process of calculating contour lines, for example, for the pixel values of the Gaussian filter result image in step S386-A. FIG. 10C shows an example of the processing result of step S386-B.
Next, in step S386-C, the analysis unit 146 determines the number of regions to be divided based on the number of seed points. Then, the analysis unit 146 sets a position where the pixel value becomes the lowest along the ridge line connecting the peaks of the contour lines obtained in step S386-B as a division point of the region, and sets a valley passing through the division point. Set the line as the boundary of the NPA region. FIG. 10D shows an example of the processing result of step S386-C. Specifically, in FIG. 10D, the display control unit 150 presents the set boundary line, and displays two different NPAs defined by the boundary line by hatching display (different inclination) in which the direction of the oblique line is changed. (Display of a striped pattern). In step S386C, the analysis unit 146 determines the number of regions to be divided based on the seed points. However, the present invention is not limited to this method. For example, the peak position of the high contour obtained in step S386-B may be determined. However, a method of determining the number of regions to be divided or another method may be used.
When the process in step S386 ends, the process proceeds to step S387.

≪ステップS387≫
ステップS387において、画像処理装置100は、オーバーラップ(重複)が発生している全てのNPA同士の領域に対する対処処理が終了したか否かの判定を行う。この判定の結果、オーバーラップ(重複)が発生している全てのNPA同士の領域については未だ対処処理が終了しておらず、次の領域がある場合には(S387/YES)、ステップS381に戻り、ステップS381以降の処理を行う。一方、ステップS387の判定の結果、オーバーラップ(重複)が発生している全てのNPA同士の領域に対する対処処理が終了した場合には(S387/NO)、図3(d)のフローチャートの処理が終了する。
{Step S387}
In step S387, the image processing apparatus 100 determines whether or not the coping process has been completed for the area of all the NPAs where the overlap (duplication) has occurred. As a result of this determination, the coping process has not yet been completed for all the NPA areas where overlap (duplication) has occurred, and if there is a next area (S387 / YES), the process proceeds to step S381. Then, the process returns to step S381. On the other hand, as a result of the determination in step S387, if the coping process for all the NPA regions in which overlap (duplication) has occurred has been completed (S387 / NO), the process of the flowchart in FIG. finish.

本実施形態では、以上のステップS381〜S387の処理を実施することによって、図3(a)に示すステップS380の処理が実行される。   In the present embodiment, the processing of step S380 shown in FIG. 3A is executed by performing the processing of steps S381 to S387 described above.

次に、様々な変形例について説明する。   Next, various modifications will be described.

(変形例1)
上述した実施形態では、図3(c)のステップS352において、NPA(無血管領域)の境界線の抽出処理を行う例を説明したが、本発明においては、これに限定されるものではない。
(Modification 1)
In the above-described embodiment, an example in which the boundary line of the NPA (avascular region) is extracted in step S352 of FIG. 3C has been described. However, the present invention is not limited to this.

図11は、変形例1を説明するための図である。
具体的に、図11(a)は、眼底血管画像(OCTA画像)にノイズがある場合の例を示している。この図11(a)に示す例のように、極10がノイズ20(2ピクセルノイズ)に割り当てられた場合、極座標に変換した後に、ノイズ20は、図11(b)に示すように、極座標の眼底血管画像(OCTA画像)のRadius=0に相当する。そして、最初のエッジはR=0になるので、この場合、正しいNPAの境界線を抽出することができない。この問題を避けるため、変形例1では、ステップS352での処理として、ピクセルが非信号ピクセル(ピクセル値がゼロに等しい)か否を確認し、次の処理を行う。具体的に、最初のエッジを探索する際に、Radius=0は、信号ピクセル(ピクセルに信号がある)である場合に、非信号ピクセルを見つかるまで順次にRadius値をインクリメントする。そして、非信号ピクセルが見つかった後に、さらに信号ピクセルが見つかるまで順次にRadius値をインクリメントし、最初の信号ピクセルが見つかったらそれをNPAの境界線に設定する。また、その他の処理方法として、例えば、極を設定する際に、そのピクセルに信号がある場合、周辺の非信号ピクセルを探索し、非信号ピクセルを極として利用する等の方法を用いてもよい。
FIG. 11 is a diagram for explaining the first modification.
Specifically, FIG. 11A shows an example in which a fundus blood vessel image (OCTA image) has noise. When the pole 10 is assigned to the noise 20 (two-pixel noise) as in the example shown in FIG. 11A, the noise 20 is converted into the polar coordinate and then converted to the polar coordinate as shown in FIG. Radius = 0 in the fundus blood vessel image (OCTA image). Since the first edge has R = 0, a correct NPA boundary cannot be extracted in this case. In order to avoid this problem, in the first modification, as the process in step S352, it is determined whether or not the pixel is a non-signal pixel (the pixel value is equal to zero), and the following process is performed. Specifically, when searching for the first edge, if Radius = 0 is a signal pixel (a pixel has a signal), the Radius value is sequentially incremented until a non-signal pixel is found. Then, after the non-signal pixel is found, the Radius value is sequentially incremented until a further signal pixel is found, and when the first signal pixel is found, it is set as the NPA boundary. Further, as another processing method, for example, when a pole is set, if there is a signal at that pixel, a method of searching for a nearby non-signal pixel and using the non-signal pixel as a pole may be used. .

(変形例2)
上述した実施形態では、図3(c)のステップS353における境界線平滑化処理の際に、固定の「window sizeのmoving median filter」を用いた例を説明したが、本発明においては、これに限定されるものではない。
(Modification 2)
In the above-described embodiment, an example in which a fixed “window size moving median filter” is used in the boundary line smoothing process in step S353 of FIG. 3C has been described. It is not limited.

図12は、変形例2を説明するための図である。具体的に、変形例2では、この図12を参照して、極からNPA境界線までの距離に基づいて「window size」を決定する例について説明する。   FIG. 12 is a diagram for explaining the second modification. Specifically, in Modification Example 2, an example in which “window size” is determined based on the distance from the pole to the NPA boundary line will be described with reference to FIG.

図12(a)は、直交座標系の眼底血管画像(OCTA画像)のNPA(無血管領域)を示す。この図12(a)では、実線100と実線120は、NPA境界線である。また、図12(b)は、同じ画像の極座標画像を示す。図12(a)に示す直交座標では、ギャップ110とギャップ130は同じ大きさである。これに対して、極140からの距離により、図12(b)に示す極座標画像では、ギャップ110とギャップ130の大きさは大きく異なっている(即ち、ギャップ110はギャップ130より大きくなる)。ここで、「moving median filter」の「window size」を、以下の(4)式のようにする。
この(4)式において、Rは、極からの距離である。変形例2では、μ=0.05mmを例として説明するが、この値に限定されるものではない。また、例えば、Savitzky−Golayフィルタや、その他の式によって「window size」を決定してもよい。
FIG. 12A shows an NPA (avascular region) of a fundus blood vessel image (OCTA image) in a rectangular coordinate system. In FIG. 12A, a solid line 100 and a solid line 120 are NPA boundary lines. FIG. 12B shows a polar coordinate image of the same image. In the rectangular coordinates shown in FIG. 12A, the gap 110 and the gap 130 have the same size. On the other hand, in the polar coordinate image shown in FIG. 12B, the sizes of the gap 110 and the gap 130 are largely different depending on the distance from the pole 140 (that is, the gap 110 is larger than the gap 130). Here, the “window size” of the “moving median filter” is represented by the following equation (4).
In the equation (4), R is a distance from the pole. In Modification 2, μ = 0.05 mm will be described as an example, but the value is not limited to this value. In addition, for example, the “window size” may be determined by a Savitzky-Golay filter or another expression.

(変形例3)
上述した実施形態では、眼底血管画像としてOCTA画像を用いて説明を行ったが、本発明においてはこれに限定されるものではない。本発明においては、OCTA画像以外の他の眼底血管画像、例えば、フルオレセイン血管造影画像や、ICGA血管造影画像、その他の造影眼底画像を用いることも可能である。
(Modification 3)
In the above-described embodiment, the description has been made using the OCTA image as the fundus blood vessel image, but the present invention is not limited to this. In the present invention, it is also possible to use a fundus blood vessel image other than the OCTA image, for example, a fluorescein angiographic image, an ICGA angiographic image, or another contrast fundus image.

(変形例4)
上述した実施形態では、図3(d)のステップS386の自動対処処理においてローパスフィルターを用いた処理例を説明したが、本発明においてはこれに限定されるものではない。例えば、Voronoi diagram(ボロノイ図)或いはWatershedアルゴリズムを用いて、オーバーラップ(重複)が発生したNPA同士の領域の、それぞれの境界線を設定してもよい。また、Morphological画像処理を用いて、オーバーラップ(重複)が発生したNPA同士の領域の、それぞれの境界線を設定してもよい。さらに、Morphological画像処理を用いて、オーバーラップ(重複)が発生したNPA同士の領域が独立になるまでerosionや、openingを繰り返し行い、それぞれの境界線を設定してもよい。
(Modification 4)
In the above-described embodiment, the processing example using the low-pass filter in the automatic coping process in step S386 in FIG. 3D has been described, but the present invention is not limited to this. For example, using the Voronoi diagram (Voronoi diagram) or the Watershed algorithm, respective boundaries of the regions of the NPAs where the overlap (overlap) has occurred may be set. Further, using Morphological image processing, respective boundaries of the areas of the NPAs where the overlap (overlap) has occurred may be set. Further, morphological image processing may be used to repeatedly execute erosion and opening until the regions of the NPAs where the overlap (overlap) has occurred become independent, and set the respective boundaries.

(変形例5)
上述した実施形態では、図3(a)のステップS320おいて、強調部1461は、NPA候補ごとに画像を強調するパラメーターを決定する例を説明したが、本発明においてはこれに限定されるものではない。例えば、複数のNPA候補ごとまたは全てのNPA候補ごとにノイズ特性を解析した後に、統一したパラメーターで画像を強調する処理を行ってもよい。
(Modification 5)
In the embodiment described above, the example in which the enhancing unit 1461 determines the parameter for enhancing the image for each NPA candidate in step S320 of FIG. 3A has been described, but the present invention is not limited to this. is not. For example, after analyzing noise characteristics for each of a plurality of NPA candidates or for all NPA candidates, a process of emphasizing an image with unified parameters may be performed.

以上説明したように、上述した実施形態あるいは各変形例に係る画像処理装置100では、被検体である被検眼Eの眼底における眼底血管画像を取得し(図3のS310)、取得した眼底血管画像に対して設定された複数のシード点に対応する複数の無血管領域を特定し(図3のS350)、特定した複数の無血管領域における無血管領域同士の重複を判定するようにしている(図3のS370)。ここで、図3のステップS310の取得処理を行う画像取得部110及び画像処理部140は、本発明に係る取得手段の一例である。また、図3のS350の特定処理を行う解析部146は、本発明に係る特定手段の一例である。また、図3のS370の判定処理を行う解析部146は、本発明に係る判定手段の一例である。
かかる構成によれば、重複が生じていると判定された無血管領域同士の領域(詳細には、無血管領域同士を合わせた領域)について対処を行うことにより、眼底血管画像に複数の無血管領域の候補がある場合に、これらの無血管領域を精度良く検出することができる。
As described above, the image processing apparatus 100 according to the above-described embodiment or each modification acquires a fundus blood vessel image of the fundus of the eye E to be inspected (S310 in FIG. 3), and acquires the acquired fundus blood vessel image. A plurality of avascular regions corresponding to a plurality of seed points set for are identified (S350 in FIG. 3), and the overlap of the avascular regions in the identified avascular regions is determined ( S370 in FIG. 3). Here, the image acquisition unit 110 and the image processing unit 140 that perform the acquisition processing in step S310 in FIG. 3 are an example of an acquisition unit according to the present invention. Further, the analysis unit 146 that performs the specifying process in S350 in FIG. 3 is an example of a specifying unit according to the present invention. In addition, the analysis unit 146 that performs the determination process of S370 in FIG. 3 is an example of a determination unit according to the present invention.
According to this configuration, a plurality of avascular images are added to the fundus vascular image by taking action on the regions of the avascular regions determined to have overlapped (specifically, the region where the avascular regions are combined). When there are region candidates, these avascular regions can be detected with high accuracy.

[第2の実施形態]
次に、第2の実施形態について説明する。なお、以下に記載する第2の実施形態の説明では、上述した第1の実施形態と共通する事項については説明を省略し、上述した第1の実施形態と異なる事項について説明を行う。
[Second embodiment]
Next, a second embodiment will be described. In the following description of the second embodiment, description of matters common to the above-described first embodiment will be omitted, and matters different from the above-described first embodiment will be described.

上述した第1の実施形態では、複数のシード点に対して、それぞれのシード点から極座標の眼底血管画像(OCTA画像)を生成し、それぞれのNPA境界線を抽出して、NPA(無血管領域)の特定処理を行う例について説明した。ただし、この場合、特定されるNPAは、1つの極に基づいて算出されるものであるため、画像ノイズの影響を受けやすくなっている。そこで、第2の実施形態では、NPAの特定処理をよりロバストに行うために、追加シード点(追加位置)として追加極を設定し複数の極(複数のシード点)に基づいて、それぞれからNPAを特定し、各々のNPA特定結果を用いて、重みNPAを生成する例について説明する。そして、第2の実施形態では、生成した重みNPAに基づいてそれぞれのNPAを特定し、重みNPAに基づいたオーバーラップ対処を行う。   In the first embodiment described above, for a plurality of seed points, a fundus blood vessel image (OCTA image) in polar coordinates is generated from each seed point, and each NPA boundary line is extracted, and the NPA (avascular area The example in which the specific processing is performed is described above. However, in this case, since the specified NPA is calculated based on one pole, it is easily affected by image noise. Therefore, in the second embodiment, in order to perform the NPA specifying process more robustly, an additional pole is set as an additional seed point (additional position), and the NPA is determined based on the plurality of poles (a plurality of seed points). An example of generating the weight NPA using the NPA identification results will be described. Then, in the second embodiment, each NPA is specified based on the generated weight NPA, and an overlap countermeasure is performed based on the weight NPA.

第2の実施形態に係る画像処理システムの概略構成は、図1に示す第1の実施形態に係る画像処理システム10の概略構成と同様である。また、第2の実施形態に係る画像処理装置の内部の概略構成は、図2に示す第1の実施形態に係る画像処理装置100の内部の概略構成と同様である。   The schematic configuration of the image processing system according to the second embodiment is the same as the schematic configuration of the image processing system 10 according to the first embodiment shown in FIG. The schematic configuration inside the image processing apparatus according to the second embodiment is the same as the schematic configuration inside the image processing apparatus 100 according to the first embodiment shown in FIG.

また、第2の実施形態に係る画像処理装置100による画像処理方法の全体的な処理手順を示すフローチャートは、図3(a)に示す第1の実施形態に係る画像処理方法の全体的な処理手順を示すフローチャートと基本的には同じである。しなしながら、第2の実施形態では、図3(a)に示すステップS350(NPA特定処理)が第1の実施形態とは異なる。また、これに伴い、第2の実施形態では、図3(d)に示すステップS386(自動対処処理)が第1の実施形態とは異なる。   FIG. 3A is a flowchart illustrating an overall processing procedure of the image processing method by the image processing apparatus 100 according to the second embodiment. This is basically the same as the flowchart showing the procedure. However, in the second embodiment, step S350 (NPA specifying process) shown in FIG. 3A is different from the first embodiment. Accordingly, in the second embodiment, step S386 (automatic processing) shown in FIG. 3D is different from that of the first embodiment.

まず、第2の実施形態に係る画像処理方法の全体的な処理では、図3(a)のステップS310〜S340の処理を行う。そして、解析部146は、ステップS340で選択された領域Jのシード点を用いて、そのシード点を含むNPA(無血管領域)の特定を行う。この際、第2の実施形態では、初期のNPAを特定し、その後、追加の極を取得して、重みNPAを特定する。この第2の実施形態に係る画像処理方法について、図13を用いて説明する。   First, in the overall processing of the image processing method according to the second embodiment, the processing of steps S310 to S340 in FIG. Then, using the seed point of the region J selected in step S340, the analysis unit 146 specifies an NPA (avascular region) including the seed point. At this time, in the second embodiment, an initial NPA is specified, and then additional poles are acquired to specify a weight NPA. An image processing method according to the second embodiment will be described with reference to FIG.

図13は、第2の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。この図13のフローチャートの処理は、第2の実施形態において、図3(a)のステップS350に換えて行われる処理である。
また、図14は、第2の実施形態を示し、図13に示すフローチャートの処理を説明するための図である。以下、この図14を参照しながら、図13に示すフローチャートの説明を行う。
FIG. 13 is a flowchart illustrating an example of a processing procedure of an image processing method by the image processing apparatus 100 according to the second embodiment. The process of the flowchart of FIG. 13 is a process performed in the second embodiment instead of step S350 of FIG. 3A.
FIG. 14 illustrates the second embodiment and is a diagram for describing the processing of the flowchart illustrated in FIG. 13. Hereinafter, the flowchart shown in FIG. 13 will be described with reference to FIG.

≪ステップS1311≫
まず、図13のステップS1311において、解析部146の座標変換部1464は、ステップS340で選択された領域Jのシード点を初期極として設定する。
{Step S1311}
First, in step S1311 of FIG. 13, the coordinate conversion unit 1464 of the analysis unit 146 sets the seed point of the region J selected in step S340 as an initial pole.

≪ステップS1312≫
続いて、ステップS1312において、解析部146の座標変換部1464は、ステップS1311で設定された初期極に基づいて、NPA(無血管領域)の特定処理を行う。具体的に、このステップS1312の処理は、第1の実施形態におけるステップS350の処理と同じであるため、その説明は省略する。図14(a)は、ステップS1312のオーバーラップされたNPAの一例を示す。
{Step S1312}
Subsequently, in step S1312, the coordinate conversion unit 1464 of the analysis unit 146 performs a process of specifying an NPA (avascular region) based on the initial pole set in step S1311. More specifically, the processing in step S1312 is the same as the processing in step S350 in the first embodiment, and a description thereof will not be repeated. FIG. 14A illustrates an example of the overlapped NPA in step S1312.

≪ステップS1313≫
続いて、ステップS1313において、解析部146は、ステップS1312で特定されたNPAから、追加シード点としての極候補を取得する。ここでは、縮小されたNPAを用いる例を説明する。本実施形態では、図14(b)に示すように、解析部146は、まず、縮小率を0.7とし、縮小中心を領域の重心とする。ただし、本実施形態では、縮小率と中心の決定はこれらの方法に限定されるものではなく、例えば、縮小率を0.9とし、縮小中心を領域内にランダムにしてもよい。次いで、解析部146は、縮小された領域の輪郭から複数の点を選定する。ここでは、例えば、輪郭線上に、等間隔に置かれた30点を極(中心点)候補とする。ここでは、固定の極点数を例として説明をするが、これらに限定されるものではなく、例えば、輪郭線の大きさに応じて点数を設定してもよい。また、本実施形態では、複数の極候補を設定する方法は、上述した方法に限定されるものではなく、例えば、NPA内に2次元的に等間隔に極候補を設定してもよく、また、その他の方法で設定してもよい。
{Step S1313}
Subsequently, in step S1313, the analysis unit 146 acquires a pole candidate as an additional seed point from the NPA specified in step S1312. Here, an example using reduced NPA will be described. In the present embodiment, as shown in FIG. 14B, the analysis unit 146 first sets the reduction ratio to 0.7, and sets the reduction center as the center of gravity of the region. However, in the present embodiment, the determination of the reduction ratio and the center is not limited to these methods. For example, the reduction ratio may be set to 0.9, and the reduction center may be made random within the area. Next, the analysis unit 146 selects a plurality of points from the outline of the reduced area. Here, for example, 30 equally spaced points on the contour line are considered as pole (center point) candidates. Here, the fixed pole number will be described as an example, but the present invention is not limited to these. For example, the point number may be set according to the size of the contour line. In the present embodiment, the method of setting a plurality of pole candidates is not limited to the above-described method. For example, pole candidates may be set two-dimensionally at equal intervals in the NPA. May be set by other methods.

≪ステップS1314≫
続いて、ステップS1314において、解析部146は、ステップS1313で取得された複数の極候補の中から1つの極候補を選択する。ここでは、その極候補を、極(J)、またはJ番目の候補と言う。最初の候補は、J=1とする。
{Step S1314}
Subsequently, in step S1314, the analysis unit 146 selects one pole candidate from the plurality of pole candidates acquired in step S1313. Here, the pole candidate is referred to as a pole (J) or a J-th candidate. The first candidate is J = 1.

≪ステップS1315≫
続いて、ステップS1315において、解析部146は、ステップS1314で選択された極(J)を用いて、NPA(J)の特定処理を行う。このステップS1315の処理は、第1の実施形態におけるステップS350の処理と同じであるため、その説明は省略する。また、極(J)を用いて特定されたNPAは、NPA(J)、または中間NPAと言う。図14(c)及び図14(d)は、このステップS1315の処理結果例を示す。具体的に、図14(c)は、追加極1401に基づき特定された中間NPA1402を示しており、図14(d)は、追加極1403に基づき特定された中間NPA1404を示している。
{Step S1315}
Subsequently, in step S1315, the analysis unit 146 performs an NPA (J) specifying process using the pole (J) selected in step S1314. The process in step S1315 is the same as the process in step S350 in the first embodiment, and a description thereof will not be repeated. The NPA specified using the pole (J) is referred to as NPA (J) or intermediate NPA. FIGS. 14C and 14D show an example of the processing result of step S1315. Specifically, FIG. 14C shows the intermediate NPA 1402 specified based on the additional pole 1401, and FIG. 14D shows the intermediate NPA 1404 specified based on the additional pole 1403.

≪ステップS1316≫
続いて、ステップS1316において、画像処理部140は、ステップS1315で極(J)を用いて特定された中間NPA(J)を記憶部120に記憶して保存する。
{Step S1316}
Subsequently, in step S1316, the image processing unit 140 stores and stores the intermediate NPA (J) specified using the pole (J) in step S1315 in the storage unit 120.

≪ステップS1317≫
続いて、ステップS1317において、解析部146は、ステップS1313で取得された複数の極のうち、未だ処理を行っていない次の極があるか否かを判定する。未だ処理を行っていない次の極がある場合には(S1317/YES)、それを極(J+1)とした上で、ステップS1314に戻り、ステップS1314以降の処理を行う。一方、ステップS1313で取得された全ての極から中間NPAの特定が終了した場合(次の極が無い場合)には(S1317/NO)、ステップS1318に進む。
{Step S1317}
Subsequently, in step S1317, the analysis unit 146 determines whether there is a next pole that has not been processed yet among the plurality of poles acquired in step S1313. If there is a next pole that has not been processed yet (S1317 / YES), it is set as the pole (J + 1), and the process returns to step S1314 to perform the processing from step S1314. On the other hand, if the specification of the intermediate NPA has been completed from all the poles acquired in step S1313 (if there is no next pole) (S1317 / NO), the process proceeds to step S1318.

≪ステップS1318≫
ステップS1318に進むと、画像処理部140は、ステップS1316で保存された全ての中間NPAを用いて、重みNPAの合成処理を行う。本実施形態では、合成方法として、各中間NPAの合算を行い、さらに各ピクセル(NPA内の位置)に共通になったNPAの枚数を重みとする。合成された情報は、重みNPA情報とも言う。図14(e)は、ステップS1318の処理結果例を示す。
{Step S1318}
In step S1318, the image processing unit 140 performs a weight NPA combining process using all the intermediate NPAs stored in step S1316. In the present embodiment, as a combining method, the sum of the intermediate NPAs is performed, and the number of NPAs common to each pixel (a position in the NPA) is set as a weight. The combined information is also called weight NPA information. FIG. 14E shows an example of the processing result of step S1318.

≪ステップS1319≫
続いて、ステップS1319において、画像処理部140は、以上の処理によって特定された重みNPA情報を記憶部120に送信し、記憶部120は、当該重みNPA情報を記憶して保存する。
そして、ステップS1319の処理が終了すると、図13に示すフローチャートの処理が終了する。
{Step S1319}
Subsequently, in step S1319, the image processing unit 140 transmits the weight NPA information specified by the above processing to the storage unit 120, and the storage unit 120 stores and stores the weight NPA information.
When the process in step S1319 ends, the process in the flowchart illustrated in FIG. 13 ends.

次に、第2の実施形態においてオーバーラップが発生した場合の自動対処処理について説明する。これは、図3(d)に示すステップS386(自動対処処理)に該当するが、具体的な処理内容が第1の実施形態とは異なるため、以下に説明する。   Next, an automatic handling process when an overlap occurs in the second embodiment will be described. This corresponds to step S386 (automatic processing) shown in FIG. 3D, but the details of the processing are different from those of the first embodiment, and therefore will be described below.

第2の実施形態では、解析部146は、図13のフローチャートで特定した重みNPAのオーバーラップの対処処理を行う。具体的に、本実施形態では、重みNPA情報を用いて、それぞれのNPAを特定する。以下に、その詳細な処理を説明する。   In the second embodiment, the analysis unit 146 performs a process for coping with the overlap of the weight NPAs specified in the flowchart of FIG. Specifically, in the present embodiment, each NPA is specified using the weighted NPA information. Hereinafter, the detailed processing will be described.

第2の実施形態では、図3(d)に示すステップS386において、解析部146は、オーバーラップされた重みNPAの自動対処処理を行う。
(A)具体的に、まず、解析部146は、オーバーラップされた重みNPA画像に対する結果画像の画素値に対して、等高線を算出する。図14(e)は、この(A)処理の結果例を示す。
(B)次いで、解析部146は、シード点の数に基づいて、分割する領域の数を特定する。そして、上述した等高線のピークを結ぶ尾根線に沿って、画素値が最低値になった位置を領域の分割点にして、その分割点を通る谷線をNPA領域の境界線に設定する。図14(f)は、この(B)処理の結果例を示す。具体的に、図14(f)では、この(B)処理で得られた異なる2つのNPAを、斜め線の向きを変えるハッチング表示(異なる傾きの縞模様の表示)で識別している。なお、この(B)処理では、解析部146は、分割する領域の数をシード点に基づいて決定したが、この方法に限定されるものではなく、例えば、(A)で得られた高等線のピーク箇所に対して、分割する領域の数を特定する方法や、その他の方法を用いてもよい。
以上の処理によって、第2の実施形態においてオーバーラップが発生した場合の自動対処処理が終了する。
In the second embodiment, in step S386 shown in FIG. 3D, the analysis unit 146 performs an automatic handling process of the overlapped weight NPA.
(A) Specifically, first, the analysis unit 146 calculates a contour line for a pixel value of a result image with respect to the overlapped weighted NPA image. FIG. 14E shows an example of the result of the process (A).
(B) Next, the analysis unit 146 specifies the number of regions to be divided based on the number of seed points. Then, along the ridge line connecting the peaks of the contour lines described above, the position where the pixel value becomes the lowest value is set as the division point of the region, and the valley line passing through the division point is set as the boundary line of the NPA region. FIG. 14F shows an example of the result of the process (B). Specifically, in FIG. 14F, two different NPAs obtained in the process (B) are identified by hatching display (display of a stripe pattern having a different inclination) in which the direction of an oblique line is changed. In the process (B), the analysis unit 146 determines the number of regions to be divided based on the seed points. However, the present invention is not limited to this method. For example, the high contour obtained in (A) may be used. A method of specifying the number of regions to be divided or another method may be used for the peak location.
With the above processing, the automatic handling processing in the case where an overlap has occurred in the second embodiment ends.

以上説明したように、第2の実施形態に係る画像処理装置100では、第1の実施形態の処理に加えて、図13のステップS1312で特定された複数の無血管領域に応じて追加シード点を更に設定し(図13のS1313)、当該追加シード点を用いて無血管領域の特定をし(図13のS1315)、当該特定に応じて無血管領域同士の重複を判定するようにしている。
かかる構成によれば、眼底血管画像に複数の無血管領域の候補がある場合に、これらの無血管領域をより精度良く検出することができる。
As described above, in the image processing apparatus 100 according to the second embodiment, in addition to the processing of the first embodiment, additional seed points are added according to the plurality of avascular regions specified in step S1312 in FIG. Are further set (S1313 in FIG. 13), the avascular region is specified using the additional seed point (S1315 in FIG. 13), and the overlap between the avascular regions is determined according to the specification. .
According to this configuration, when there are a plurality of candidate avascular areas in the fundus vascular image, these avascular areas can be detected with higher accuracy.

[第3の実施形態]
次に、第3の実施形態について説明する。なお、以下に記載する第3の実施形態の説明では、上述した第1及び第2の実施形態と共通する事項については説明を省略し、上述した第1及び第2の実施形態と異なる事項について説明を行う。
[Third Embodiment]
Next, a third embodiment will be described. In the following description of the third embodiment, description of matters common to the above-described first and second embodiments will be omitted, and matters different from the above-described first and second embodiments will be omitted. Give an explanation.

上述した第1及び第2の実施形態では、断層画像撮影装置200から入力された情報に基づき眼底血管画像(OCTA画像)を生成し、この眼底血管画像を用いてNPA(無血管領域)の特定処理を行う例について説明した。これに対して、第3の実施形態では、被検者における過去のNPA特定処理の結果を用いて、断層画像撮影装置200から入力された情報に基づき生成された眼底血管画像に対するNPAの特定処理を行う例について説明する。   In the above-described first and second embodiments, a fundus blood vessel image (OCTA image) is generated based on information input from the tomographic image capturing apparatus 200, and an NPA (avascular region) is identified using the fundus blood vessel image. The example of performing the processing has been described. On the other hand, in the third embodiment, the NPA specifying process for the fundus blood vessel image generated based on the information input from the tomographic image capturing apparatus 200 using the result of the past NPA specifying process in the subject Will be described.

第3の実施形態に係る画像処理システムの概略構成は、図1に示す第1の実施形態に係る画像処理システム10の概略構成と同様である。また、第3の実施形態に係る画像処理装置の内部の概略構成は、図2に示す第1の実施形態に係る画像処理装置100の内部の概略構成と同様である。   The schematic configuration of the image processing system according to the third embodiment is the same as the schematic configuration of the image processing system 10 according to the first embodiment shown in FIG. The schematic configuration inside the image processing apparatus according to the third embodiment is the same as the schematic configuration inside the image processing apparatus 100 according to the first embodiment shown in FIG.

図15は、第3の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。具体的に、図15は、第3の実施形態に係る画像処理方法の全体的な処理手順を示すフローチャートである。
また、図16は、第3の実施形態を示し、図15に示すフローチャートの処理を説明するための図である。以下、この図16を参照しながら、図15に示すフローチャートの説明を行う。
FIG. 15 is a flowchart illustrating an example of a processing procedure of an image processing method performed by the image processing apparatus 100 according to the third embodiment. Specifically, FIG. 15 is a flowchart illustrating an overall processing procedure of the image processing method according to the third embodiment.
FIG. 16 illustrates the third embodiment and is a diagram for describing the processing of the flowchart illustrated in FIG. 15. Hereinafter, the flowchart shown in FIG. 15 will be described with reference to FIG.

<ステップS1510>
まず、図15のステップS1510において、解析部146は、記憶部120から、対象となる被検者の過去情報を取得する。具体的に、本実施形態の過去情報は、被検者の過去の眼底血管画像、当該過去の撮影パラメーター(撮影領域、撮影パターン等)や処理パラメーター、当該過去のNPA情報等を含む。図16(a)は、過去の眼底血管画像(OCTA画像)1601と、当該過去のNPA1602及びNPA1603の一例を示す。
<Step S1510>
First, in step S1510 in FIG. 15, the analysis unit 146 acquires past information of a subject to be examined from the storage unit 120. Specifically, the past information of the present embodiment includes a past fundus blood vessel image of the subject, the past imaging parameters (imaging area, imaging pattern, and the like) and processing parameters, the past NPA information, and the like. FIG. 16A shows an example of a past fundus blood vessel image (OCTA image) 1601 and the past NPA 1602 and NPA 1603.

<ステップS1520>
続いて、ステップS1520において、解析部146は、現在の眼底血管画像としてモーションコントラスト画像であるOCTA画像を取得する。このステップS1520の処理は、第1の実施形態における図3(a)のステップS310の処理と同じであるため、詳細な説明は省略する。ただし、撮影パラメーターは、ステップS1510で取得された過去情報からの、過去の撮影に使われたパラメーターを利用する。なお、ユーザーが入力装置300を介して入力した撮影パラメーターを利用してもよい。
<Step S1520>
Subsequently, in step S1520, the analysis unit 146 acquires an OCTA image that is a motion contrast image as the current fundus blood vessel image. The process in step S1520 is the same as the process in step S310 in FIG. 3A in the first embodiment, and a detailed description thereof will be omitted. However, as the shooting parameters, parameters used in the past shooting from the past information acquired in step S1510 are used. Note that the photographing parameters input by the user via the input device 300 may be used.

<ステップS1530>
続いて、ステップS1530において、解析部146の強調部1461は、ノイズの影響を最小にして、例えばステップS1520で取得された眼底血管画像の画像強調処理を行う。このステップS1530の処理は、第1の実施形態における図3(a)のステップS320の処理と同じであるため、詳細な説明は省略する。ただし、画像強調処理に用いられるパラメーターは、ステップS1510で取得された過去情報から過去に使われた処理パラメーターを利用してもよい。図16(a)は、ステップS1530において画像強調処理された眼底血管画像(OCTA画像)1604の一例を示す。また、眼底血管画像1604には、NPAに相当する領域1605が示されている。さらに、次のステップS1540の位置合わせ処理のため、ステップS1530では、エッジ強調処理や、コントラスト強調処理を行ってもよい。
<Step S1530>
Subsequently, in step S1530, the enhancement unit 1461 of the analysis unit 146 performs an image enhancement process on the fundus blood vessel image acquired in step S1520, for example, while minimizing the influence of noise. The process in step S1530 is the same as the process in step S320 in FIG. 3A in the first embodiment, and thus a detailed description is omitted. However, the processing parameters used in the past from the past information acquired in step S1510 may be used as the parameters used for the image enhancement processing. FIG. 16A shows an example of a fundus blood vessel image (OCTA image) 1604 that has undergone image enhancement processing in step S1530. Further, an area 1605 corresponding to the NPA is shown in the fundus blood vessel image 1604. Furthermore, in step S1530, edge enhancement processing or contrast enhancement processing may be performed for the alignment processing in the next step S1540.

<ステップS1540>
続いて、ステップS1540において、位置合わせ部141は、ステップS1510で取得された被検者の過去の眼底血管画像と、ステップS1530で取得された現在の眼底血管画像との位置合わせを行う。本実施形態では、過去情報のNPA情報を利用して、過去のNPAを除いて、眼底血管画像の位置合わせを行う。ここでの位置合わせ処理としては、パターンマッチングを用いるが、その他、類似度を用いたレジストレーションやコントロールポイントレジストレーション等でもよい。
<Step S1540>
Subsequently, in step S1540, the positioning unit 141 performs positioning of the past fundus blood vessel image of the subject acquired in step S1510 and the current fundus blood vessel image acquired in step S1530. In the present embodiment, the positioning of the fundus blood vessel image is performed using the past NPA information, excluding the past NPA. Although the pattern matching is used as the alignment processing here, other than that, registration using similarity, control point registration, or the like may be used.

<ステップS1550>
続いて、ステップS1550において、解析部146は、現在の眼底血管画像内の複数のNPA候補のそれぞれに対してシード点を設定する。このステップ155の処理は、第1の実施形態における図3(a)のステップS330の処理と同じであるため、詳細な説明は省略する。ただし、本実施形態でのシード点の設定は、次の通りである。まず、解析部146は、ステップS1540で得られた過去情報との位置合わせに基づいて、現在の眼底血管画像上での過去のNPAの位置を特定する。図16(c)は、現在の眼底血管画像1604に対して、図16(a)に示す過去のNPA1602及びNPA1603に基づくマスク画像1606及びマスク画像1607の位置を示す。次に、解析部146は、過去のNPAの重心位置を特定し、それらの重心位置をシード点の位置として設定する。図16(d)は、その処理結果例を示し、過去のNPA1602及びNPA1603における重心位置がそれぞれシード点1608及びシード点1609として設定されたことを示している。
<Step S1550>
Subsequently, in step S1550, analysis unit 146 sets a seed point for each of the plurality of NPA candidates in the current fundus vascular image. Since the processing in step 155 is the same as the processing in step S330 in FIG. 3A in the first embodiment, detailed description will be omitted. However, the setting of the seed point in the present embodiment is as follows. First, the analyzing unit 146 specifies the position of the past NPA on the current fundus blood vessel image based on the alignment with the past information obtained in step S1540. FIG. 16C shows the positions of the mask images 1606 and 1607 based on the past NPAs 1602 and 1603 shown in FIG. 16A with respect to the current fundus blood vessel image 1604. Next, the analysis unit 146 specifies the past center of gravity position of the NPA, and sets those barycentric positions as the positions of the seed points. FIG. 16D shows an example of the processing result, and shows that the centroid positions in the past NPA 1602 and NPA 1603 are set as seed points 1608 and 1609, respectively.

<ステップS1560>
続いて、ステップS1560において、解析部146は、ステップS1550で設定された複数のシード点から領域Jのシード点を選択する。このステップS1560の処理は、第1の実施形態における図3(a)のステップS340の処理と同じであるため、詳細な説明は省略する。
<Step S1560>
Subsequently, in step S1560, analysis unit 146 selects a seed point of region J from the plurality of seed points set in step S1550. The process in step S1560 is the same as the process in step S340 in FIG. 3A in the first embodiment, and thus a detailed description is omitted.

<ステップS1570>
続いて、ステップS1570において、解析部146は、ステップS1560で選択された領域Jのシード点を用いて、そのシード点を含むNPAの特定処理を行う。このステップS1570の処理は、第1の実施形態における図3(a)のステップS350の処理と同じであるため、詳細な説明は省略する。
<Step S1570>
Subsequently, in step S1570, the analysis unit 146 uses the seed point of the region J selected in step S1560 to perform an NPA specifying process including the seed point. Since the processing in step S1570 is the same as the processing in step S350 in FIG. 3A in the first embodiment, a detailed description will be omitted.

<ステップS1580>
続いて、ステップS1580において、解析部146は、ステップS1550で設定された複数のシード点の全てのシード点からNPA(無血管領域)の特定が終了したか否かの判定を行う。具体的に、未だNPAの特定が行われていないシード点があり、次のNPAがある場合には(S1580/YES)、領域J=J+1とした上で、ステップS1560に戻り、ステップS1560以降の処理を行う。一方、全てのシード点からNPAの特定が終了した場合(次のNPAが無い場合)には(S1580/NO)、ステップS150に進む。
<Step S1580>
Subsequently, in step S1580, the analysis unit 146 determines whether or not the specification of the NPA (avascular region) has been completed from all of the plurality of seed points set in step S1550. Specifically, if there is a seed point for which the NPA has not yet been specified and there is the next NPA (S1580 / YES), the region J is set to J + 1, the process returns to step S1560, and the process after step S1560 is performed. Perform processing. On the other hand, if the specification of the NPA has been completed from all the seed points (if there is no next NPA) (S1580 / NO), the process proceeds to step S150.

<ステップS1590>
ステップS1590に進むと、解析部146は、ステップS1570で特定されたNPA(無血管領域)のオーバーラップが発生したか否かを判定する。即ち、ステップS1590では、異なるシード点から特定された複数のNPA(無血管領域)において、重複する共通の領域があるか否かを判定する。このステップS1590の処理は、第1の実施形態における図3(a)のステップS370の処理と同じであるため、詳細な説明は省略する。ステップS1590の判定の結果、オーバーラップが発生した場合には(S1590/YES)、ステップS1591に進み、また、オーバーラップが発生していない場合には(S1590/NO)、ステップS1592に進む。
<Step S1590>
In step S1590, the analysis unit 146 determines whether the NPA (avascular region) specified in step S1570 has overlapped. That is, in step S1590, it is determined whether there is an overlapping common area in a plurality of NPAs (avascular areas) specified from different seed points. Since the processing in step S1590 is the same as the processing in step S370 in FIG. 3A in the first embodiment, a detailed description will be omitted. As a result of the determination in step S1590, if an overlap has occurred (S1590 / YES), the process proceeds to step S1591, and if no overlap has occurred (S1590 / NO), the process proceeds to step S1592.

<ステップS1591>
ステップS1591に進むと、画像処理装置100は、オーバーラップが発生したNPA(無血管領域)の対処処理を行う。このステップS1591の処理は、第1の実施形態における図3(a)のステップS380の処理と同じであるため、詳細な説明は省略する。その後、ステップS1592に進む。
<Step S1591>
In step S1591, the image processing apparatus 100 performs a process for dealing with an NPA (avascular region) in which an overlap has occurred. The processing in step S1591 is the same as the processing in step S380 in FIG. 3A in the first embodiment, and thus a detailed description is omitted. Thereafter, the process proceeds to step S1592.

<ステップS1592>
ステップS1592に進むと、画像処理部140は、以上の処理によって特定されたNPA情報を記憶部120に送信し、記憶部120は、NPA情報を記憶して保存する。このステップS1592は、第1の実施形態における図3(a)のステップS390の処理と同じであるため、詳細な説明は省略する。
そして、ステップS1592の処理が終了すると、図15に示すフローチャートの処理が終了する。
<Step S1592>
In step S1592, the image processing unit 140 transmits the NPA information specified by the above processing to the storage unit 120, and the storage unit 120 stores and stores the NPA information. This step S1592 is the same as the process of step S390 in FIG. 3A in the first embodiment, and thus a detailed description is omitted.
When the processing in step S1592 ends, the processing in the flowchart illustrated in FIG. 15 ends.

なお、図15のステップS1591の処理では、オーバーラップが発生した場合のNPAの対処処理を第1の実施形態における図3(a)のステップS380の処理と同じにしたが、本実施形態においてはこれに限定されるものではない。例えば、ステップS1510で取得した過去情報を用いた対処処理を行ってもよい。以下に詳細を説明する。   In the process of step S1591 in FIG. 15, the process of dealing with NPA when an overlap occurs is the same as the process of step S380 in FIG. 3A in the first embodiment, but in the present embodiment, It is not limited to this. For example, a coping process using the past information acquired in step S1510 may be performed. The details will be described below.

まず、ステップS1591−Aにおいて、画像処理装置100は、ステップS1540の位置合わせ結果に基づいて、過去情報のNPAと、現在のNPA候補との位置合わせを行う。図16(c)は、その処理例を示す。
次いで、ステップS1591−Bにおいて、画像処理部140は、過去のNPA同士が接するまで、かつ、現在のNPA候補を満たすまで、過去のNPAに膨張処理(拡大処理)を行う。そして、膨張された過去のNPAが接するところで膨張処理を停止する。この膨張処理における膨張率は、それぞれのNPAの面積に比例させる例が考えられるが、この限定されるものではなく、同等な膨張率にしてもよい。
なお、ここでは、過去のNPAの膨張処理に基づいて現在のNPA候補の特定処理を説明したが、本実施形態ではこれに限定されるものではない。例えば、Morphological画像処理や、Voronoi diagram(ボロノイ図)法を用いて、現在のNPAの特定をしてもよく、また、その他の方法を用いてもよい。
First, in step S1591-A, the image processing apparatus 100 performs positioning between the past information NPA and the current NPA candidate based on the positioning result in step S1540. FIG. 16C shows an example of the processing.
Next, in step S1591-B, the image processing unit 140 performs expansion processing (enlargement processing) on the past NPAs until the past NPAs are in contact with each other and the current NPA candidate is satisfied. Then, the expansion process is stopped where the expanded past NPA contacts. An example in which the expansion rate in this expansion processing is made to be proportional to the area of each NPA can be considered, but the present invention is not limited to this.
Here, the process of specifying the current NPA candidate based on the past NPA expansion process has been described, but the present embodiment is not limited to this. For example, the current NPA may be specified by using Morphological image processing or Voronoi diagram (Voronoi diagram) method, or another method may be used.

また、本実施形態においては、表示制御部150は、オーバーラップ(重複)が生じている無血管領域同士の領域(詳細には、無血管領域同士を合わせた領域)において過去の無血管領域に対して変化した部分を識別可能に表示装置400に表示させる形態を採りうる。例えば、図16(c)に白色で示されている、オーバーラップ(重複)が生じている無血管領域同士の領域(詳細には、無血管領域同士を合わせた領域)に相当する領域1065において、過去の無血管領域に相当するマスク画像1606及び1607に対して変化した部分を識別可能に表示する形態である。
なお、本実施形態では、被検者の過去情報に含まれる過去のNPA情報に複数のNPAが存在した場合の例を示したが、この場合に限らず、過去のNPA情報に1つだけのNPAが存在する場合でも適用できる。
Further, in the present embodiment, the display control unit 150 determines the past avascular region in the region of the avascular regions where the overlap (overlap) occurs (specifically, the region where the avascular regions are combined). On the other hand, a mode in which the changed portion is displayed on the display device 400 so as to be identifiable can be adopted. For example, in a region 1065 shown in white in FIG. 16C, which corresponds to a region between avascular regions in which overlap (overlap) occurs (specifically, a region in which avascular regions are combined). In this embodiment, portions that have changed from mask images 1606 and 1607 corresponding to past avascular regions are displayed so as to be identifiable.
In the present embodiment, an example in which a plurality of NPAs exist in the past NPA information included in the subject's past information has been described. However, the present invention is not limited to this case, and only one NPA information is included in the past NPA information. Applicable even when NPA is present.

以上説明したように、第3の実施形態に係る画像処理装置100では、被検体である被検眼Eの眼底Erにおける過去の無血管領域に係る過去情報を用いてシード点を設定するようにしている(図15のS1550)。
かかる構成によれば、眼底血管画像に複数の無血管領域の候補がある場合に、これらの無血管領域を精度良く検出することができる。
As described above, in the image processing apparatus 100 according to the third embodiment, the seed point is set using the past information on the past avascular region in the fundus Er of the subject's eye E as the subject. (S1550 in FIG. 15).
According to this configuration, when there are a plurality of candidates for the avascular region in the fundus vascular image, these avascular regions can be detected with high accuracy.

[第4の実施形態]
次に、第4の実施形態について説明する。なお、以下に記載する第4の実施形態の説明では、上述した第1〜第3の実施形態と共通する事項については説明を省略し、上述した第1〜第3の実施形態と異なる事項について説明を行う。
[Fourth embodiment]
Next, a fourth embodiment will be described. In the following description of the fourth embodiment, description of matters common to the above-described first to third embodiments will be omitted, and matters different from the above-described first to third embodiments will be omitted. Give an explanation.

上述した第3の実施形態では、過去のNPA(無血管領域)に対して変化した部分を識別可能に表示装置400に表示する例について説明した(例えば、図16(c))。これに対して、第4の実施形態では、過去のNPA情報と、特定されたNPA情報とを用いて、経時変化のグラフを表示装置400に表示して、その変化をわかりやすく明示する例について説明する。   In the above-described third embodiment, an example has been described in which a portion that has changed with respect to a past NPA (avascular region) is displayed on the display device 400 in an identifiable manner (for example, FIG. 16C). On the other hand, in the fourth embodiment, an example is shown in which a graph of a temporal change is displayed on the display device 400 using past NPA information and specified NPA information, and the change is clearly indicated. explain.

第4の実施形態に係る画像処理システムの概略構成は、図1に示す第1の実施形態に係る画像処理システム10の概略構成と同様である。また、第4の実施形態に係る画像処理装置の内部の概略構成は、図2に示す第1の実施形態に係る画像処理装置100の内部の概略構成と同様である。   The schematic configuration of the image processing system according to the fourth embodiment is the same as the schematic configuration of the image processing system 10 according to the first embodiment shown in FIG. The schematic configuration inside the image processing apparatus according to the fourth embodiment is the same as the schematic configuration inside the image processing apparatus 100 according to the first embodiment shown in FIG.

図17は、第4の実施形態を示し、図1の表示装置400に表示されるNPA情報の経時変化を時系列に示す情報の一例を示す図である。   FIG. 17 illustrates the fourth embodiment, and is a diagram illustrating an example of information indicating a chronological change of NPA information displayed on the display device 400 in FIG. 1 in a time series.

まず、図17(a)には、横軸を経過時間とし、縦軸をNPAの面積とした際の、1つのNPAの面積の経時変化を時系列に示す情報をグラフ1710として図示したものを記載している。ここで、図17(a)の縦軸に係るNPAの面積の単位は、mm2であるものとするが、本実施形態においてはこれに限定されるものではなく、例えば、画像のピクセルを単位とすることや、仮想の単位を用いること、或いは、その他の単位を用いてもよい。なお、ここで説明したNPA(無血管領域)の面積は、NPAにおける計測値の一例である。NPAにおける計測値は、面積以外にも、例えば、円形度、直径、半径等であってもよい。また、ボリュームデータを用いて3次元のNPAが特定された場合には、NPAにおける計測値は、例えば、体積等であってもよい。また、図17(a)の横軸に係る経過時間は、日付を示すものとなっているが、本実施形態においてはこれに限定されるものではなく、例えば、時間や四半期など、その他の時間であってもよい。さらに、図17(a)の横軸に係る経過時間は、一定の時間間隔で日付を示しているが、本実施形態においてはこれに限定されるものではなく、例えばNPAの特定回数を一定の間隔にして、日付を不均等に示したものであってもよい。図17(a)に示すグラフ1710において、それぞれの指標1711は、対応する或る日付(経過時間)におけるNPAの面積を示す。 First, FIG. 17A shows, as a graph 1710, information indicating time-dependent change in the area of one NPA when the horizontal axis represents elapsed time and the vertical axis represents NPA area. It has been described. Here, the unit of the area of the NPA according to the vertical axis in FIG. 17A is mm 2 , but is not limited to this in the present embodiment. , A virtual unit may be used, or another unit may be used. The area of the NPA (avascular region) described here is an example of a measurement value in the NPA. The measurement value in the NPA may be, for example, circularity, diameter, radius, or the like, in addition to the area. When a three-dimensional NPA is specified using volume data, the measurement value in the NPA may be, for example, a volume. The elapsed time on the horizontal axis in FIG. 17A indicates a date, but is not limited to this in the present embodiment. For example, other times such as time and quarter may be used. It may be. Further, the elapsed time on the horizontal axis in FIG. 17A indicates a date at a fixed time interval, but is not limited to this in the present embodiment. The dates may be shown unequally in intervals. In the graph 1710 shown in FIG. 17A, each index 1711 indicates the area of the NPA at a certain date (elapsed time) corresponding to the index.

次いで、図17(b)には、図17(a)に示すグラフ1710のそれぞれの指標1711に係る値(日付とそれに対応するNPAの面積)を時系列に示す情報を表として図示したものを記載している。この図17(b)に示す表において、日付及び面積の1組の数値は、図17(a)に示すグラフ1710の1つの指標1711に対応する。   Next, FIG. 17B illustrates, as a table, information indicating the values (dates and corresponding NPA areas) related to the respective indexes 1711 of the graph 1710 illustrated in FIG. It has been described. In the table shown in FIG. 17B, one set of numerical values of the date and the area corresponds to one index 1711 of the graph 1710 shown in FIG. 17A.

次いで、図17(c)には、図17(b)に示す表の各組(日付及び面積を1組とする各組)のそれぞれに対応するNPA(無血管領域)1720を含む眼底血管画像を時系列に図示している。なお、図17(c)の例では、それぞれの日付に対応するNPA1720の面積が、図17(b)の表に示す面積ほど変動していないが、本実施形態では、実際には、図17(b)の表に示す面積に応じたNPA1720を含む眼底血管画像が表示される形態を採る。ここで、図17(c)に示す複数の眼底血管画像は、第1の時間に被検体を撮影して得た第1の血管画像と、第1の時間(第1の検査日時)とは異なる第2の時間(第2の検査日時)に被検体を撮影して得た第2の血管画像とを含む複数の血管画像の一例である。なお、図17(c)に示す複数の眼底血管画像は、第1の血管画像及び第2の血管画像において特定された1つのNPAが時系列に図示されているが、2つ以上のNPAであってもよい。即ち、各画像において複数のNPAのうち少なくとも1つのNPAが特定されるように構成されてもよい。このとき、特定手段の一例である解析部146は、第1の血管画像において設定された位置に関する情報(例えば、画像における特徴箇所に対するシード点の相対位置座標)を用いて、第2の血管画像におけるNPAを特定してもよい。そして、表示制御部150は、第1の血管画像及び第2の血管画像において特定されたNPAにおける計測値の経時変化を時系列に示す情報を表示装置400に表示させてもよい。これにより、例えば、ユーザーはNPAの経過変化を容易に把握することができるため、診断効率を向上することができる。   Next, FIG. 17C shows a fundus blood vessel image including an NPA (avascular region) 1720 corresponding to each set (each set having one date and area) in the table shown in FIG. 17B. Are illustrated in chronological order. In the example of FIG. 17C, the area of the NPA 1720 corresponding to each date does not change as much as the area shown in the table of FIG. 17B. A mode in which a fundus blood vessel image including the NPA 1720 corresponding to the area shown in the table of FIG. Here, the plurality of fundus blood vessel images shown in FIG. 17C are obtained by capturing the first blood vessel image obtained by imaging the subject at the first time and the first time (first examination date and time). It is an example of a plurality of blood vessel images including a second blood vessel image obtained by imaging the subject at a different second time (second examination date and time). In addition, in the plurality of fundus blood vessel images shown in FIG. 17C, one NPA specified in the first blood vessel image and the second blood vessel image is illustrated in time series, but two or more NPAs are used. There may be. That is, at least one NPA among the plurality of NPAs may be specified in each image. At this time, the analysis unit 146, which is an example of the specifying unit, uses the information on the position set in the first blood vessel image (for example, the relative position coordinates of the seed point with respect to the characteristic portion in the image) to generate the second blood vessel image. May be specified. Then, the display control unit 150 may cause the display device 400 to display information indicating a chronological change of the measurement value in the NPA specified in the first blood vessel image and the second blood vessel image in a time series. Thus, for example, the user can easily grasp the change in the progress of the NPA, and thus the diagnostic efficiency can be improved.

また、例えば、過去のNPA情報は、予め記憶部120に格納されており、図17(a)のグラフ1710や、図17(b)の表、図17(c)の眼底血管画像群を作成する際に、表示制御部150が記憶部120から取得するものとする。ただし、本実施形態では、過去のNPA情報の取得は、記憶部120からの取得に限らず、例えば、不図示のネットワークサーバーに格納されている過去のNPA情報を取得してもよく、また、その他の記憶装置に格納されている過去のNPA情報を取得してもよい。なお、本実施形態では、表示制御部150は、図17(a)のグラフ1710、図17(b)の表、及び、図17(c)の眼底血管画像群を、表示装置400の一画面(同一画面)に表示する形態を採りうるが、本発明においてはこの形態に限定されるものではない。例えば、表示制御部150は、図17(a)のグラフ1710、図17(b)の表、及び、図17(c)の眼底血管画像群のうちの少なくとも1つを、表示装置400の画面に表示する形態であれば、本発明に適用可能である。   Also, for example, past NPA information is stored in the storage unit 120 in advance, and the graph 1710 in FIG. 17A, the table in FIG. 17B, and the fundus blood vessel image group in FIG. At this time, it is assumed that the display control unit 150 acquires the information from the storage unit 120. However, in the present embodiment, the acquisition of the past NPA information is not limited to the acquisition from the storage unit 120. For example, the past NPA information stored in a network server (not shown) may be acquired. The past NPA information stored in another storage device may be acquired. In the present embodiment, the display control unit 150 displays the graph 1710 in FIG. 17A, the table in FIG. 17B, and the fundus blood vessel image group in FIG. Although a form of displaying on the (same screen) can be adopted, the present invention is not limited to this form. For example, the display control unit 150 may display at least one of the graph 1710 in FIG. 17A, the table in FIG. 17B, and the fundus blood vessel image group in FIG. The present invention can be applied to the present invention as long as it is displayed in the form shown in FIG.

また、本実施形態においては、図17に示す表示方法に限定されるものではなく、その他の配置や、更なる情報(例えばNPAの数)を表示するようにしてもよい。また、図17に示す例では、1つのNPA情報の経時変化を時系列に示すものであったが、本実施形態においてはこれに限定されるものではなく、例えば、複数のNPAの総面積の経時変化を時系列に示すグラフや表、眼底血管画像群を表示してもよい。   Further, in the present embodiment, the display method is not limited to the display method shown in FIG. 17, and other arrangements and further information (for example, the number of NPAs) may be displayed. Further, in the example illustrated in FIG. 17, the change with time of one piece of NPA information is shown in time series. However, the present embodiment is not limited to this. For example, the total area of a plurality of NPAs A graph, a table, or a fundus blood vessel image group showing a change with time in a time series may be displayed.

(変形例6)
上述した実施形態では、1つのNPA情報の経時変化を時系列に示す情報を表示する例を説明したが、本発明においては、これに限定されるものではない。変形例6では、複数のNPA情報におけるそれぞれの経時変化を時系列に示す情報を表示する方法を説明する。
(Modification 6)
In the above-described embodiment, an example is described in which information indicating a temporal change of one piece of NPA information is displayed in time series. However, the present invention is not limited to this. In the sixth modification, a method of displaying information indicating a temporal change of each of a plurality of pieces of NPA information in a time series will be described.

図18は、変形例6を説明するための図である。
具体的に、図18(a)には、横軸を経過時間とし、縦軸をNPAの面積とした際の、2つ(複数)のNPAの面積の経時変化を時系列に示す情報をグラフ1810及びグラフ1820として図示したものを記載している。変形例6では、NPAごとにその面積の経時変化を時系列に示す情報を識別可能とするべく、図18(a)に示すように、NPAごとにグラフ1810及びグラフ1820の線種を変更して、異なる表示態様で表示するようにしている。具体的に、2つのNPAのうちの第1のNPAにおける面積を時系列で示した経時変化については、グラフ1810として図示するように、実線の線グラフとして図示している。また、2つのNPAのうちの第2のNPAにおける面積を時系列で示した経時変化については、グラフ1820として図示するように、点線の線グラフとして図示している。
FIG. 18 is a diagram for explaining the sixth modification.
Specifically, FIG. 18A is a graph showing information indicating the time-dependent change in the area of two (plural) NPAs in a time series, where the horizontal axis is the elapsed time and the vertical axis is the NPA area. What is illustrated as 1810 and graph 1820 is described. In the sixth modification, as shown in FIG. 18A, the line types of the graphs 1810 and 1820 are changed for each NPA so that information indicating a time-dependent change in the area of each NPA can be identified. Therefore, they are displayed in different display modes. Specifically, the change over time indicating the area in the first NPA of the two NPAs in time series is illustrated as a solid line graph as illustrated in a graph 1810. Further, the time-dependent change in area of the second NPA of the two NPAs in time series is shown as a dotted line graph as shown in a graph 1820.

次いで、図18(b)には、図18(a)に示すグラフ1810及びグラフ1820のそれぞれに対応するNPA1831及びNPA1832を含む眼底血管画像1830を図示している。具体的に、図18(a)に示すグラフ1810によって面積の経時変化を時系列に表しているNPAは、図18(b)に示す眼底血管画像1830において矢印1841が指す第1のNPA1831である。また、図18(a)に示すグラフ1820によって面積の経時変化を時系列に表しているNPAは、図18(b)に示す眼底血管画像1830において矢印1842が指す第2のNPA1832である。   Next, FIG. 18B illustrates a fundus blood vessel image 1830 including NPAs 1831 and 1832 corresponding to the graphs 1810 and 1820 shown in FIG. 18A. Specifically, the NPA that represents the time-dependent change of the area in a time series by the graph 1810 illustrated in FIG. 18A is the first NPA 1831 indicated by the arrow 1841 in the fundus blood vessel image 1830 illustrated in FIG. . 18A is a second NPA 1832 indicated by an arrow 1842 in a fundus blood vessel image 1830 shown in FIG. 18B.

変形例6では、表示制御部150は、図18(a)のグラフ1810及びグラフ1820と、図18(b)の眼底血管画像1830とを、表示装置400の一画面(同一画面)に表示する形態を採りうる。この際、表示制御部150は、図18(a)に示すグラフ1810及びグラフ1820と図18(b)に示すNPA1831及びNPA1832とを対応付けるための識別表示を行いうる。例えば、表示制御部150は、図18(b)の第1のNPA1831を指す矢印1841に、第1のNPA1831における面積の経時変化を時系列に示す図18(a)のグラフ1810の線種である実線に応じたハッチングを付し、また、図18(b)の第2のNPA1832を指す矢印1842に、第2のNPA1832における面積の経時変化を時系列に示す図18(a)のグラフ1820の線種である点線に応じたハッチングを付して、図18(a)に示すグラフ1810及びグラフ1820と図18(b)に示すNPA1831及びNPA1832とを対応付ける表示を行ってもよい。なお、識別表示の方法は、ここで説明した態様に限定されるものではなく、図18(a)に示すNPA1831及びNPA1832の色と、対応する図18(a)に示すグラフ1810及びグラフ1820の色を同じにすることで、識別表示を行ってもよい。また、例えば、グラフ1810及びグラフ1820において、対応するNPAを識別するために用いられる矢印や円を付するなどして、識別表示を行ってもよく、或いは、その他の識別表示方法を用いてもよい。   In Modification 6, the display control unit 150 displays the graph 1810 and the graph 1820 in FIG. 18A and the fundus blood vessel image 1830 in FIG. 18B on one screen (the same screen) of the display device 400. It can take the form. At this time, the display control unit 150 can perform identification display for associating the graphs 1810 and 1820 shown in FIG. 18A with the NPAs 1831 and 1832 shown in FIG. 18B. For example, the display control unit 150 sets the arrow 1841 indicating the first NPA 1831 in FIG. 18B as a line type of the graph 1810 in FIG. A hatched line corresponding to a certain solid line is attached, and an arrow 1842 pointing to the second NPA 1832 in FIG. 18B is a graph 1820 in FIG. A hatching corresponding to the dotted line which is the line type may be displayed by associating the graphs 1810 and 1820 shown in FIG. 18A with the NPAs 1831 and 1832 shown in FIG. 18B. Note that the identification display method is not limited to the mode described here, and the colors of the NPAs 1831 and 1832 shown in FIG. 18A and the corresponding graphs 1810 and 1820 shown in FIG. Identification display may be performed by using the same color. In addition, for example, in the graph 1810 and the graph 1820, an identification display may be performed by attaching an arrow or a circle used for identifying the corresponding NPA, or other identification display methods may be used. Good.

なお、図18に示す変形例6では、2つのNPAに係る面積の経時変化を時系列に示すグラフを表示する例を説明したが、NPAの数は、2つに限らず、3つ以上であってもよい。   Note that, in Modification Example 6 illustrated in FIG. 18, an example has been described in which a graph indicating a time-dependent change in the area related to two NPAs is displayed, but the number of NPAs is not limited to two and may be three or more. There may be.

(変形例7)
上述した変形例では、独立した複数のNPAに係る経時変化を時系列に示すグラフを識別表示する例を説明したが、本発明においては、これに限定されるものではない。変形例7では、独立した複数のNPAが経過時間とともに合体してオーバーラップが発生した場合のNPAに係る経時変化を時系列に示すグラフを表示する方法を説明する。
(Modification 7)
In the above-described modified example, an example has been described in which a graph showing time-dependent changes with respect to a plurality of independent NPAs is identified and displayed, but the present invention is not limited to this. Modification 7 describes a method of displaying a time-series graph showing time-dependent changes related to NPA when a plurality of independent NPAs are united with an elapsed time and an overlap occurs.

図19は、変形例7及び変形例8を説明するための図である。具体的に、図19(a)は、第4の実施形態における変形例7を説明するための図であって、独立した複数のNPAが経過時間とともに合体した場合のNPAの面積の経時変化を時系列に示す情報をグラフとして図示した図である。   FIG. 19 is a diagram for describing Modification 7 and Modification 8. Specifically, FIG. 19A is a diagram for explaining Modification Example 7 of the fourth embodiment, and illustrates a change with time of the area of the NPA when a plurality of independent NPAs are combined with the elapsed time. It is the figure which illustrated the information shown in time series as a graph.

変形例7では、表示制御部150は、図19(a)のグラフを、表示装置400の画面に表示する形態を採りうる。具体的に、図19(a)には、横軸を経過時間とし、縦軸をNPAの面積とした際の、2つ(複数)のNPAの面積の経時変化を時系列に示す情報をグラフ1910及びグラフ1920として図示したものを記載している。また、指標1931から指標1932までの2重線で示したグラフ1930は、上述した2つのNPAが合体した際の合体NPAの面積(総面積)の経時変化を時系列に示す情報を表している。図19(a)の例では、指標1931よりも前の時点では2つのNPAは独立しており、また、指標1932の時点では合体NPAの面積が縮小し、この指標1932よりも後の時点では再度それぞれのNPAが独立してその面積が更に減少する様子を示している。   In the seventh modification, the display control unit 150 may adopt a form in which the graph of FIG. 19A is displayed on the screen of the display device 400. Specifically, FIG. 19A is a graph showing time-series information indicating changes over time in the area of two (plural) NPAs when the horizontal axis represents elapsed time and the vertical axis represents NPA area. What is illustrated as 1910 and graph 1920 is described. Also, a graph 1930 indicated by a double line from the index 1931 to the index 1932 indicates information indicating a time-series change in the area (total area) of the combined NPA when the two NPAs are combined. . In the example of FIG. 19A, the two NPAs are independent before the index 1931, the area of the united NPA is reduced at the time of the index 1932, and the area after the index 1932 is Again, each NPA independently shows a further reduction in its area.

なお、図19(a)に示す変形例7では、2つのNPAに係る面積の経時変化を時系列に示すグラフを表示する例を説明したが、NPAの数は、2つに限らず、3つ以上であってもよい。   Note that, in Modification Example 7 shown in FIG. 19A, an example is described in which a graph showing a time-dependent change in the area of two NPAs is displayed, but the number of NPAs is not limited to two but is three. There may be more than one.

(変形例8)
続いて、変形例8では、定期的な測定の時に、経過時間とともにNPAがいったん消滅した場合(面積がゼロになった場合)のNPAに係る経時変化を時系列に示すグラフを表示する方法を説明する。
(Modification 8)
Subsequently, in a modified example 8, at the time of periodic measurement, a method of displaying a time-series graph showing a temporal change of the NPA when the NPA once disappears (when the area becomes zero) with the elapsed time is displayed. explain.

図19(b)は、第4の実施形態における変形例8を説明するための図であって、経過時間とともにNPAがいったん消滅した場合(面積がゼロになった場合)のNPAの面積の経時変化を時系列に示す情報をグラフとして図示した図である。   FIG. 19B is a diagram for explaining Modification Example 8 of the fourth embodiment, and shows the time lapse of the NPA area when the NPA once disappears (when the area becomes zero) with the lapse of time. It is the figure which illustrated the information which shows a change in time series as a graph.

変形例8では、表示制御部150は、図19(b)のグラフを、表示装置400の画面に表示する形態を採りうる。具体的に、図19(b)には、横軸を経過時間とし、縦軸をNPAの面積とした際の、NPAの面積の経時変化を時系列に示す情報をグラフとして図示したものを記載している。この図19(b)において、グラフ1940は、或る1つのNPAの面積の経時変化を時系列に示す情報を表している。また、図19(b)において、指標1941は、当該或る1つのNPAの面積が0になった時点(当該或る1つのNPAが消滅した時点)を示している。そして、図19(b)において、指標1951の時点で再度、新たな1つのNPAが発生し、グラフ1950は、当該新たな1つのNPAの面積の経時変化を時系列に示す情報を表している。   In the eighth modification, the display control unit 150 may adopt a form in which the graph of FIG. 19B is displayed on the screen of the display device 400. Specifically, FIG. 19 (b) shows, as a graph, information indicating the time-dependent change in the area of the NPA in a time series when the horizontal axis represents the elapsed time and the vertical axis represents the NPA area. doing. In FIG. 19B, a graph 1940 represents information indicating a time-dependent change in the area of a certain NPA in time series. In FIG. 19B, the index 1941 indicates the time when the area of the certain NPA becomes 0 (the time when the certain NPA disappears). Then, in FIG. 19B, another new NPA is generated again at the time of the index 1951, and the graph 1950 represents information indicating a time-dependent change in the area of the new one NPA in a time series. .

なお、図19(b)に示す変形例8では、1つのNPAに係る面積の経時変化を時系列に示すグラフを表示する例を説明したが、これに限らず、例えば、複数のNPAに係る総面積の経時変化を時系列に示すグラフや表、眼底血管画像群を表示してもよい。   Note that, in Modification 8 shown in FIG. 19B, an example is described in which a graph showing a time-dependent change in the area of one NPA is displayed in a time-series manner. A graph, a table, or a fundus blood vessel image group showing the change over time of the total area in time series may be displayed.

以上説明したように、第4の実施形態に係る画像処理装置100によれば、測定された経過時間ごとのNPA情報を保存し、そのNPA情報の経時変化を時系列に表示することで、そのNPA情報の経時変化をわかりやすく提示することができる。   As described above, according to the image processing apparatus 100 according to the fourth embodiment, the measured NPA information for each elapsed time is stored, and the time-dependent change of the NPA information is displayed in a time-series manner. The change with time of the NPA information can be presented in an easily understandable manner.

[その他の実施形態]
上述した本発明の各実施形態では、被検体として被検眼Eの眼底Erを適用した例を説明したが、本発明においてはこれに限定されるものではない。本発明においては、血管画像を取得できる対象であれば、被検眼Eの眼底Er以外の対象も、被検体として適用可能である。また、上述した各実施形態では、被検体の血管画像に対して設定された複数の「位置」として、複数の「シード点」を適用する例について説明を行ったが、本発明においてはこの形態に限定されるものではない。例えば、被検体の血管画像に対して設定された複数の「位置」として、点を含む概念である領域を適用して複数の「シード領域」を適用する形態も、本発明に含まれるものである。即ち、本発明においては、複数の「位置」は、複数の無血管領域が特定できれば、血管画像に対してどのように設定されてもよい。
[Other Embodiments]
In each of the embodiments of the present invention described above, an example is described in which the fundus Er of the eye E to be inspected is applied as a subject, but the present invention is not limited to this. In the present invention, any object other than the fundus Er of the subject's eye E can be applied as a subject as long as it can acquire a blood vessel image. Further, in each of the above-described embodiments, an example has been described in which a plurality of “seed points” are applied as a plurality of “positions” set for a blood vessel image of a subject. However, the present invention is not limited to this. For example, a form in which a plurality of “seed regions” are applied by applying a region that is a concept including a point as a plurality of “positions” set with respect to a blood vessel image of a subject is also included in the present invention. is there. That is, in the present invention, the plurality of “positions” may be set in any way to the blood vessel image as long as a plurality of avascular regions can be specified.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.
This program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   It should be noted that each of the above-described embodiments is merely an example of a concrete example for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features.

100:画像処理装置、110:画像取得部、111:断層画像生成部、112:モーションコントラストデータ生成部、120:記憶部、130:撮影制御部、140:画像処理部、141:位置合わせ部、142:合成部、143:補正部、144:画像特徴取得部、145:投影部、146:解析部、1461:強調部、1462:抽出部、1363:計測部、1464:座標変換部、150:表示制御部、200:断層画像撮影装置、300:入力装置、400:表示装置 100: image processing device, 110: image acquisition unit, 111: tomographic image generation unit, 112: motion contrast data generation unit, 120: storage unit, 130: imaging control unit, 140: image processing unit, 141: positioning unit, 142: synthesis unit, 143: correction unit, 144: image feature acquisition unit, 145: projection unit, 146: analysis unit, 1461: enhancement unit, 1462: extraction unit, 1363: measurement unit, 1464: coordinate conversion unit, 150: Display control unit, 200: tomographic image capturing device, 300: input device, 400: display device

Claims (30)

被検体の血管画像に対して設定された複数の位置に対応する複数の無血管領域を特定する特定手段と、
前記複数の無血管領域における無血管領域同士の重複を判定する判定手段と、
を有することを特徴とする画像処理装置。
Specifying means for specifying a plurality of avascular regions corresponding to a plurality of positions set for the blood vessel image of the subject,
Determining means for determining overlap between avascular regions in the plurality of avascular regions,
An image processing apparatus comprising:
前記判定手段による判定結果に係る情報を表示装置に表示させる表示制御手段を更に有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a display control unit configured to display information on a result of the determination by the determination unit on a display device. 前記判定結果に係る情報は、前記重複が生じている旨の情報および前記重複が生じている無血管領域同士を合わせた領域を示す情報のうちの少なくとも1つを含むことを特徴とする請求項2に記載の画像処理装置。   The information according to the determination result includes at least one of information indicating that the overlap has occurred and information indicating an area obtained by combining the avascular areas in which the overlap has occurred. 3. The image processing device according to 2. 前記表示制御手段は、前記判定手段によって前記無血管領域同士の重複が判定された場合、前記重複が生じている旨の情報を前記表示装置に表示させ、
ユーザーからの指示に応じて、前記無血管領域同士を切り離すか否かを決定する決定手段を更に有することを特徴とする請求項3に記載の画像処理装置。
The display control means, when the determination means determines the overlap between the avascular regions, display information indicating that the overlap has occurred on the display device,
The image processing apparatus according to claim 3, further comprising a determination unit that determines whether or not to separate the avascular regions from each other in accordance with an instruction from a user.
前記表示制御手段は、前記判定手段によって前記無血管領域同士の重複が判定された場合、前記重複が生じている無血管領域同士を合わせた領域を示す情報を前記表示装置に表示させることを特徴とする請求項3または4に記載の画像処理装置。   The display control unit, when the determination unit determines the overlap between the avascular regions, causes the display device to display information indicating a region in which the overlapped avascular regions are combined. The image processing apparatus according to claim 3 or 4, wherein 前記表示制御手段は、前記重複が生じている無血管領域同士を合わせた領域に当該無血管領域の境界線を提示することを特徴とする請求項5に記載の画像処理装置。   6. The image processing apparatus according to claim 5, wherein the display control unit presents a boundary line of the avascular region in a region where the avascular regions in which the overlap occurs are combined. 前記重複が生じている無血管領域同士を合わせた領域を画像処理して、当該無血管領域の境界線を算出する算出手段を更に有することを特徴とする請求項5または6に記載の画像処理装置。   The image processing according to claim 5, further comprising a calculation unit configured to perform image processing on an area in which the overlapping avascular areas are combined and calculate a boundary line of the avascular area. apparatus. 前記算出手段は、前記重複が生じている無血管領域同士を合わせた領域に対してぼかし処理を行った後、当該ぼかし処理の結果画像に対して画素値に基づく等高線を算出し、当該等高線を用いて前記境界線を算出することを特徴とする請求項7に記載の画像処理装置。   The calculating means, after performing a blurring process on the combined region of the avascular region where the overlap occurs, calculates a contour line based on a pixel value on the image of the blurring process, and calculates the contour line. The image processing apparatus according to claim 7, wherein the boundary line is calculated using the image data. 前記算出手段は、前記画像処理としてMorphological画像処理を用いて、前記境界線を算出することを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the calculation unit calculates the boundary using Morphological image processing as the image processing. 前記表示制御手段は、前記境界線によって画定された前記無血管領域同士のそれぞれの無血管領域を、異なる表示態様で前記表示装置に表示させることを特徴とする請求項6乃至9のいずれか1項に記載の画像処理装置。   10. The display control device according to claim 6, wherein each of the avascular regions defined by the boundary line is displayed on the display device in a different display mode. An image processing apparatus according to the item. 前記表示制御手段は、前記境界線によって画定された前記無血管領域同士のそれぞれの無血管領域の面積、および、当該それぞれの無血管領域の面積を合計した合計面積のうち、少なくとも1つの面積を前記表示装置に表示させることを特徴とする請求項6乃至10のいずれか1項に記載の画像処理装置。   The display control means may determine at least one area of an area of each of the avascular regions between the avascular regions defined by the boundary line and a total area obtained by summing the areas of the respective avascular regions. The image processing device according to claim 6, wherein the image is displayed on the display device. 前記特定手段は、第1の時間に前記被検体を撮影して得た第1の血管画像において設定された複数の位置に関する情報を用いて、前記第1の時間とは異なる第2の時間に前記被検体を撮影して得た第2の血管画像における複数の無血管領域を特定し、
前記表示制御手段は、前記第1の血管画像および前記第2の血管画像において前記特定された複数の無血管領域のうち少なくとも1つの無血管領域であって、前記少なくとも1つの無血管領域における計測値の経時変化を時系列に示す情報を前記表示装置に更に表示させることを特徴とする請求項2乃至11のいずれか1項に記載の画像処理装置。
The specifying means may use information about a plurality of positions set in a first blood vessel image obtained by imaging the subject at a first time, at a second time different from the first time. Specifying a plurality of avascular regions in a second blood vessel image obtained by imaging the subject,
The display control unit is configured to measure at least one avascular region among the plurality of avascular regions identified in the first blood vessel image and the second blood vessel image, and to measure the at least one avascular region. The image processing apparatus according to claim 2, wherein information indicating a change with time of the value over time is further displayed on the display device.
前記表示制御手段は、前記時系列に示す情報として、グラフ、表、および、前記無血管領域を含む前記血管画像のうち、少なくともいずれか1つを前記表示装置に表示させることを特徴とする請求項12に記載の画像処理装置。   The display control means causes the display device to display at least one of a graph, a table, and the blood vessel image including the avascular region as the information shown in the time series. Item 13. The image processing device according to item 12. 前記表示制御手段は、前記複数の無血管領域のそれぞれの無血管領域における計測値の経時変化を時系列に示す情報を前記表示装置に表示させるものであって、前記それぞれの無血管領域における前記時系列に示す情報を異なる表示態様で表示させることを特徴とする請求項12または13に記載の画像処理装置。   The display control means is for displaying, on the display device, information indicating a chronological change of a measurement value in each of the avascular regions in the plurality of avascular regions on the display device, and 14. The image processing apparatus according to claim 12, wherein information displayed in a time series is displayed in different display modes. 前記表示制御手段は、前記それぞれの無血管領域における前記時系列に示す情報を前記表示装置に表示させる際に、前記それぞれの無血管領域を含む前記血管画像も前記表示装置に表示させることを特徴とする請求項14に記載の画像処理装置。   The display control means, when displaying the time-series information in the respective avascular regions on the display device, also displays the blood vessel image including the respective avascular regions on the display device. The image processing apparatus according to claim 14, wherein 前記表示制御手段は、前記複数の無血管領域が経過時間とともに合体した場合には、前記時系列に示す情報として、前記合体した無血管領域における計測値の経時変化を時系列に示す情報を表示することを特徴とする請求項14に記載の画像処理装置。   The display control means, when the plurality of avascular regions are united together with the elapsed time, displays, as the time-series information, information indicating the temporal change of the measurement value in the united avascular region in a time-series manner. The image processing apparatus according to claim 14, wherein: 前記血管画像に対して、前記複数の位置を設定する設定手段を更に有し、
前記特定手段は、前記設定手段で設定された前記複数の位置に対応する前記複数の無血管領域を特定することを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
The blood vessel image further includes a setting unit that sets the plurality of positions,
17. The image processing apparatus according to claim 1, wherein the specifying unit specifies the plurality of avascular regions corresponding to the plurality of positions set by the setting unit.
前記設定手段は、ユーザーからの指定に応じて、前記複数の位置を設定することを特徴とする請求項17に記載の画像処理装置。   18. The image processing apparatus according to claim 17, wherein the setting unit sets the plurality of positions according to a designation from a user. 前記設定手段は、前記特定手段によって特定された前記複数の無血管領域に応じて、追加する前記位置である追加位置を更に設定し、
前記特定手段は、前記追加位置を用いて前記無血管領域の特定を更に行うことを特徴とする請求項17または18に記載の画像処理装置。
The setting means further sets an additional position, which is the position to be added, according to the plurality of avascular regions specified by the specifying means,
19. The image processing apparatus according to claim 17, wherein the specifying unit further specifies the avascular region using the additional position.
前記被検体における過去の前記無血管領域に係る過去情報を記憶する記憶手段を更に有し、
前記設定手段は、前記過去情報を用いて前記位置を設定することを特徴とする請求項17乃至19のいずれか1項に記載の画像処理装置。
Further having a storage means for storing past information related to the past avascular region in the subject,
20. The image processing apparatus according to claim 17, wherein the setting unit sets the position using the past information.
前記設定手段は、前記血管画像において前記過去の無血管領域に対応する領域の重心位置に、前記位置を設定することを特徴とする請求項20に記載の画像処理装置。   21. The image processing apparatus according to claim 20, wherein the setting unit sets the position at a center of gravity of a region corresponding to the past avascular region in the blood vessel image. 前記重複が生じている無血管領域同士を合わせた領域を表示装置に表示させる表示制御手段を更に有し、
前記表示制御手段は、前記重複が生じている無血管領域同士を合わせた領域において前記過去の無血管領域に対して変化した部分を識別可能に前記表示装置に表示させることを特徴とする請求項20または21に記載の画像処理装置。
Further having a display control means for displaying on the display device an area obtained by combining the avascular areas where the overlap occurs,
The display control means displays on the display device a portion that has changed from the past avascular region in a region where the overlapping avascular regions are combined with each other. 22. The image processing device according to 20 or 21.
前記判定手段は、前記複数の無血管領域のマスク画像を用いて当該マスク画像においてオーバーラップする共通領域が存在する場合に、前記重複を判定することを特徴とする請求項1乃至22のいずれか1項に記載の画像処理装置。   23. The method according to claim 1, wherein the determining unit determines the overlap using a mask image of the plurality of avascular regions when there is an overlapping common region in the mask image. 2. The image processing device according to claim 1. 第1の時間に被検体を撮影して得た第1の血管画像において設定された位置に対応する無血管領域を特定し、前記第1の時間とは異なる第2の時間に前記被検体を撮影して得た第2の血管画像における無血管領域を、前記設定された位置に関する情報を用いて特定する特定手段と、
前記第1の血管画像および前記第2の血管画像において前記特定された無血管領域における計測値の経時変化を時系列に示す情報を表示装置に表示させる表示制御手段と、
を有することを特徴とする画像処理装置。
An avascular region corresponding to a position set in a first blood vessel image obtained by imaging the subject at a first time is specified, and the subject is identified at a second time different from the first time. Specifying means for specifying an avascular region in a second blood vessel image obtained by imaging using information on the set position;
Display control means for displaying, on a display device, information indicating a chronological change of measured values in the specified avascular region in the first blood vessel image and the second blood vessel image in a time series;
An image processing apparatus comprising:
測定光が前記被検体の同一位置を走査するように制御して得た複数の断層画像を用いてモーションコントラストを前記血管画像として生成する生成手段を更に有することを特徴とする請求項1乃至24のいずれか1項に記載の画像処理装置。   25. The apparatus according to claim 1, further comprising a generating unit configured to generate a motion contrast as the blood vessel image using a plurality of tomographic images obtained by controlling the measurement light to scan the same position of the subject. The image processing device according to any one of claims 1 to 4. 当該画像処理装置は、
前記被検体に対して前記測定光を走査する走査手段と、前記測定光を照射した前記被検体からの戻り光と前記測定光に対応する参照光とを合波して得た合波光を検出する検出手段と、を有する撮影装置と通信可能に接続する
ことを特徴とする請求項25に記載の画像処理装置。
The image processing device includes:
Scanning means for scanning the measurement light with respect to the subject; detecting combined light obtained by combining return light from the subject irradiated with the measurement light and reference light corresponding to the measurement light; 26. The image processing apparatus according to claim 25, wherein the image processing apparatus is communicably connected to a photographing apparatus having:
前記被検体は、被検眼の眼底であることを特徴とする請求項1乃至26のいずれか1項に記載の画像処理装置。   27. The image processing apparatus according to claim 1, wherein the subject is a fundus of a subject's eye. 被検体の血管画像に対して設定された複数の位置に対応する複数の無血管領域を特定する特定ステップと、
前記複数の無血管領域における無血管領域同士の重複を判定する判定ステップと、
を有することを特徴とする画像処理方法。
A specifying step of specifying a plurality of avascular regions corresponding to a plurality of positions set for a blood vessel image of the subject,
A judging step of judging an overlap between the avascular regions in the plurality of avascular regions;
An image processing method comprising:
第1の時間に被検体を撮影して得た第1の血管画像において設定された位置に対応する無血管領域を特定し、前記第1の時間とは異なる第2の時間に前記被検体を撮影して得た第2の血管画像における無血管領域を、前記設定された位置に関する情報を用いて特定する特定ステップと、
前記第1の血管画像および前記第2の血管画像において前記特定された無血管領域における計測値の経時変化を時系列に示す情報を表示装置に表示させる表示制御ステップと、
を有することを特徴とする画像処理方法。
An avascular region corresponding to a position set in a first blood vessel image obtained by imaging the subject at a first time is specified, and the subject is identified at a second time different from the first time. A specifying step of specifying an avascular region in the second blood vessel image obtained by imaging using the information on the set position;
A display control step of displaying, on a display device, information indicating a chronological change of the measurement value in the specified avascular region in the first blood vessel image and the second blood vessel image in a time series;
An image processing method comprising:
コンピュータを、請求項1乃至27のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 27.
JP2019177555A 2018-09-28 2019-09-27 Image processing device, image processing method and program Pending JP2020054812A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018185713 2018-09-28
JP2018185713 2018-09-28

Publications (1)

Publication Number Publication Date
JP2020054812A true JP2020054812A (en) 2020-04-09

Family

ID=70105797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019177555A Pending JP2020054812A (en) 2018-09-28 2019-09-27 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2020054812A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724236A (en) * 2021-09-03 2021-11-30 深圳技术大学 OCT image detection method based on attention mechanism and related equipment
JP2022092689A (en) * 2020-12-11 2022-06-23 キヤノン株式会社 Ophthalmologic analysis device and analysis processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022092689A (en) * 2020-12-11 2022-06-23 キヤノン株式会社 Ophthalmologic analysis device and analysis processing program
JP7305608B2 (en) 2020-12-11 2023-07-10 キヤノン株式会社 Ophthalmic analysis device, ophthalmic analysis program
CN113724236A (en) * 2021-09-03 2021-11-30 深圳技术大学 OCT image detection method based on attention mechanism and related equipment
CN113724236B (en) * 2021-09-03 2023-06-09 深圳技术大学 OCT image detection method and related equipment based on attention mechanism

Similar Documents

Publication Publication Date Title
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
JP6025349B2 (en) Image processing apparatus, optical coherence tomography apparatus, image processing method, and optical coherence tomography method
JP2012196439A (en) Image photographing apparatus and image photographing method
JP2018019771A (en) Optical coherence tomography device and optical coherence tomography control program
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP6633468B2 (en) Blood flow measurement device
JP7195745B2 (en) Image processing device, image processing method and program
JP2020054812A (en) Image processing device, image processing method and program
JP2020039430A (en) Image processing device, image processing method and program
JP7106304B2 (en) Image processing device, image processing method and program
WO2017069019A1 (en) Blood flow measurement device
JP2017158867A (en) Ophthalmological imaging apparatus
JP6646021B2 (en) Ophthalmic image processing device
JP7297952B2 (en) Information processing device, information processing method and program
JP7246862B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP2018191761A (en) Information processing device, information processing method, and program
JP7262929B2 (en) Image processing device, image processing method and program
JP7204345B2 (en) Image processing device, image processing method and program
JP7086683B2 (en) Image processing equipment, image processing methods and programs
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP7228647B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP7068366B2 (en) Blood flow measuring device
JP7327954B2 (en) Image processing device and image processing method
JP7013201B2 (en) Optical coherence tomography equipment, image processing equipment and methods thereof
JP2018000373A (en) Ophthalmologic imaging apparatus, control method thereof, and program