JP6860884B2 - Image processing equipment, fundus imaging system, image processing method, and program - Google Patents

Image processing equipment, fundus imaging system, image processing method, and program Download PDF

Info

Publication number
JP6860884B2
JP6860884B2 JP2018547816A JP2018547816A JP6860884B2 JP 6860884 B2 JP6860884 B2 JP 6860884B2 JP 2018547816 A JP2018547816 A JP 2018547816A JP 2018547816 A JP2018547816 A JP 2018547816A JP 6860884 B2 JP6860884 B2 JP 6860884B2
Authority
JP
Japan
Prior art keywords
image
region
detection
area
optical interference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018547816A
Other languages
Japanese (ja)
Other versions
JPWO2018079765A1 (en
Inventor
達朗 石橋
達朗 石橋
康平 園田
康平 園田
新太郎 中尾
新太郎 中尾
克己 薮崎
克己 薮崎
伸 田中
伸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Kowa Co Ltd
Original Assignee
Kyushu University NUC
Kowa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Kowa Co Ltd filed Critical Kyushu University NUC
Publication of JPWO2018079765A1 publication Critical patent/JPWO2018079765A1/en
Application granted granted Critical
Publication of JP6860884B2 publication Critical patent/JP6860884B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Description

本発明は、画像処理装置、眼底撮像システム、画像処理方法、およびプログラムに関する。
本願は、2016年10月31日に、日本に出願された特願2016‐213815号に基づき優先権を主張し、その内容をここに援用する。
The present invention relates to an image processing apparatus, a fundus imaging system, an image processing method, and a program.
The present application claims priority based on Japanese Patent Application No. 2016-213815 filed in Japan on October 31, 2016, the contents of which are incorporated herein by reference.

OCT(Optical Coherence Tomography)を用いて眼底の断層像を撮像する装置(以下、OCT撮像装置と称する)が知られている。OCT撮像装置により撮像された画像(以下、OCT画像と称する)から、Hyperreflective foci(以下、HRFと称する)と呼ばれる高輝度部位が観測される場合がある。このHRFは、リポタンパクやマクロファージを表すものだといわれている。近年、糖尿病網膜症を患った患者の眼球のOCT画像から観測されたHRFの数と、その患者の視機能とに関連があるという学術的報告がなされている。 An apparatus (hereinafter referred to as an OCT imaging apparatus) for imaging a tomographic image of the fundus using OCT (Optical Coherence Tomography) is known. From the image captured by the OCT imaging device (hereinafter referred to as OCT image), a high-intensity portion called Hyperreflective foci (hereinafter referred to as HRF) may be observed. This HRF is said to represent lipoproteins and macrophages. In recent years, academic reports have been made that there is a relationship between the number of HRF observed from OCT images of the eyeballs of patients suffering from diabetic retinopathy and the visual function of the patients.

特開2015−160105号公報Japanese Unexamined Patent Publication No. 2015-160105

Yabusaki, Katsumi, Joshua D. Hutcheson, Payal Vyas, Sergio Bertazzo, Simon C. Body, Masanori Aikawa, and Elena Aikawa. 2016. “Quantification of Calcified Particles in Human Valve Tissue Reveals Asymmetry of Calcific Aortic Valve Disease Development.” Frontiers in Cardiovascular Medicine 3 (1): 44.doi:10.3389/fcvm.2016.00044. http://dx.doi.org/10.3389/fcvm.2016.00044.Yabusaki, Katsumi, Joshua D. Hutcheson, Payal Vyas, Sergio Bertazzo, Simon C. Body, Masanori Aikawa, and Elena Aikawa. 2016. “Quantification of Calcified Particles in Human Valve Tissue Reveals Asymmetry of Calcific Aortic Valve Disease Development.” Frontiers in Cardiovascular Medicine 3 (1): 44.doi: 10.3389 / fcvm.2016.00044. Http://dx.doi.org/10.3389/fcvm.2016.00044.

しかしながら、従来の技術では、医師などがOCT画像からHRFを認識していたが、画像処理によってHRFを検出するのは困難であった。 However, in the conventional technique, although doctors and the like recognize HRF from OCT images, it is difficult to detect HRF by image processing.

本発明は、このような事情を考慮してなされたものであり、OCT画像から画像処理によって、HRFなどの眼球(網膜)に生じた事象を検出することができる画像処理装置、眼底撮像システム、画像処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and is an image processing device, a fundus imaging system, which can detect an event occurring in the eyeball (retina) such as HRF by image processing from an OCT image. One of the purposes is to provide an image processing method and a program.

上記問題を解決する本発明の一態様は、光干渉断層法により眼球に光を照射することで生成され、第1方向の解像度が、前記第1方向に直交する第2方向の解像度に比して高い複数の光干渉断層画像であって、前記第1方向および前記第2方向のそれぞれと直交する第3方向に並べられた複数の光干渉断層画像を取得する取得部と、前記取得部により取得された複数の光干渉断層画像により形成される仮想的な三次元画像において、検出領域と、前記検出領域を囲む領域内に設定される対照領域との画素値の比較に基づいて、前記検出領域が、前記眼球において所定の事象が発生している所定の画像領域であるのか否かを判定する判定部と、を備える画像処理装置である。 One aspect of the present invention that solves the above problem is generated by irradiating the eyeball with light by the optical interference tomography method, and the resolution in the first direction is compared with the resolution in the second direction orthogonal to the first direction. A plurality of high optical interference tomographic images, which are obtained by an acquisition unit for acquiring a plurality of optical interference tomographic images arranged in a third direction orthogonal to each of the first direction and the second direction, and the acquisition unit. In a virtual three-dimensional image formed by a plurality of acquired optical interference tomographic images, the detection is based on a comparison of pixel values between the detection region and a control region set in the region surrounding the detection region. An image processing device including a determination unit for determining whether or not the region is a predetermined image region in which a predetermined event occurs in the eyeball.

本発明によれば、OCT画像から画像処理によって、HRFなどの眼球に生じた事象を検出することができる。 According to the present invention, it is possible to detect an event occurring in the eyeball such as HRF by image processing from an OCT image.

第1実施形態における画像処理装置200を含む眼底撮像システム1の構成の一例を示す図である。It is a figure which shows an example of the structure of the fundus imaging system 1 including the image processing apparatus 200 in 1st Embodiment. OCTユニット110の構成の一例を示す図である。It is a figure which shows an example of the structure of the OCT unit 110. 画像処理装置200の構成の一例を示す図である。It is a figure which shows an example of the structure of the image processing apparatus 200. OCT三次元データ212を模式的に示す図である。It is a figure which shows typically the OCT three-dimensional data 212. 走査位置情報214の一例を示す図である。It is a figure which shows an example of the scanning position information 214. 制御部220による一連の処理の一例を示すフローチャートである。It is a flowchart which shows an example of a series of processing by a control unit 220. セグメンテーション処理を説明するための図である。It is a figure for demonstrating the segmentation process. セグメンテーション処理を説明するための図である。It is a figure for demonstrating the segmentation process. 高輝度部位の抽出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the extraction process of a high-luminance part. 対照領域Rbの設定方法の一例を説明するための図である。It is a figure for demonstrating an example of the setting method of the control region Rb. 対照領域Rbの設定方法の一例を説明するための図である。It is a figure for demonstrating an example of the setting method of the control region Rb. 対照領域Rbの設定方法の一例を説明するための図である。It is a figure for demonstrating an example of the setting method of the control region Rb. 対照領域Rbの設定方法の他の例を説明するための図である。It is a figure for demonstrating another example of the setting method of a control region Rb. 対照領域Rbの設定方法の他の例を説明するための図である。It is a figure for demonstrating another example of the setting method of a control region Rb. 対照領域Rbの設定方法の他の例を説明するための図である。It is a figure for demonstrating another example of the setting method of a control region Rb. 画像領域グループGPの生成方法の一例を示す図である。It is a figure which shows an example of the generation method of the image area group GP. 画像領域グループGPの生成方法の一例を示す図である。It is a figure which shows an example of the generation method of the image area group GP. 画像領域グループGPの生成方法の一例を示す図である。It is a figure which shows an example of the generation method of the image area group GP. 画像領域グループGPの生成方法の他の例を示す図である。It is a figure which shows another example of the generation method of the image area group GP. 画像領域グループGPの生成方法の他の例を示す図である。It is a figure which shows another example of the generation method of the image area group GP. 画像領域グループGPの生成方法の他の例を示す図である。It is a figure which shows another example of the generation method of the image area group GP. 診断判定部234による診断結果に基づく画像が表示された表示部204の一例を示す図である。It is a figure which shows an example of the display unit 204 which displayed the image based on the diagnosis result by the diagnosis determination unit 234. 検出領域Raとの間にギャップを設けて対照領域Rbを設定する方法の一例を説明するための図である。It is a figure for demonstrating an example of the method of setting the control region Rb by providing the gap with the detection region Ra. 検出領域Raと対照領域Rbとの間にギャップを設けない場合の高輝度部位の検出結果の一例を示す図である。It is a figure which shows an example of the detection result of the high-luminance part when the gap is not provided between the detection area Ra and the control area Rb. 検出領域Raと対照領域Rbとの間にギャップを設けた場合の高輝度部位の検出結果の一例を示す図である。It is a figure which shows an example of the detection result of the high-luminance part when the gap is provided between the detection area Ra and the control area Rb. ギャップを設けるときの対照領域Rbの設定方法のバリエーションの一例を示す図である。It is a figure which shows an example of the variation of the setting method of the control region Rb when providing a gap. ギャップを設けるときの対照領域Rbの設定方法のバリエーションの一例を示す図である。It is a figure which shows an example of the variation of the setting method of the control region Rb when providing a gap. ギャップを設けるときの対照領域Rbの設定方法のバリエーションの一例を示す図である。It is a figure which shows an example of the variation of the setting method of the control region Rb when providing a gap. ギャップを設けるときの対照領域Rbの設定方法のバリエーションの一例を示す図である。It is a figure which shows an example of the variation of the setting method of the control region Rb when providing a gap. ギャップを設けるときの対照領域Rbの設定方法のバリエーションの一例を示す図である。It is a figure which shows an example of the variation of the setting method of the control region Rb when providing a gap. 実施形態の画像処理装置200のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the image processing apparatus 200 of an embodiment.

以下、図面を参照し、本発明の画像処理装置、眼底撮像システム、画像処理方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the image processing apparatus, fundus imaging system, image processing method, and program of the present invention will be described with reference to the drawings.

(第1実施形態)
[全体構成]
図1は、第1実施形態における画像処理装置200を含む眼底撮像システム1の構成の一例を示す図である。眼底撮像システム1は、例えば、OCT撮像装置(光干渉断層画像撮像装置)100と、画像処理装置200とを備える。本実施形態におけるOCT撮像装置100は、人間などの眼球Eに光を照射し、その光の反射光と照射した一部の光とが互いに干渉した干渉光を計測することで、眼球E内部の変位を測定する装置である。これによって、例えば、網膜を含む眼底Erが写し出されたOCT画像IMが取得される。本実施形態におけるOCT撮像装置100は、眼球Eの深さ方向(図中z方向)の分解能が、その深さ方向に直交する方向(例えば図中x方向)の分解能に比して高いものとする。深さ方向の分解能は、例えば、2[μm]程度である。また、本実施形態におけるOCT撮像装置100は、スペクトラルドメインOCT(Spectral-domain OCT;SD-OCT)や波長掃引OCT(Swept-source OCT;SS-OCT)等のフーリエドメインOCT(Fourier-domain OCT;FD-OCT)として説明するが、これに限られない。OCT撮像装置100は、例えば、タイムドメインOCT(Time-domain OCT;TD-OCT)やその他の方式を採用したものであってもよい。
(First Embodiment)
[overall structure]
FIG. 1 is a diagram showing an example of a configuration of a fundus imaging system 1 including an image processing device 200 according to the first embodiment. The fundus imaging system 1 includes, for example, an OCT imaging device (optical coherence tomography imaging device) 100 and an image processing device 200. The OCT imaging device 100 in the present embodiment irradiates the eyeball E of a human or the like with light, and measures the interference light in which the reflected light of the light and a part of the irradiated light interfere with each other to measure the interference light inside the eyeball E. It is a device that measures displacement. As a result, for example, an OCT image IM in which the fundus Er including the retina is projected is acquired. In the OCT imaging apparatus 100 of the present embodiment, the resolution of the eyeball E in the depth direction (z direction in the figure) is higher than the resolution in the direction orthogonal to the depth direction (for example, the x direction in the figure). To do. The resolution in the depth direction is, for example, about 2 [μm]. Further, the OCT imaging device 100 in the present embodiment includes Fourier-domain OCT (Fourier-domain OCT) such as Spectral-domain OCT (SD-OCT) and Swept-source OCT (SS-OCT). FD-OCT), but is not limited to this. The OCT imaging apparatus 100 may employ, for example, a time domain OCT (TD-OCT) or other method.

画像処理装置200は、OCT撮像装置100により生成されたOCT画像IMに対して種々の画像処理を行って、OCT画像IMから、眼球Eにおいて所定の事象が発生している画像領域を抽出する。所定の事象とは、例えば、HRFである。例えば、画像処理装置200は、OCT画像IMからHRFを示す高輝度部位を抽出する。 The image processing device 200 performs various image processing on the OCT image IM generated by the OCT image pickup device 100, and extracts an image region in which a predetermined event occurs in the eyeball E from the OCT image IM. The predetermined event is, for example, HRF. For example, the image processing device 200 extracts a high-brightness portion indicating HRF from the OCT image IM.

[OCT撮像装置の構成]
以下、眼底撮像システム1における各装置について説明する。図1に示すように、OCT撮像装置100は、例えば、OCTユニット110と、照明光学系120と、撮像光学系130とを備える。OCTユニット110は、光を照射すると共に、反射光と照射光とを干渉させてOCT画像IMを生成する。OCTユニット110と撮像光学系130は、例えば、光ファイバFaによって互いに接続される。OCTユニット110により照射された照射光は、光ファイバFaを介して撮像光学系130に導光される。また、OCTユニット110により照射された照射光は、光ファイバFaを介して撮像光学系130に導光される。
[Configuration of OCT imaging device]
Hereinafter, each device in the fundus imaging system 1 will be described. As shown in FIG. 1, the OCT imaging device 100 includes, for example, an OCT unit 110, an illumination optical system 120, and an imaging optical system 130. The OCT unit 110 irradiates light and causes the reflected light and the irradiation light to interfere with each other to generate an OCT image IM. The OCT unit 110 and the imaging optical system 130 are connected to each other by, for example, an optical fiber Fa. The irradiation light emitted by the OCT unit 110 is guided to the imaging optical system 130 via the optical fiber Fa. Further, the irradiation light emitted by the OCT unit 110 is guided to the imaging optical system 130 via the optical fiber Fa.

図2は、OCTユニット110の構成の一例を示す図である。図示の例のように、OCTユニット110は、光源111と、信号検出部112と、光カプラ113と、光ファイバ113aから113dと、参照光側コリメータ114および117と、ガラスブロック115と、フィルタ116と、参照ミラー118とを備える。 FIG. 2 is a diagram showing an example of the configuration of the OCT unit 110. As shown in the illustrated example, the OCT unit 110 includes a light source 111, a signal detection unit 112, an optical coupler 113, an optical fiber 113a to 113d, a reference optical collimator 114 and 117, a glass block 115, and a filter 116. And a reference mirror 118.

光源111は、例えば、近赤外(例えば700〜1100nm程度)の波長の照射光(プローブ光)を照射する。光源111は、例えば、SLD(スーパールミネッセントダイオード)や超短波パルスレーザ等の波長掃引光源であってよい。 The light source 111 irradiates, for example, irradiation light (probe light) having a wavelength of near infrared rays (for example, about 700 to 1100 nm). The light source 111 may be, for example, a wavelength sweep light source such as an SLD (super luminescent diode) or an ultra-short wave pulse laser.

光源111から照射された照射光は、光ファイバ113a内を導光し、光カプラ113によって、参照光側コリメータ114側へ導光される光と、光ファイバFa側、すなわち撮像光学系130側へ導光される光とに分割される。以下、参照光側コリメータ114側へ導光する光を、「参照光LR」と称し、撮像光学系130側へ導光する光を、「測定光LS」と称する。 The irradiation light emitted from the light source 111 guides the inside of the optical fiber 113a to the light guided to the reference light side collimator 114 side by the optical coupler 113 and to the optical fiber Fa side, that is, the imaging optical system 130 side. It is divided into light that is guided. Hereinafter, the light that guides the light to the reference light side collimator 114 side is referred to as "reference light LR", and the light that guides the light to the imaging optical system 130 side is referred to as "measurement light LS".

参照光LRは、例えば、光ファイバ113bを介して参照光側コリメータ114に導光され、参照光側コリメータ114によって平行光に変化される。その後平行光は、ガラスブロック115およびフィルタ116を通過して参照光側コリメータ117に導光される。ガラスブロック115およびフィルタ116は、参照光LRと測定光LSとの光路長を合わせたり、分散特性を合わせたりするために設けられる。参照光側コリメータ117に導光された平行光は、参照光側コリメータ117によって集光される。参照光側コリメータ117によって集光された光(参照光)は、参照ミラー118によって反射される。参照ミラー118によって反射された参照光は、例えば、参照光側コリメータ117によって平行光に変化され、その後平行光が参照光側コリメータ114によって集光され、光ファイバ113bを介して光カプラ113に導光される。なお、OCT撮像装置100がタイムドメインOCTの場合、参照ミラー118を固定せず、光源111から参照ミラー118までの光路長を変化させるように参照ミラー118或いは他の光学系を駆動可能な状態にしておいてよい。 The reference light LR is guided to the reference light side collimator 114 via the optical fiber 113b, and is changed to parallel light by the reference light side collimator 114, for example. The parallel light then passes through the glass block 115 and the filter 116 and is guided to the reference light side collimator 117. The glass block 115 and the filter 116 are provided to match the optical path lengths of the reference light LR and the measurement light LS, and to match the dispersion characteristics. The parallel light guided by the reference light side collimator 117 is collected by the reference light side collimator 117. The light (reference light) collected by the reference light side collimator 117 is reflected by the reference mirror 118. The reference light reflected by the reference mirror 118 is changed to parallel light by, for example, the reference light side collimator 117, and then the parallel light is collected by the reference light side collimator 114 and guided to the optical coupler 113 via the optical fiber 113b. Be lit. When the OCT imaging device 100 is a time domain OCT, the reference mirror 118 is not fixed, and the reference mirror 118 or another optical system can be driven so as to change the optical path length from the light source 111 to the reference mirror 118. You can keep it.

一方、測定光LSは、光ファイバ113cおよびFaを介して撮像光学系130に導光され、眼球Eに照射される。眼球Eに照射された測定光LS(反射光)は、眼球Eの反射面(眼底Erなど)にて反射され、光ファイバ113cおよびFaに入射される。 On the other hand, the measurement light LS is guided to the imaging optical system 130 via the optical fiber 113c and Fa, and is irradiated to the eyeball E. The measurement light LS (reflected light) applied to the eyeball E is reflected by the reflecting surface of the eyeball E (such as the fundus Er) and is incident on the optical fibers 113c and Fa.

光カプラ113は、参照ミラー118によって反射された参照光LRと眼球Eにて反射された測定光LSとを、例えば同軸の光ファイバ113dを介して、信号検出部112に導光する。光ファイバ113dに導光される参照光LRおよび測定光LSは、光カプラ113内部において互いに干渉する。以下、互いに干渉した参照光LRおよび測定光LSを、「干渉光LC」と称する。 The optical coupler 113 guides the reference light LR reflected by the reference mirror 118 and the measurement light LS reflected by the eyeball E to the signal detection unit 112 via, for example, a coaxial optical fiber 113d. The reference light LR and the measurement light LS guided to the optical fiber 113d interfere with each other inside the optical coupler 113. Hereinafter, the reference light LR and the measurement light LS that interfere with each other are referred to as “interference light LC”.

信号検出部112は、例えば、干渉光側コリメータレンズ112aと、回折格子112bと、結像レンズ112cと、受光素子112dとを備える。信号検出部112に導光された干渉光LCは、干渉光側コリメータレンズ112aを介して平行光に変化された後、回折格子112bによって分光される。回折格子112bによって分光された光は、結像レンズ112cによって、受光素子112dの受光面に結像される。受光素子112dは、例えば、CCD(Charge Coupled Device)等のフォトダイオードセンサであり、結像レンズ112cを介した光を検出し、検出した光に応じた検出信号を生成する。そして、信号検出部112は、撮像光学系130による照射光の走査に応じて順次生成する検出信号に基づいて、眼球Eの深さ方向(図中z方向)の断層を示すOCT画像(光干渉断層画像)IMを生成する。OCT画像IMは、所謂Bモード画像、或いはBスキャン画像のことである。 The signal detection unit 112 includes, for example, an interference light side collimator lens 112a, a diffraction grating 112b, an imaging lens 112c, and a light receiving element 112d. The interference light LC guided by the signal detection unit 112 is converted into parallel light via the interference light side collimator lens 112a and then separated by the diffraction grating 112b. The light dispersed by the diffraction grating 112b is imaged on the light receiving surface of the light receiving element 112d by the imaging lens 112c. The light receiving element 112d is, for example, a photodiode sensor such as a CCD (Charge Coupled Device), detects light through the imaging lens 112c, and generates a detection signal according to the detected light. Then, the signal detection unit 112 displays an OCT image (optical interference) showing a fault in the depth direction (z direction in the figure) of the eyeball E based on the detection signals sequentially generated according to the scanning of the irradiation light by the imaging optical system 130. Tomographic image) Generate IM. The OCT image IM is a so-called B-mode image or a B-scan image.

図1の説明に戻る。照明光学系120は、例えば、ハロゲンランプやキセノンランプ等の照明用の光源(不図示)を備え、この光源から照射された光を眼底Erに導光することで眼底Erを照らす。 Returning to the description of FIG. The illumination optical system 120 includes, for example, a light source for illumination (not shown) such as a halogen lamp or a xenon lamp, and illuminates the fundus Er by guiding the light emitted from the light source to the fundus Er.

撮像光学系130は、眼底Erにおいて反射された反射光を、光ファイバFaを介してOCTユニット110側に導光する。また、撮像光学系130は、OCTユニット110から光ファイバFaを介して導光された照射光を走査しながら眼球Eに導光する。例えば、撮像光学系130は、コリメータやガルバノミラー(いずれも不図示)などを備え、眼球Eに対して照射される照射光の照射方向(図中z方向)を、その照射方向に対して直交する水平方向(図中x方向またはy方向)に関して変更する。すなわち、撮像光学系130は、ラスタースキャン方式によって照射光を走査する。これによって、眼球Eに照射される照射光は、x方向およびy方向に関して走査されることになる。 The imaging optical system 130 guides the reflected light reflected by the fundus Er to the OCT unit 110 side via the optical fiber Fa. Further, the imaging optical system 130 guides the eyeball E to the eyeball E while scanning the irradiation light guided from the OCT unit 110 via the optical fiber Fa. For example, the imaging optical system 130 includes a collimator, a galvanometer mirror (not shown), and the like, and the irradiation direction (z direction in the figure) of the irradiation light emitted to the eyeball E is orthogonal to the irradiation direction. Change with respect to the horizontal direction (x direction or y direction in the figure). That is, the imaging optical system 130 scans the irradiation light by the raster scan method. As a result, the irradiation light applied to the eyeball E is scanned in the x-direction and the y-direction.

[画像処理装置の構成]
図3は、画像処理装置200の構成の一例を示す図である。図示の例のように、画像処理装置200は、通信インターフェース202と、表示部204と、記憶部210と、制御部220とを備える。
[Configuration of image processing device]
FIG. 3 is a diagram showing an example of the configuration of the image processing device 200. As shown in the illustrated example, the image processing device 200 includes a communication interface 202, a display unit 204, a storage unit 210, and a control unit 220.

通信インターフェース202は、例えば、有線または無線によってOCT撮像装置100と通信を行う。また、通信インターフェース202は、OCT撮像装置100以外の他装置と通信を行ってもよい。 The communication interface 202 communicates with the OCT imaging device 100 by wire or wirelessly, for example. Further, the communication interface 202 may communicate with other devices other than the OCT imaging device 100.

表示部204は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどの表示装置である。 The display unit 204 is, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) display.

記憶部210は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)等により実現される。記憶部210は、例えば、制御部220において参照されるプログラムや、OCT三次元データ212、走査位置情報214等を格納する。 The storage unit 210 is realized by, for example, an HDD (Hard Disc Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The storage unit 210 stores, for example, a program referred to by the control unit 220, OCT three-dimensional data 212, scanning position information 214, and the like.

図4は、OCT三次元データ212を模式的に示す図である。図示のように、OCT三次元データ212は、複数のOCT画像IM(nは任意の自然数)から構成される。各OCT画像IM(1≦j≦n)のz方向は、照射光の照射方向(照射光の光軸)に沿う方向を表し、眼球Eの深さ方向を表している。照射光の照射方向に沿う方向とは、例えば、照射光の光軸に対して数度から十数度程度の誤差(角度幅)を許容した方向である。FIG. 4 is a diagram schematically showing OCT three-dimensional data 212. As shown in the figure, the OCT three-dimensional data 212 is composed of a plurality of OCT image IM n (n is an arbitrary natural number). The z direction of each OCT image IM j (1 ≦ j ≦ n) represents a direction along the irradiation direction of the irradiation light (optical axis of the irradiation light), and represents the depth direction of the eyeball E. The direction along the irradiation direction of the irradiation light is, for example, a direction that allows an error (angle width) of about several degrees to a dozen degrees with respect to the optical axis of the irradiation light.

また、各OCT画像IMのx方向は、z方向に直交する平面のいずれか一方向を表している。これらのOCT画像IMは、z方向およびx方向の双方に対して直交するy方向において並べられている。y方向は、各OCT画像IMの撮像時刻tに対応する。すなわち、各OCT画像IMは、撮像時刻順に並べられている。本実施形態では、OCT画像IMは、深さ方向(z方向)の分解能が他の方向の分解能よりも高いOCT撮像装置100によって撮像されているため、各OCT画像IMのz方向の解像度が、x方向やy方向の解像度と比べて細かいものとなっている。なお、図示のOCT三次元データ212の例は、あくまでも複数のOCT画像IMの構成について模式的に示すものであり、実際は、各OCT画像IMに対して、撮像時刻tやその撮像時のy方向における位置情報が対応付けられたデータの集合として扱われてよい。z方向は、「第1方向」の一例であり、x方向は、「第2方向」の一例であり、y方向は、「第3方向」の一例である。Further, the x direction of each OCT image IM j represents any one direction of the plane orthogonal to the z direction. These OCT images IM n are arranged in the y direction orthogonal to both the z direction and the x direction. The y direction corresponds to the imaging time t of each OCT image IM. That is, each OCT image IM is arranged in order of imaging time. In the present embodiment, since the OCT image IM is imaged by the OCT image pickup apparatus 100 whose resolution in the depth direction (z direction) is higher than the resolution in the other directions, the resolution of each OCT image IM j in the z direction is high. , The resolution is finer than the resolution in the x-direction and the y-direction. The example of the illustrated OCT three-dimensional data 212 schematically shows the configuration of a plurality of OCT image IMs, and in reality, for each OCT image IM, the imaging time t and the y direction at the time of imaging thereof. The position information in the above may be treated as a set of associated data. The z direction is an example of the "first direction", the x direction is an example of the "second direction", and the y direction is an example of the "third direction".

図5は、走査位置情報214の一例を示す図である。走査位置情報214は、後述する検出領域Raの設定位置に関する情報であり、各OCT画像IMにおけるx−z座標に対して、高輝度部位フラグが対応付けられた情報である。x−z座標は、各OCT画像IMにおける画素の座標を示している。また、高輝度部位フラグは、x−z座標が示す画素が高輝度部位であるのかどうかを示すためのフラグである。例えば、ある検出領域Raと重なる画像領域が高輝度部位であると判定された場合、当該画像領域に含まれる全ての画素の座標に対して「1」のフラグが付与され、検出領域Raと重なる画像領域が高輝度部位でない場合、「0」のフラグが付与される。このとき、OCT画像IMに含まれる全ての画素の高輝度部位フラグは、高輝度部位であるか否かの判定前に、予め「0」が付与されているものとする。この処理を検出領域の位置を変える(位置をずらす)毎に行い、最終的に1回でも「1」のフラグが付与された画素(フラグが「0」から「1」に書き換えられた画素)は高輝度部位である画素とされ、図5に示されている高輝度部位フラグは「1」となる。すなわち、一度でも高輝度部位フラグが「0」から「1」に変更されると、当該フラグは、「1」の状態で保持される。 FIG. 5 is a diagram showing an example of scanning position information 214. The scanning position information 214 is information regarding a set position of the detection region Ra, which will be described later, and is information in which a high-luminance portion flag is associated with the x-z coordinates in each OCT image IM. The xx coordinates indicate the coordinates of the pixels in each OCT image IM. Further, the high-luminance portion flag is a flag for indicating whether or not the pixel indicated by the x-z coordinate is a high-luminance portion. For example, when it is determined that the image area overlapping with a certain detection area Ra is a high-luminance part, a flag of "1" is given to the coordinates of all the pixels included in the image area, and the image area overlaps with the detection area Ra. If the image area is not a high-brightness area, a "0" flag is added. At this time, it is assumed that the high-luminance region flags of all the pixels included in the OCT image IM are given "0" in advance before determining whether or not they are high-luminance regions. This process is performed every time the position of the detection area is changed (the position is shifted), and finally the pixel to which the flag of "1" is given even once (the pixel whose flag is rewritten from "0" to "1"). Is a pixel that is a high-luminance portion, and the high-luminance portion flag shown in FIG. 5 is “1”. That is, once the high-luminance part flag is changed from "0" to "1", the flag is held in the state of "1".

制御部220は、例えば、取得部222と、画像前処理部224と、検出領域走査部226と、輝度演算部228と、高輝度部位判定部230と、グループ生成部232と、診断判定部234と、表示制御部236とを備える。これらの構成要素の一部または全部は、CPU(Central Processing Unit)などのプロセッサが記憶部210に格納されたプログラムを実行することにより実現される。また、制御部220の構成要素の一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのハードウェアにより実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。 The control unit 220 includes, for example, an acquisition unit 222, an image preprocessing unit 224, a detection area scanning unit 226, a brightness calculation unit 228, a high brightness portion determination unit 230, a group generation unit 232, and a diagnosis determination unit 234. And a display control unit 236. Some or all of these components are realized by a processor such as a CPU (Central Processing Unit) executing a program stored in the storage unit 210. Further, some or all of the components of the control unit 220 may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array). , May be realized by the collaboration of software and hardware.

以下、制御部220による一連の処理についてフローチャートを用いて説明する。図6は、制御部220による一連の処理の一例を示すフローチャートである。本フローチャートの処理は、所定の周期で繰り返し行われてよい。 Hereinafter, a series of processes by the control unit 220 will be described with reference to a flowchart. FIG. 6 is a flowchart showing an example of a series of processes by the control unit 220. The processing of this flowchart may be repeated at a predetermined cycle.

まず、取得部222は、通信インターフェース202を介してOCT撮像装置100からOCT画像IMを取得し(ステップS100)、取得したOCT画像IMをOCT三次元データ212として記憶部210に記憶させる。また、通信インターフェース202がOCT画像IMを記憶する記憶装置(例えばクラウドサーバ等)と通信する場合、取得部222は、この記憶装置からOCT画像IMを取得してもよい。なお、取得部222は、OCT撮像装置100等から一つずつOCT画像IMを取得する場合、各OCT画像IMの撮像時刻tやその撮像時のy方向における位置情報を参照することで、順次取得したOCT画像IMをy方向に関して並べてよい。このとき取得部222は、例えば、時系列順になるように、適宜OCT画像IMをy方向に関して並び替えてよい。 First, the acquisition unit 222 acquires the OCT image IM from the OCT image pickup apparatus 100 via the communication interface 202 (step S100), and stores the acquired OCT image IM as OCT three-dimensional data 212 in the storage unit 210. Further, when the communication interface 202 communicates with a storage device (for example, a cloud server) that stores the OCT image IM, the acquisition unit 222 may acquire the OCT image IM from this storage device. When the acquisition unit 222 acquires the OCT image IM one by one from the OCT image pickup device 100 or the like, the acquisition unit 222 sequentially acquires the OCT image IM by referring to the imaging time t of each OCT image IM and the position information in the y direction at the time of imaging. The OCT image IMs may be arranged in the y direction. At this time, the acquisition unit 222 may appropriately rearrange the OCT images IM with respect to the y direction so as to be in chronological order, for example.

次に、画像前処理部224は、OCT三次元データ212に含まれる全てのOCT画像IMに対して、種々の前処理を行う(ステップS102)。例えば、前処理には、歪み補正処理、ノイズ除去処理、セグメンテーション(層境界自動検出)処理、禁止領域および許可領域を区分して設定する処理などが含まれる。画像前処理部224は、「セグメンテーション処理部」の一例である。 Next, the image preprocessing unit 224 performs various preprocessing on all the OCT image IMs included in the OCT three-dimensional data 212 (step S102). For example, the pre-processing includes distortion correction processing, noise removal processing, segmentation (layer boundary automatic detection) processing, and processing for dividing and setting a prohibited area and a permitted area. The image preprocessing unit 224 is an example of a “segmentation processing unit”.

歪み補正処理は、例えば、OCT画像IM同士の位置ずれを補正する処理であり、x方向、y方向、z方向のうち、一部または全部に関して位置ずれを補正する。 The distortion correction process is, for example, a process of correcting the misalignment between the OCT image IMs, and corrects the misalignment in a part or all of the x direction, the y direction, and the z direction.

また、ノイズ除去処理は、例えば、OCT画像IM内のある着目画素の輝度値を、その着目画素の周辺画素の輝度値の平均値や中央値に置き換える処理である。なお、ノイズ除去処理は、一般的には輝度値の代わりに反射強度、色相、明度、彩度に関してノイズを除去する処理もあるが、OCT画像は通常、干渉信号の強弱を灰色の濃淡で表現したグレイスケール画像、または、その強弱を色の違いで表現した擬似カラー画像であるため、輝度値または反射強度に着目してノイズ処理を行うこととなる。 The noise removal process is, for example, a process of replacing the luminance value of a pixel of interest in the OCT image IM with the average value or the median of the luminance values of the peripheral pixels of the pixel of interest. The noise removal process generally removes noise in terms of reflection intensity, hue, brightness, and saturation instead of the brightness value, but the OCT image usually expresses the strength of the interference signal in shades of gray. Since it is a grayscale image or a pseudo-color image in which the intensity thereof is expressed by a difference in color, noise processing is performed by paying attention to the brightness value or the reflection intensity.

また、セグメンテーション処理は、OCT画像IMを、検出領域Raの設定を禁止する禁止領域と、検出領域Raの設定を許可する許可領域とに区分する処理を行うために事前に行う処理である。 Further, the segmentation process is a process performed in advance to divide the OCT image IM into a prohibited area for prohibiting the setting of the detection area Ra and a permitted area for permitting the setting of the detection area Ra.

図7および図8は、セグメンテーション処理を説明するための図である。図7におけるz(軸)の方向は前眼部から眼底に向かう方向をプラス方向としているので、網膜の位置から見ると、眼球Eの硝子体が存在する側がマイナス側であり、眼球E内のより浅い方向を示している。また逆に、z方向のプラス側は、眼球E内のより深い方向を示している。例えば、画像前処理部224は、OCT画像IMから、ラインILMおよびラインRPEを検出する。ラインILMは、網膜の内層側、つまり眼球の中心に近い側の硝子体との境界線である。ラインRPEは、網膜の外層側、つまり脈絡膜との境界線である。画像前処理部224は、図8に示すように、検出したラインILMからz方向のプラス側に一定距離離れた位置にラインILM#を設定すると共に、検出したラインRPEからz方向のマイナス側に一定距離離れた位置にラインRPE#を設定する。この4つのラインの設定がセグメンテーション処理となる。そして、画像前処理部224は、ラインILM#およびラインRPE#の間の画像領域を許可領域に設定し、この許可領域を除く画像領域を禁止領域に設定する。そして、画像前処理部224は、検出領域及び対照領域を、自身の領域内の全部または一部に許可領域を含むように設定する。言い換えれば、検出領域または対照領域の一部は、禁止領域上に設定されてもよく、禁止領域のみを含む検出領域または対照領域は、その設定が禁止される。 7 and 8 are diagrams for explaining the segmentation process. Since the direction of z (axis) in FIG. 7 is the positive direction from the anterior segment of the eye toward the fundus, the side of the eyeball E where the vitreous body exists is the negative side when viewed from the position of the retina, and is inside the eyeball E. It shows a shallower direction. On the contrary, the plus side in the z direction indicates a deeper direction in the eyeball E. For example, the image preprocessing unit 224 detects the line ILM and the line RPE from the OCT image IM. The line ILM is the boundary line with the vitreous body on the inner layer side of the retina, that is, the side closer to the center of the eyeball. The line RPE is the outer layer side of the retina, that is, the boundary line with the choroid. As shown in FIG. 8, the image preprocessing unit 224 sets the line ILM # at a position a certain distance away from the detected line ILM on the plus side in the z direction, and sets the line ILM # on the minus side in the z direction from the detected line RPE. Set the line RPE # at a position separated by a certain distance. The setting of these four lines is the segmentation process. Then, the image preprocessing unit 224 sets the image area between the line ILM # and the line RPE # as the permitted area, and sets the image area other than the permitted area as the prohibited area. Then, the image preprocessing unit 224 sets the detection region and the control region so that all or a part of the detection region and the control region include the permission region. In other words, a part of the detection area or the control area may be set on the prohibited area, and the setting of the detection area or the control area including only the prohibited area is prohibited.

例えば、ラインILMおよびラインILM#の間の画像領域、またはラインRPEおよびラインRPEの間の画像領域には、ロドプシンなどの光感受性蛋白や毛細血管等が存在するため、これらが高輝度部位として検出される可能性がある。すなわち、高輝度部位がHRF由来のものであるのかどうかの区別がつき難い。従って、このような領域をセグメンテーション処理によって予め禁止領域として設定しておくことで、後段の高輝度部位の抽出処理から当該領域を除外することができ、HRFの検出精度を維持しつつ処理負荷を軽減することができる。 For example, since light-sensitive proteins such as rhodopsin and capillaries are present in the image region between line ILM and line ILM #, or in the image region between line RPE and line RPE, these are detected as high-intensity regions. May be done. That is, it is difficult to distinguish whether or not the high-luminance portion is derived from HRF. Therefore, by setting such a region as a prohibited region in advance by segmentation processing, the region can be excluded from the extraction processing of the high-luminance portion in the subsequent stage, and the processing load can be increased while maintaining the HRF detection accuracy. Can be mitigated.

次に、制御部220は、前処理を行ったOCT画像に対して高輝度部位の抽出処理を行う(ステップS104)。高輝度部位の抽出処理の詳細については、別のフローチャートを用いて説明する。 Next, the control unit 220 performs an extraction process of a high-luminance portion on the preprocessed OCT image (step S104). The details of the extraction process of the high-luminance portion will be described with reference to another flowchart.

図9は、高輝度部位の抽出処理の一例を示すフローチャートである。本フローチャートの処理は、上述した図6に示すステップS104の処理に相当する。 FIG. 9 is a flowchart showing an example of the extraction process of the high-luminance portion. The processing of this flowchart corresponds to the processing of step S104 shown in FIG. 6 described above.

まず、検出領域走査部226は、画像前処理部224により前処理が行われたOCT画像IMの分解能に合わせて、OCT画像IMから抽出する抽出対象物(HRF)の大きさを決定する(ステップS200)。本実施形態では、OCT画像IMは、x方向の分解能に比してz方向の分解能の方が大きい画像であるため、抽出対象物の大きさは、x方向に比してz方向の長さの方が見かけ上大きくなる。 First, the detection area scanning unit 226 determines the size of the extraction target (HRF) to be extracted from the OCT image IM according to the resolution of the OCT image IM preprocessed by the image preprocessing unit 224 (step). S200). In the present embodiment, since the OCT image IM is an image in which the resolution in the z direction is larger than the resolution in the x direction, the size of the extraction target is the length in the z direction as compared with the x direction. Is apparently larger.

次に、検出領域走査部226は、画像前処理部224により前処理が行われた複数のOCT画像IMの中から一つのOCT画像IMを選択し、このOCT画像IMに対して、抽出対象物の大きさに合わせた検出領域Raを設定し、設定した検出領域Raの設定位置を所定の周期で数画素ずつずらすことで、OCT画像IMに対して検出領域Raを走査する(ステップS202)。このとき、検出領域走査部226は、セグメンテーション処理により定められた許可領域に対して検出領域Raを設定する。検出領域Raは、x−z方向に関する二次元領域であってもよいし、x−y−z方向に関する三次元領域であってもよい。本実施形態におけるOCT画像IMは、x方向やy方向の解像度に比して、z方向の解像度が大きいことから、抽出対象物(HRF)の大きさは、x方向およびy方向に比してz方向の長さの方が見かけ上大きくなる。すなわち、抽出対象物は、見かけ上長細くなる。従って、二次元領域として設定される場合、検出領域Raは、x方向よりもz方向に関して大きくなるように設定される。三次元領域として設定される検出領域Raは、x方向およびy方向よりもz方向に関して大きくなるように設定される。以下の説明では、説明を簡略化するために、二次元領域の検出領域Raを設定するものとする。 Next, the detection area scanning unit 226 selects one OCT image IM from a plurality of OCT image IMs preprocessed by the image preprocessing unit 224, and extracts an object for this OCT image IM. The detection area Ra is set according to the size of the OCT image IM, and the set position of the set detection area Ra is shifted by several pixels at a predetermined cycle to scan the detection area Ra with respect to the OCT image IM (step S202). At this time, the detection area scanning unit 226 sets the detection area Ra for the permitted area defined by the segmentation process. The detection region Ra may be a two-dimensional region in the x-z direction or a three-dimensional region in the x-yz direction. Since the OCT image IM in the present embodiment has a higher resolution in the z direction than the resolution in the x direction and the y direction, the size of the extraction target (HRF) is larger than that in the x direction and the y direction. The length in the z direction is apparently larger. That is, the extraction target is apparently elongated. Therefore, when set as a two-dimensional region, the detection region Ra is set to be larger in the z direction than in the x direction. The detection region Ra set as the three-dimensional region is set to be larger in the z direction than in the x direction and the y direction. In the following description, in order to simplify the description, it is assumed that the detection area Ra of the two-dimensional area is set.

次に、輝度演算部228は、検出領域走査部226により検出領域Raが走査されるときに、検出領域Raの最大輝度値Aを算出する(ステップS204)。すなわち、輝度演算部228は、検出領域走査部226により所定の周期で検出領域Raが設定される度に、検出領域Raの最大輝度値Aを算出する。最大輝度値Aは、検出領域Raと重なる画像領域に含まれる複数の画素の輝度値の中で最大をとる輝度値である。 Next, the luminance calculation unit 228 calculates the maximum luminance value A of the detection region Ra when the detection region Ra is scanned by the detection region scanning unit 226 (step S204). That is, the luminance calculation unit 228 calculates the maximum luminance value A of the detection region Ra every time the detection region scanning unit 226 sets the detection region Ra at a predetermined cycle. The maximum luminance value A is a luminance value that takes the maximum among the luminance values of a plurality of pixels included in the image region that overlaps with the detection region Ra.

次に、高輝度部位判定部230は、最大輝度値Aが最大輝度閾値THa以上であるのか否かを判定する(ステップS206)。例えば、OCT画像IMにおける画素の輝度値が0から255のレンジで表される場合、最大輝度閾値THaは、100程度に設定される。高輝度部位判定部230は、最大輝度値Aが最大輝度閾値THa未満であると判定した場合、検出領域Raが高輝度部位を示す画像領域ではないと判定する(ステップS208)。最大輝度閾値THaは、「第2閾値」の一例である。 Next, the high-luminance portion determination unit 230 determines whether or not the maximum luminance value A is equal to or greater than the maximum luminance threshold THa (step S206). For example, when the brightness value of a pixel in the OCT image IM is represented in the range of 0 to 255, the maximum brightness threshold THa is set to about 100. When the high-luminance region determination unit 230 determines that the maximum luminance value A is less than the maximum luminance threshold THa, it determines that the detection region Ra is not an image region indicating the high-luminance region (step S208). The maximum luminance threshold THa is an example of a "second threshold".

一方、最大輝度値Aが最大輝度閾値THa以上であると判定された場合、輝度演算部228は、検出領域Raの平均輝度値Bを算出する(ステップS210)。平均輝度値Bは、検出領域Raと重なる画像領域に含まれる複数の画素の輝度値の平均である。 On the other hand, when it is determined that the maximum luminance value A is equal to or greater than the maximum luminance threshold THa, the luminance calculation unit 228 calculates the average luminance value B of the detection region Ra (step S210). The average luminance value B is the average of the luminance values of a plurality of pixels included in the image region that overlaps with the detection region Ra.

次に、高輝度部位判定部230は、平均輝度値Bが平均輝度閾値THb以上であるのか否かを判定する(ステップS212)。例えば、OCT画像IMにおける画素の輝度値が上述した数値例と同様に0から255のレンジで表される場合、平均輝度閾値THbは、30程度に設定される。高輝度部位判定部230は、平均輝度値Bが平均輝度閾値THb未満であると判定した場合、S208の処理に移り、検出領域Raが高輝度部位を示す画像領域ではないと判定する。平均輝度閾値THbは、「第3閾値」の一例である。 Next, the high-luminance portion determination unit 230 determines whether or not the average luminance value B is equal to or greater than the average luminance threshold THb (step S212). For example, when the brightness value of the pixel in the OCT image IM is expressed in the range of 0 to 255 as in the above-mentioned numerical example, the average brightness threshold THb is set to about 30. When the high-luminance region determination unit 230 determines that the average luminance value B is less than the average luminance threshold THb, the process proceeds to S208 and determines that the detection region Ra is not an image region indicating the high-luminance region. The average luminance threshold THb is an example of a “third threshold”.

一方、平均輝度値Bが平均輝度閾値THb以上であると判定された場合、検出領域走査部226は、画像前処理部224により前処理が行われた複数のOCT画像IMの中から、S202の処理で選択したOCT画像IMの前後のOCT画像を選択する(ステップS214)。「前後のOCT画像」とは、OCT三次元データ212において、y方向に関して直前直後の関係で隣り合う画像のことである。例えば、S202の処理でOCT画像IMが選択された場合、OCT画像IMj−1とOCT画像IMj+1が前後のOCT画像として選択される。On the other hand, when it is determined that the average luminance value B is equal to or greater than the average luminance threshold THb, the detection area scanning unit 226 is selected from among the plurality of OCT image IMs preprocessed by the image preprocessing unit 224, of S202. The OCT images before and after the OCT image IM selected in the process are selected (step S214). The "front and back OCT images" are images that are adjacent to each other in the OCT three-dimensional data 212 in the relationship immediately before and after in the y direction. For example, when the OCT image IM j is selected in the process of S202, the OCT image IM j-1 and the OCT image IM j + 1 are selected as the previous and next OCT images.

次に、検出領域走査部226は、S202の処理で選択したOCT画像IM(以下、着目OCT画像IMと称する)と、着目OCT画像の前後のOCT画像IMとのそれぞれに対して、対照領域Rbを設定する(ステップS216)。 Next, the detection region scanning unit 226 refers to the control region Rb for each of the OCT image IM (hereinafter referred to as the focus OCT image IM) selected in the process of S202 and the OCT image IM before and after the focus OCT image. Is set (step S216).

図10から図12は、対照領域Rbの設定方法の一例を説明するための図である。図10は、OCT画像IMj−1(着目OCT画像の前のOCT画像)を表し、図11は、OCT画像IM(着目OCT画像)を表し、図12は、OCT画像IMj+1(着目OCT画像の後のOCT画像)を表している。10 to 12 are diagrams for explaining an example of a method of setting the control region Rb. FIG. 10 represents the OCT image IM j-1 (OCT image before the OCT image of interest), FIG. 11 represents the OCT image IM j (OCT image of interest), and FIG. 12 shows the OCT image IM j + 1 (OCT of interest). The OCT image after the image) is represented.

例えば、OCT画像IMに対して対照領域Rbを設定する場合、検出領域走査部226は、x方向に関して検出領域Raの両隣なりに対照領域Rbを設定する。具体的には、検出領域Raのz方向の大きさがΔz、x方向の大きさがΔx、検出領域Raの中心座標Pが(x,z)である場合、検出領域走査部226は、座標P1(x−Δx,z)と、座標P2(x+Δx,z)とを中心座標として対照領域Rbを設定する。For example, when the control region Rb is set for the OCT image IM j , the detection region scanning unit 226 sets the control region Rb on both sides of the detection region Ra in the x direction. Specifically, when the magnitude of the detection region Ra in the z direction is Δz, the magnitude in the x direction is Δx, and the center coordinate P d of the detection region Ra is (x d , z d ), the detection region scanning unit 226 Sets the control region Rb with the coordinates P c 1 (x d − Δx, z d ) and the coordinates P c 2 (x d + Δx, z d) as the center coordinates.

また、OCT画像IMj−1およびOCT画像IMj+1に対して対照領域Rbを設定する場合、検出領域走査部226は、OCT画像IMに対して設定した検出領域Raの中心座標P(x,z)と同じ座標P(x,z)を中心座標として対照領域Rbを設定する。これらの対照領域Rbは、検出領域Raと同程度の大きさおよび/または形状で設定される。これによって、対照領域Rbは、三次元画像の少なくともx−y平面において、検出領域Raを囲む領域として設定される。Further, when the control region Rb is set for the OCT image IM j-1 and the OCT image IM j + 1 , the detection region scanning unit 226 uses the center coordinates P d (x) of the detection region Ra set for the OCT image IM j. d, sets the control region Rb z d) same coordinates as P c (x d, the z d) as the center coordinates. These control regions Rb are set to have the same size and / or shape as the detection region Ra. As a result, the control region Rb is set as a region surrounding the detection region Ra in at least the xy plane of the three-dimensional image.

大きさが「同程度」とは、例えば、検出領域Raの面積と対照領域Rbの面積との差が一定範囲内(例えばプラスマイナス20[%]程度)であることや、検出領域Raのアスペクト比と対照領域Rbのアスペクト比との差が一定範囲内(例えばプラスマイナス10[%]程度)であることを含む。また、形状が「同程度」とは、例えば、検出領域Raの形状と対照領域Rbの形状とが互いに相似形であることを含む。 “Similar in size” means that, for example, the difference between the area of the detection region Ra and the area of the control region Rb is within a certain range (for example, about plus or minus 20 [%]), or the aspect ratio of the detection region Ra. It includes that the difference between the ratio and the aspect ratio of the control region Rb is within a certain range (for example, about plus or minus 10 [%]). Further, the “similar shape” includes, for example, that the shape of the detection region Ra and the shape of the control region Rb are similar to each other.

図13から図15は、対照領域Rbの設定方法の他の例を説明するための図である。図13は、図10と同様に、OCT画像IMj−1(着目OCT画像の前のOCT画像)を表し、図14は、図11と同様に、OCT画像IM(着目OCT画像)を表し、図15は、図12と同様に、OCT画像IMj+1(着目OCT画像の後のOCT画像)を表している。OCT画像IMj−1およびOCT画像IMj+1に対して対照領域Rbを設定する場合、検出領域走査部226は、図13および図15に示すように、検出領域Raのx方向の大きさ(Δx)の3倍程度の大きさ(3Δx)をもつ対照領域Rbを設定してよい。13 to 15 are diagrams for explaining another example of the method of setting the control region Rb. FIG. 13 represents the OCT image IM j-1 (OCT image before the OCT image of interest) as in FIG. 10, and FIG. 14 represents the OCT image IM j (OCT image of interest) as in FIG. , FIG. 15 represents the OCT image IM j + 1 (OCT image after the OCT image of interest) as in FIG. When the control region Rb is set for the OCT image IM j-1 and the OCT image IM j + 1 , the detection region scanning unit 226 has a size (Δx) of the detection region Ra in the x direction as shown in FIGS. 13 and 15. ) May be set as a control region Rb having a size (3Δx) of about 3 times.

ここで図9のフローチャートの説明に戻る。次に、輝度演算部228は、各OCT画像IMの画像領域のうち、対照領域Rbの平均輝度値Cを算出する(ステップS218)。平均輝度値Cは、対照領域Rbと重なる画像領域に含まれる複数の画素の輝度値の平均である。 Here, the description of the flowchart of FIG. 9 returns. Next, the luminance calculation unit 228 calculates the average luminance value C of the control region Rb in the image region of each OCT image IM (step S218). The average luminance value C is the average of the luminance values of a plurality of pixels included in the image region that overlaps with the control region Rb.

次に、高輝度部位判定部230は、平均輝度値Bから平均輝度値Cを減算した値(B−C)が差分輝度閾値THc以上であるのか否かを判定する(ステップS220)。例えば、OCT画像IMにおける画素の輝度値が上述した数値例と同様に0から255のレンジで表される場合、差分輝度閾値THcは、15程度に設定される。高輝度部位判定部230は、平均輝度値Bから平均輝度値Cを減算した値が差分輝度閾値THc未満であると判定した場合、S208の処理に移り、検出領域Raが高輝度部位を示す画像領域ではないと判定する。差分輝度閾値THcは、「第1閾値」の一例である。 Next, the high-luminance portion determination unit 230 determines whether or not the value (BC) obtained by subtracting the average luminance value C from the average luminance value B is equal to or greater than the differential luminance threshold THc (step S220). For example, when the brightness value of the pixel in the OCT image IM is represented in the range of 0 to 255 as in the numerical example described above, the differential brightness threshold THc is set to about 15. When the high-luminance region determination unit 230 determines that the value obtained by subtracting the average luminance value C from the average luminance value B is less than the differential luminance threshold THc, the process proceeds to S208, and the detection region Ra is an image showing the high-luminance region. Judge that it is not an area. The differential luminance threshold THc is an example of the “first threshold”.

一方、高輝度部位判定部230は、平均輝度値Bから平均輝度値Cを減算した値が差分輝度閾値THc以上であると判定した場合、検出領域Raが高輝度部位を示す画像領域であると判定する(ステップS222)。 On the other hand, when the high-luminance region determination unit 230 determines that the value obtained by subtracting the average luminance value C from the average luminance value B is equal to or greater than the differential luminance threshold THc, the detection region Ra is an image region indicating the high-luminance region. Determine (step S222).

次に、高輝度部位判定部230は、走査位置情報214において、検出領域Raに含まれる画素の各々に対応した高輝度部位フラグを更新する(ステップS224)。例えば、高輝度部位判定部230は、S208の処理で、検出領域Raが高輝度部位を示す画像領域ではないと判定した場合、走査位置情報214において、この検出領域Raの画素の高輝度部位フラグを「0」にする。また、高輝度部位判定部230は、S222の処理で、検出領域Raが高輝度部位を示す画像領域であると判定した場合、走査位置情報214において、この検出領域Raの画素の高輝度部位フラグを「1」にする。 Next, the high-luminance region determination unit 230 updates the high-luminance region flag corresponding to each of the pixels included in the detection region Ra in the scanning position information 214 (step S224). For example, when the high-intensity region determination unit 230 determines in the process of S208 that the detection region Ra is not an image region indicating a high-luminance region, in the scanning position information 214, the high-luminance region flag of the pixel of the detection region Ra Is set to "0". Further, when the high-luminance portion determination unit 230 determines in the process of S222 that the detection region Ra is an image region indicating a high-luminance portion, the high-luminance portion flag of the pixel of the detection region Ra is determined in the scanning position information 214. Is set to "1".

次に、検出領域走査部226は、S202の処理で選択したOCT画像IMの全画像領域(許可領域)について、検出領域Raの走査が完了したか否かを判定する(ステップS226)。検出領域走査部226は、検出領域Raの走査が完了していないと判定した場合、S202の処理に戻り、検出領域Raの設定位置を変更する。これによって、上述した高輝度部位の判定を繰り返す。 Next, the detection area scanning unit 226 determines whether or not the scanning of the detection area Ra is completed for the entire image area (permitted area) of the OCT image IM selected in the process of S202 (step S226). When the detection area scanning unit 226 determines that the scanning of the detection area Ra is not completed, the detection area scanning unit 226 returns to the process of S202 and changes the set position of the detection area Ra. As a result, the above-mentioned determination of the high-luminance portion is repeated.

一方、検出領域Raの走査が完了したと判定した場合、制御部220は、本フローチャートの処理を終了する。 On the other hand, when it is determined that the scanning of the detection area Ra is completed, the control unit 220 ends the process of this flowchart.

ここで、図6のフローチャートの説明に戻る。次に、グループ生成部232は、走査位置情報214を参照して、高輝度部位を示す画像領域のうち、平均輝度値Bが同程度の画像領域をグループ化した画像領域グループGPを生成する(ステップS106)。「輝度値が同程度」とは、例えば、比較対象とする輝度値に対して数[%]から十数[%]程度の誤差を許容した範囲で同じであることをいう。従って、「輝度値が同程度」には、輝度値が同じであることも含まれる。 Here, the explanation returns to the explanation of the flowchart of FIG. Next, the group generation unit 232 generates an image region group GP in which image regions having the same average luminance value B among the image regions indicating high-luminance regions are grouped with reference to the scanning position information 214 ( Step S106). "The brightness values are about the same" means that, for example, the brightness values are the same within a range that allows an error of about several [%] to a dozen [%] with respect to the brightness value to be compared. Therefore, "the same degree of brightness value" includes that the brightness value is the same.

図16から図18は、画像領域グループGPの生成方法の一例を示す図である。例えば、図16および図17に示す例のように、OCT画像IMに複数の検出領域Raが設定されると、グループ生成部232は、ラベリング処理によって、複数の検出領域Raのうち、平均輝度値Bが同程度の領域同士を合成し、一つの画像領域グループGPにする。 16 to 18 are diagrams showing an example of a method of generating an image region group GP. For example, as in the examples shown in FIGS. 16 and 17, when a plurality of detection areas Ra are set in the OCT image IM, the group generation unit 232 performs the labeling process to obtain the average luminance value of the plurality of detection areas Ra. Areas with similar B's are combined into one image area group GP.

例えば、グループ生成部232は、OCT画像IMの全画素のうち、未だラベルが付与されていない画素を着目画素として選択し、当該着目画素に対して、あるラベルを付与する。次に、グループ生成部232は、ラベルを付与した着目画素の周囲の画素(例えば、x、z方向で着目画素に隣接する画素)に対して、既にラベルを付与したか否かを判定する。周囲の画素にラベルを付与しておらず、且つ着目画素と同程度の輝度値であれば、グループ生成部232は、着目画素に付与したラベルと同じラベルを周囲の画素に付与する。このとき、同じ画像領域グループGPに属する画素は、同じ輝度値(例えば平均輝度値B)として扱われるため、同じラベルが付与される。次に、グループ生成部232は、ラベルを付与した周囲の画素を新たな着目画素として扱い、更に周囲の画素についてラベルの付与の有無と輝度値の確認を行ってラベルを付与する。このようにして、グループ生成部232は、OCT画像IMの全画素に対してラベルを付与し、同じラベルが付与され、且つ互いに隣接関係にある画素の集合を一つの画像領域グループGPとして抽出する。 For example, the group generation unit 232 selects a pixel that has not yet been labeled as a pixel of interest from all the pixels of the OCT image IM, and assigns a label to the pixel of interest. Next, the group generation unit 232 determines whether or not the pixels around the pixel of interest to which the label has been attached (for example, pixels adjacent to the pixel of interest in the x and z directions) have already been labeled. If no label is given to the surrounding pixels and the brightness value is about the same as that of the pixel of interest, the group generation unit 232 gives the surrounding pixels the same label as the label given to the pixel of interest. At this time, since the pixels belonging to the same image area group GP are treated as the same luminance value (for example, the average luminance value B), the same label is given. Next, the group generation unit 232 treats the peripheral pixels to which the label is attached as a new pixel of interest, and further confirms the presence / absence of the label and the brightness value of the surrounding pixels to assign the label. In this way, the group generation unit 232 assigns a label to all the pixels of the OCT image IM, and extracts a set of pixels to which the same label is given and which are adjacent to each other as one image area group GP. ..

次に、グループ生成部232は、画像領域グループGPの大きさが許容サイズ内であるのか否かを判定する(ステップS108)。許容サイズとは、眼球E内に存在することが想定される最も大きいHRFの実サイズを、OCT画像IMを撮像した装置の分解能に応じて拡縮した見込み上のサイズのことである。 Next, the group generation unit 232 determines whether or not the size of the image area group GP is within the permissible size (step S108). The permissible size is a prospective size obtained by scaling the actual size of the largest HRF that is expected to exist in the eyeball E according to the resolution of the device that captured the OCT image IM.

例えば、グループ生成部232は、上述した図18に示すように、画像領域グループGPのx方向の最大サイズΔLXと、x方向における許容サイズTHΔLXとを比較する。また、グループ生成部232は、画像領域グループGPのz方向の最大サイズΔLZと、z方向における許容サイズTHΔLZとを比較する。グループ生成部232は、最大サイズΔLXがTHΔLX以下であり、且つ最大サイズΔLZがTHΔLZ以下である場合に、画像領域グループGPの大きさが許容サイズ内であると判定する。一方、グループ生成部232は、最大サイズΔLXがTHΔLXを超える場合、または最大サイズΔLZがTHΔLZを超える場合に、画像領域グループGPの大きさが許容サイズ内でないと判定する。なお、グループ生成部232は、最大サイズΔLXまたは最大サイズΔLZのいずれか一方でも対応する許容サイズ以下であれば、画像領域グループGPの大きさが許容サイズ内であると判定してもよい。For example, the group generation unit 232 compares the maximum size ΔLX in the x direction of the image region group GP with the permissible size TH ΔLX in the x direction, as shown in FIG. 18 described above. Further, the group generation unit 232 compares the maximum size ΔLZ in the z direction of the image region group GP with the allowable size TH ΔLZ in the z direction. Group generation unit 232 determines the maximum size DerutaLX is below TH DerutaLX, and if the maximum size DerutaLZ is below TH DerutaLZ, the size of the image area groups GP is within the allowable size. On the other hand, the group generation unit 232 determines that if the maximum size DerutaLX exceeds TH DerutaLX, or the maximum size DerutaLZ is when it exceeds TH DerutaLZ, the size of the image area groups GP is not within the allowable size. The group generation unit 232 may determine that the size of the image area group GP is within the allowable size as long as it is equal to or smaller than the corresponding allowable size of either the maximum size ΔLX or the maximum size ΔLZ.

また、上述した例では、グループ生成部232は、x方向およびz方向に関して画像領域を合成することで画像領域グループGPを生成しているが、これに限られない。例えば、グループ生成部232は、x方向、z方向、およびy方向に関して画像領域を合成することで画像領域グループGPを生成してもよい。 Further, in the above-described example, the group generation unit 232 generates the image region group GP by synthesizing the image regions in the x-direction and the z-direction, but the present invention is not limited to this. For example, the group generation unit 232 may generate the image area group GP by synthesizing the image areas in the x-direction, the z-direction, and the y-direction.

図19から図21は、画像領域グループGPの生成方法の他の例を示す図である。例えば、図19に示すように、y方向において並べられた各OCT画像IMに対して検出領域Raが設定された場合、グループ生成部232は、図20に示すように、同程度の平均輝度値Bを有する画像領域同士をy方向に関して合成することで、一つの画像領域グループGPを生成する。図20に示すように、グループ生成部232は、y方向に関して、互いに接するまたは重なる程度の仮想的な幅Δyを考慮して、画像領域同士を合成してよい。なお、図示の例では、説明を簡略化するために、各OCT画像IMに設定する検出領域Raは、x方向に関して同じ位置としている。また、y方向におけるOCT画像IMの間隔(すなわちy方向における照射光の走査間隔)は、例えば、想定されるHRFの最大サイズ以下であるものとする。 19 to 21 are diagrams showing other examples of the method of generating the image region group GP. For example, as shown in FIG. 19, when the detection region Ra is set for each OCT image IM arranged in the y direction, the group generation unit 232 has the same average brightness value as shown in FIG. One image region group GP is generated by synthesizing the image regions having B in the y direction. As shown in FIG. 20, the group generation unit 232 may synthesize image regions in consideration of a virtual width Δy that touches or overlaps with each other in the y direction. In the illustrated example, in order to simplify the explanation, the detection area Ra set in each OCT image IM is set to the same position in the x direction. Further, it is assumed that the interval of the OCT image IM in the y direction (that is, the scanning interval of the irradiation light in the y direction) is, for example, equal to or less than the maximum size of the assumed HRF.

そして、グループ生成部232は、上述したように、最大サイズΔLXおよび最大サイズΔLZと、それぞれに対応する許容サイズとを比較すると共に、画像領域グループGPのy方向の最大サイズΔLYと、y方向における許容サイズTHΔLYとを比較することで、画像領域グループGPの大きさが許容サイズ内であるのか否かを判定してよい。Then, as described above, the group generation unit 232 compares the maximum size ΔLX and the maximum size ΔLZ with the allowable sizes corresponding to each, and also compares the maximum size ΔLY in the y direction of the image area group GP with the maximum size ΔLY in the y direction. By comparing with the permissible size TH ΔLY , it may be determined whether or not the size of the image region group GP is within the permissible size.

図21に示すように、例えば、グループ生成部232は、画像領域グループGPの大きさが許容サイズ内でなければ、その画像領域グループGPが示す高輝度部位が抽出対象のHRFとは異なる対象物(例えば血管等)であると判断して、画像領域グループGPの元となった複数の画像領域の画素に対応付けられた高輝度部位フラグを「1」から「0」に変更する(ステップS110)。これによって、画像領域グループGPの元となった複数の画像領域に対してなされた、高輝度部位であるという判定結果が棄却され、当該画像領域が高輝度部位ではないものとして扱われることになる。一方、画像領域グループGPの大きさが許容サイズ内であれば、その画像領域グループGPが示す画像領域はHRFとして検出される。 As shown in FIG. 21, for example, in the group generation unit 232, if the size of the image area group GP is not within the allowable size, the high-luminance portion indicated by the image area group GP is an object different from the HRF to be extracted. (For example, a blood vessel or the like) is determined, and the high-luminance portion flag associated with the pixels of the plurality of image regions that are the source of the image region group GP is changed from "1" to "0" (step S110). ). As a result, the determination result that the image region is a high-luminance region made for the plurality of image regions that are the source of the image region group GP is rejected, and the image region is treated as not being a high-luminance region. .. On the other hand, if the size of the image area group GP is within the permissible size, the image area indicated by the image area group GP is detected as HRF.

次に、グループ生成部232は、高輝度部位であるという判定結果が棄却されなかった画像領域グループGPの数、すなわち検出されたHRFの数を算出する(ステップS112)。 Next, the group generation unit 232 calculates the number of image region group GPs for which the determination result of the high-luminance region has not been rejected, that is, the number of detected HRFs (step S112).

次に、制御部220は、OCT三次元データ212に含まれる全てのOCT画像IMについて、S104からS112までの一連の処理を行ったか否かを判定する(ステップS114)。全てのOCT画像IMについて、上述した一例の処理を行っていないと判定した場合、制御部220は、S104の処理に戻る。 Next, the control unit 220 determines whether or not all the OCT image IMs included in the OCT three-dimensional data 212 have been subjected to a series of processes from S104 to S112 (step S114). When it is determined that the above-mentioned example processing has not been performed for all the OCT image IMs, the control unit 220 returns to the processing of S104.

一方、全てのOCT画像IMについて、上述した一例の処理を行ったと判定された場合、診断判定部234は、グループ生成部232により算出されたHRFの数(以下、HRF数と称する)に基づいて、被検体である眼球Eの診断を行う(ステップS116)。例えば、診断判定部234は、OCT画像IMごとのHRF数、或いはOCT三次元データ212ごとのHRF数を参照し、HRF数が基準値よりも大きい場合、「被験者は特定の疾病(例えば糖尿病網膜症)を患っている可能性がある」、といった診断結果を下してよい。例えば、基準値は、観測されたHRF数と、特定の疾病の発症の有無との相関結果などに基づいて適宜決定されてよい。 On the other hand, when it is determined that all the OCT image IMs have undergone the above-mentioned example processing, the diagnostic determination unit 234 is based on the number of HRFs calculated by the group generation unit 232 (hereinafter referred to as the number of HRFs). , Diagnose the eyeball E as the subject (step S116). For example, the diagnostic determination unit 234 refers to the number of HRFs for each OCT image IM or the number of HRFs for each OCT three-dimensional data 212, and when the number of HRFs is larger than the reference value, "the subject has a specific disease (for example, diabetic retinopathy). You may be suffering from a disease). " For example, the reference value may be appropriately determined based on the correlation result between the observed number of HRFs and the presence or absence of the onset of a specific disease.

次に、表示制御部236は、診断判定部234による診断結果に基づく画像を表示部204に表示させる(ステップS118)。これによって、本フローチャートの処理が終了する。 Next, the display control unit 236 causes the display unit 204 to display an image based on the diagnosis result by the diagnosis determination unit 234 (step S118). This completes the processing of this flowchart.

図22は、診断判定部234による診断結果に基づく画像が表示された表示部204の一例を示す図である。図示の例では、表示制御部236は、表示部204を制御して、HRF数と、HRF数の基準値と、特定の疾病の有無(或いはその蓋然性)とを含む診断結果を表示させると共に、代表的なOCT画像IM(例えば、最もHRF数が多い画像)に、抽出されたHRFをその抽出位置に重畳させて表示させている。このような画像を表示部204に表示させることによって、読影者(例えば医師や看護師など)ごとの経験や技量等に依存せずに、定量的かつ客観的に診断結果を下すことができる。なお、表示制御部236は、単にグループ生成部232により算出されたHRF数と、その算出元のOCT画像IMとを関連付けた画像を表示部204に表示させてもよい。これによって、少なくともHRF数について客観的に定量化することができる。 FIG. 22 is a diagram showing an example of a display unit 204 on which an image based on the diagnosis result by the diagnosis determination unit 234 is displayed. In the illustrated example, the display control unit 236 controls the display unit 204 to display a diagnostic result including the number of HRFs, a reference value of the number of HRFs, and the presence / absence (or probability of) of a specific disease. The extracted HRF is superimposed on the extraction position and displayed on a typical OCT image IM (for example, the image having the largest number of HRFs). By displaying such an image on the display unit 204, it is possible to quantitatively and objectively obtain a diagnosis result without depending on the experience and skill of each interpreter (for example, a doctor or a nurse). The display control unit 236 may simply display an image in which the number of HRFs calculated by the group generation unit 232 and the OCT image IM of the calculation source are associated with the display unit 204 on the display unit 204. This makes it possible to objectively quantify at least the number of HRFs.

なお、上述したフローチャートの処理において、画像前処理部224によるセグメンテーション処理と、禁止領域および許可領域を区分して設定する処理とは、S104に示す高輝度部位の抽出処理の前に行われるものとして説明したがこれに限られない。例えば、セグメンテーション処理と、禁止領域および許可領域を区分して設定する処理とは、S104に示す高輝度部位の抽出処理の後に行われてもよい。この場合、検出領域RaはOCT画像IMの全体に設定され、禁止領域に相当する画像領域からも高輝度部位が抽出され得る。高輝度部位判定部230は、画像領域グループGPの生成前の段階において、OCT画像IMの全体から抽出された高輝度部位が、禁止領域に属するのか否かを判定する。例えば、高輝度部位判定部230は、禁止領域から抽出された高輝度部位については、走査位置情報214において、その高輝度部位の抽出領域に対応する高輝度部位フラグを「0」に変更することで、高輝度部位であるという判定結果を棄却する。この結果、セグメンテーション処理と、禁止領域および許可領域を区分して設定する処理との双方が高輝度部位の抽出処理の前に行われるのと同様に、HRFの検出精度を維持しつつ処理負荷を軽減することができる。 In the processing of the above-mentioned flowchart, the segmentation processing by the image preprocessing unit 224 and the processing of dividing and setting the prohibited area and the permitted area are assumed to be performed before the extraction processing of the high-luminance portion shown in S104. I explained, but it is not limited to this. For example, the segmentation process and the process of dividing and setting the prohibited area and the permitted area may be performed after the extraction process of the high-luminance portion shown in S104. In this case, the detection region Ra is set in the entire OCT image IM, and a high-luminance portion can be extracted from the image region corresponding to the prohibited region. The high-intensity region determination unit 230 determines whether or not the high-luminance region extracted from the entire OCT image IM belongs to the prohibited region in the stage before the generation of the image region group GP. For example, the high-luminance region determination unit 230 changes the high-luminance region flag corresponding to the extraction region of the high-luminance region to "0" in the scanning position information 214 for the high-luminance region extracted from the prohibited region. Then, the judgment result that it is a high-luminance part is rejected. As a result, the processing load is increased while maintaining the HRF detection accuracy, as in the case where both the segmentation process and the process of dividing and setting the prohibited area and the permitted area are performed before the extraction process of the high-luminance portion. Can be mitigated.

また、上述した第1実施形態では、対照領域Rbは、ある着目するOCT画像IMと、その前後のOCT画像IMj−1およびOCT画像IMj+1とに設定されるものとして説明したがこれに限られない。例えば、検出領域Raがy方向にも延在する場合、すなわち検出領域Raが三次元領域として扱われる場合、y方向に並んだ複数のOCT画像IMに跨って検出領域Raが設定される。このとき、例えば、y方向に関して互いに隣接する2つのOCT画像IMとIMj+1に対して同じ検出領域Raが設定されると、対照領域Rbは、OCT画像IMの前のOCT画像IMj−1と、前々のOCT画像IMj−2とに設定されると共に、OCT画像IMj+1の後のOCT画像IMj+2と、後々のOCT画像IMj+3とに設定されてよい。すなわち、同じ検出領域Raが設定される複数のOCT画像IMを一つのブロック(以下、検出ブロックと称す)と考え、その検出ブロックの前後に対照領域Rbを設定するための同サイズのブロック(以下、対照ブロックと称す)を設定してもよい。同サイズとは、検出ブロックに含まれるOCT画像IMの数が同じであることをいう。例えば、検出ブロックに2つのOCT画像IMが含まれれば、前後の対照ブロックは、それぞれ2つのOCT画像IMを含むように設定される。なお、対照ブロックのサイズは、検出ブロックと異なっていてもよい。例えば、対照ブロックのサイズは、検出ブロックのサイズの2倍や3倍などであってもよい。Further, in the above-described first embodiment, the control region Rb has been described as being set to a certain OCT image IM j of interest, and the OCT image IM j-1 and the OCT image IM j + 1 before and after the control region Rb. Not limited. For example, when the detection area Ra extends in the y direction, that is, when the detection area Ra is treated as a three-dimensional area, the detection area Ra is set across a plurality of OCT image IMs arranged in the y direction. In this case, for example, when two OCT image IM j and IM j + same detection region Ra for one adjacent to each other in the y direction is set, the control region Rb is the previous OCT image IM j OCT image IM j- 1, while being set to a second previous OCT images IM j-2, an OCT image IM j + 2 after the OCT image IM j + 1, may be set to a later of the OCT image IM j + 3. That is, a plurality of OCT image IMs in which the same detection region Ra is set are considered as one block (hereinafter referred to as a detection block), and blocks of the same size for setting a control region Rb before and after the detection block (hereinafter referred to as a detection block). , Called a control block) may be set. The same size means that the number of OCT image IMs included in the detection block is the same. For example, if the detection block contains two OCT image IMs, the front and rear control blocks are set to contain two OCT image IMs, respectively. The size of the control block may be different from that of the detection block. For example, the size of the control block may be twice or three times the size of the detection block.

以上説明した第1実施形態によれば、OCT三次元データが示す三次元画像において、検出領域Raと、検出領域Raを囲む対照領域Rbとの画素値の比較に基づいて、検出領域Raが、HRFを示す高輝度部位などの所定の画像領域であるのか否かを判定することにより、OCT画像IMから画像処理によって、HRFなどの眼球Eに生じた事象を検出することができる。 According to the first embodiment described above, in the three-dimensional image indicated by the OCT three-dimensional data, the detection region Ra is determined based on the comparison of the pixel values of the detection region Ra and the control region Rb surrounding the detection region Ra. By determining whether or not it is a predetermined image region such as a high-intensity portion showing HRF, it is possible to detect an event occurring in the eyeball E such as HRF by image processing from the OCT image IM.

(第2実施形態)
以下、第2実施形態における画像処理装置200について説明する。第2実施形態における画像処理装置200では、例えば、非特許文献1に開示された手法を応用し、検出領域Raと対照領域Rbとの間にギャップを設ける点で、第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する部分についての説明は省略する。
(Second Embodiment)
Hereinafter, the image processing apparatus 200 according to the second embodiment will be described. The image processing apparatus 200 according to the second embodiment is different from the first embodiment in that, for example, the method disclosed in Non-Patent Document 1 is applied to provide a gap between the detection region Ra and the control region Rb. .. Hereinafter, the differences from the first embodiment will be mainly described, and the description of the parts common to the first embodiment will be omitted.

図23は、検出領域Raとの間にギャップを設けて対照領域Rbを設定する方法の一例を説明するための図である。例えば、OCT画像IMに対して対照領域Rbを設定する場合、検出領域走査部226は、x方向に関して検出領域Raの両隣なりに、それぞれ検出領域Ra一つ分のギャップを設けて、対照領域Rbを設定する。具体的には、検出領域Raのz方向の大きさがΔz、x方向の大きさがΔx、検出領域Raの中心座標Pが(x,z)である場合、検出領域走査部226は、座標P1(x−2Δx,z)と、座標P2(x+2Δx,z)とを中心座標にして対照領域Rbを設定する。FIG. 23 is a diagram for explaining an example of a method of setting a control region Rb by providing a gap with the detection region Ra. For example, when the control region Rb is set for the OCT image IM j , the detection region scanning unit 226 provides a gap for one detection region Ra on both sides of the detection region Ra in the x direction to provide a control region Rb. Set Rb. Specifically, when the magnitude of the detection region Ra in the z direction is Δz, the magnitude in the x direction is Δx, and the center coordinate P d of the detection region Ra is (x d , z d ), the detection region scanning unit 226 Sets the control region Rb with the coordinates P c 1 (x d -2Δx, z d ) and the coordinates P c 2 (x d + 2Δx, z d) as the center coordinates.

また、検出領域走査部226は、y方向に関して照領域Rbを設定する場合、検出領域Raが設定されたOCT画像IMに対して前後に並んだOCT画像IMj−1およびOCT画像IMj+1を、対照領域Rbを設定する対象の画像から除き、OCT画像IMj−2およびOCT画像IMj+2やOCT画像IMj−3およびOCT画像IMj+3などの着目しているOCT画像IMに隣接していない画像に対照領域Rbを設定する。これによって、x方向に加えてy方向に関しても検出領域Raと対照領域Rbとの間にギャップを設けることができる。Further, when the illumination region Rb is set in the y direction, the detection region scanning unit 226 displays the OCT image IM j-1 and the OCT image IM j + 1 arranged in front of and behind the OCT image IM j in which the detection region Ra is set. , Excluded from the target image for which the control region Rb is set, and is adjacent to the OCT image IM j of interest such as OCT image IM j-2 and OCT image IM j + 2 and OCT image IM j-3 and OCT image IM j + 3. A control region Rb is set for no image. As a result, a gap can be provided between the detection region Ra and the control region Rb not only in the x direction but also in the y direction.

図24は、検出領域Raと対照領域Rbとの間にギャップを設けない場合の高輝度部位の検出結果の一例を示す図である。また、図25は、検出領域Raと対照領域Rbとの間にギャップを設けた場合の高輝度部位の検出結果の一例を示す図である。例えば、検出対象である高輝度部位のx方向の大きさが、検出領域Raおよび対照領域Rbの双方のx方向の大きさと同程度である場合がある。このような場合において、図24に示すように、検出領域Raと対照領域Rbとの間にギャップを設けない場合、検出対象である高輝度部位が検出領域Raと対照領域Rbとの双方に重畳される可能性があり、検出領域Raの平均輝度値Bから対照領域Rbの平均輝度値Cを減算した値(B−C)が差分輝度閾値THc未満となりやすく、本来であれば、検出領域Raが高輝度部位を示す画像領域であると判定されるべきところが、検出領域Raが高輝度部位を示す画像領域でないと判定され得る。これに対して、図25に示すように、検出領域Raと対照領域Rbとの間にギャップを設けた場合、高輝度部位が大きく、検出領域Raに隣接した領域にも重畳するような場合であっても、その重畳する領域がギャップとして設けられた領域であるため、検出領域Raの平均輝度値Bから対照領域Rbの平均輝度値Cを減算した値(B−C)が差分輝度閾値THc以上となりやすく、高輝度部位を示す画像領域を精度良く検出することができる。 FIG. 24 is a diagram showing an example of a detection result of a high-luminance portion when no gap is provided between the detection region Ra and the control region Rb. Further, FIG. 25 is a diagram showing an example of a detection result of a high-luminance portion when a gap is provided between the detection region Ra and the control region Rb. For example, the size of the high-luminance portion to be detected in the x-direction may be about the same as the size of both the detection region Ra and the control region Rb in the x-direction. In such a case, as shown in FIG. 24, when no gap is provided between the detection region Ra and the control region Rb, the high-luminance portion to be detected is superimposed on both the detection region Ra and the control region Rb. The value (BC) obtained by subtracting the average luminance value C of the control region Rb from the average luminance value B of the detection region Ra tends to be less than the differential luminance threshold THc. Where it should be determined that is an image region indicating a high-luminance region, it can be determined that the detection region Ra is not an image region indicating a high-luminance region. On the other hand, as shown in FIG. 25, when a gap is provided between the detection region Ra and the control region Rb, the high-luminance portion is large and is superimposed on the region adjacent to the detection region Ra. Even if there is, since the overlapping region is a region provided as a gap, the value (BC) obtained by subtracting the average luminance value C of the control region Rb from the average luminance value B of the detection region Ra is the differential luminance threshold THc. This is likely to occur, and the image region indicating the high-luminance portion can be detected with high accuracy.

図26から図30は、ギャップを設けるときの対照領域Rbの設定方法のバリエーションの一例を示す図である。いずれの図でも、三次元画像のあるx−y平面を表している。例えば、図26に例示するように、x−y平面において、検出領域Raの中心座標が(x,y)である場合、検出領域走査部226は、座標(x,y−2Δx)、(x+2Δx,y)、(x,y+2Δy)、(x−2Δx,y)の其々を中心座標とした4つの対照領域Rbを設定することで、x方向において検出領域Raの幅Δx分のギャップを設けることができ、y方向において検出領域Raの幅Δy分のギャップを設けることができる。26 to 30 are views showing an example of variations in the method of setting the control region Rb when providing a gap. Each figure represents an xy plane with a three-dimensional image. For example, as illustrated in FIG. 26, when the center coordinates of the detection region Ra are (x d , y d ) in the xy plane, the detection region scanning unit 226 has the coordinates (x d , y d -2Δx). ), (X d + 2Δx, y d ), (x d , y d + 2Δy), (x d -2Δx, y d ) by setting four control regions Rb with each of them as the center coordinate, in the x direction. In, a gap of the width Δx of the detection region Ra can be provided, and a gap of the width Δy of the detection region Ra can be provided in the y direction.

また、図27に例示するように、検出領域走査部226は、座標(x,y−2Δx)および(x,y+2Δy)を中心座標として、検出領域Raのx方向の大きさ(Δx)の5倍程度の大きさ(5Δx)をもつ対照領域Rbを設定してもよい。Further, as illustrated in FIG. 27, the detection area scanning unit 226 has the magnitude of the detection area Ra in the x direction with the coordinates (x d , y d -2Δx) and (x d , y d + 2Δy) as the center coordinates. A control region Rb having a size (5Δx) about 5 times as large as (Δx) may be set.

また、図28に例示するように、検出領域走査部226は、x方向およびy方向に関して交差する方向(図示の例では45°の角度で交差する方向)に、ギャップを設けて対照領域Rbを設定してもよい。 Further, as illustrated in FIG. 28, the detection region scanning unit 226 provides a gap in the direction of intersection with respect to the x direction and the y direction (direction of intersection at an angle of 45 ° in the illustrated example) to provide a control region Rb. It may be set.

また、図29に例示するように、検出領域走査部226は、対照領域Rb同士が互いに一部重なるように、複数の対照領域Rbを設定してもよい。これによって、検出領域Raの周囲に、その領域が連続した見かけ上一つの対照領域Rbが設定される。 Further, as illustrated in FIG. 29, the detection region scanning unit 226 may set a plurality of control regions Rb so that the control regions Rbs partially overlap each other. As a result, an apparently one control region Rb in which the region is continuous is set around the detection region Ra.

また、検出領域走査部226は、検出領域Ra一つ分のギャップを設けた位置に対照領域Rbを設定する代わりに、図30に例示するように、例えば、検出領域Raの半分の大きさのギャップを設けた位置に対照領域Rbを設定してもよいし、検出領域Raの2倍や3倍などの等倍の大きさのギャップを設けた位置に対照領域Rbを設定してもよい。 Further, instead of setting the control region Rb at a position where a gap for one detection region Ra is provided, the detection region scanning unit 226 has, for example, half the size of the detection region Ra, as illustrated in FIG. The control region Rb may be set at a position where the gap is provided, or the control region Rb may be set at a position where a gap having a size equal to twice or three times the detection region Ra is provided.

以上説明した第2実施形態によれば、検出領域Raとの間にギャップを設けて対照領域Rbを設定するため、HRFなどの高輝度部位の形状が歪であったり、その大きさがばらついていたりしても、精度良く高輝度部位を検出することができる。この結果、HRFなどの眼球Eに生じた事象を、より精度良く検出することができる。 According to the second embodiment described above, since the control region Rb is set by providing a gap between the detection region Ra and the detection region Ra, the shape of the high-luminance portion such as the HRF is distorted or its size varies. Even if it does, it is possible to detect the high-luminance part with high accuracy. As a result, an event occurring in the eyeball E such as HRF can be detected more accurately.

[ハードウェア構成]
上述した実施形態の画像処理装置200は、例えば、図31に示すようなハードウェアの構成により実現される。図31は、実施形態の画像処理装置200のハードウェア構成の一例を示す図である。
[Hardware configuration]
The image processing device 200 of the above-described embodiment is realized by, for example, a hardware configuration as shown in FIG. FIG. 31 is a diagram showing an example of the hardware configuration of the image processing device 200 of the embodiment.

画像処理装置200は、NIC(Network Interface Card)等の通信インターフェース200−1、CPU200−2、RAM200−3、ROM200−4、フラッシュメモリやHDD等の二次記憶装置200−5、およびドライブ装置200−6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置200−6には、光ディスク等の可搬型記憶媒体が装着される。二次記憶装置200−5に格納されたプログラム200−5aがDMAコントローラ(不図示)等によってRAM200−3に展開され、CPU200−2によって実行されることで、制御部220が実現される。また、CPU200−2が参照するプログラムは、ドライブ装置200−6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークを介して他の装置からダウンロードされてもよい。 The image processing device 200 includes a communication interface 200-1 such as a NIC (Network Interface Card), a CPU 200-2, a RAM 200-3, a ROM 200-4, a secondary storage device 200-5 such as a flash memory or an HDD, and a drive device 200. -6 are connected to each other by an internal bus or a dedicated communication line. A portable storage medium such as an optical disk is mounted on the drive device 200-6. The program 200-5a stored in the secondary storage device 200-5 is expanded into the RAM 200-3 by a DMA controller (not shown) or the like, and executed by the CPU 200-2 to realize the control unit 220. Further, the program referred to by the CPU 200-2 may be stored in a portable storage medium mounted on the drive device 200-6, or may be downloaded from another device via a network.

上記実施形態は、以下のように表現することができる。
情報を記憶するストレージと、
前記ストレージに格納されたプログラムを実行するプロセッサと、を備え、
前記プロセッサは、前記プログラムを実行することにより、
光干渉断層法により眼球に光を照射することで生成され、第1方向の解像度が、前記第1方向に直交する第2方向の解像度に比して高い複数の光干渉断層画像であって、前記第1方向および前記第2方向のそれぞれと直交する第3方向に並べられた複数の光干渉断層画像を取得し、
取得した複数の光干渉断層画像により形成される仮想的な三次元画像において、検出領域と、前記検出領域を囲む領域内に設定される対照領域との画素値の比較に基づいて、前記検出領域が、前記眼球において所定の事象が発生している所定の画像領域であるのか否かを判定するように構成された画像処理装置。
The above embodiment can be expressed as follows.
Storage to store information and
A processor that executes a program stored in the storage is provided.
The processor executes the program.
A plurality of optical interference tomographic images generated by irradiating an eyeball with light by the optical interference tomography method and having a resolution in the first direction higher than that in the second direction orthogonal to the first direction. A plurality of optical interference tomographic images arranged in a third direction orthogonal to each of the first direction and the second direction are acquired.
In a virtual three-dimensional image formed by a plurality of acquired optical interference tomographic images, the detection region is based on a comparison of pixel values between the detection region and a control region set in the region surrounding the detection region. Is an image processing device configured to determine whether or not a predetermined image region in which a predetermined event occurs in the eyeball.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1‥眼底撮像システム、100…OCT撮像装置、110…OCTユニット、120…照明光学系、130…撮像光学系、200…画像処理装置、202…通信インターフェース、204…表示部、210…記憶部、212…OCT三次元データ、214…走査位置情報、220…制御部、222…取得部、224…画像前処理部、226…検出領域走査部、228…輝度演算部、230…高輝度部位判定部、232…グループ生成部、234…診断判定部、236…表示制御部、E…眼球、Er…眼底 1. Fundus imaging system, 100 ... OCT imaging device, 110 ... OCT unit, 120 ... illumination optical system, 130 ... imaging optical system, 200 ... image processing device, 202 ... communication interface, 204 ... display unit, 210 ... storage unit, 212 ... OCT three-dimensional data, 214 ... scanning position information, 220 ... control unit, 222 ... acquisition unit, 224 ... image preprocessing unit, 226 ... detection area scanning unit, 228 ... brightness calculation unit, 230 ... high brightness part determination unit , 232 ... Group generation unit, 234 ... Diagnosis judgment unit, 236 ... Display control unit, E ... Eyeball, Er ... Fundus

Claims (19)

光干渉断層法により眼球に光を照射することで生成され、第1方向の解像度が、前記第1方向に直交する第2方向の解像度に比して高い複数の光干渉断層画像であって、前記第1方向および前記第2方向のそれぞれと直交する第3方向に並べられた複数の光干渉断層画像を取得する取得部と、
前記取得部により取得された複数の光干渉断層画像により形成される仮想的な三次元画像において、検出領域と、前記検出領域を囲む領域内に設定される対照領域との画素値の比較に基づいて、前記検出領域が、前記眼球において所定の事象が発生している所定の画像領域であるのか否かを判定する判定部と、
を備える画像処理装置。
A plurality of optical interference tomographic images generated by irradiating an eyeball with light by the optical interference tomography method and having a resolution in the first direction higher than that in the second direction orthogonal to the first direction. An acquisition unit that acquires a plurality of optical interference tomographic images arranged in a third direction orthogonal to each of the first direction and the second direction.
In a virtual three-dimensional image formed by a plurality of optical interference tomographic images acquired by the acquisition unit, the pixel values of the detection region and the control region set in the region surrounding the detection region are compared. A determination unit for determining whether or not the detection region is a predetermined image region in which a predetermined event occurs in the eyeball.
An image processing device comprising.
前記第1方向は、前記光干渉断層画像の生成過程において前記眼球に照射される光の照射方向に沿う方向である、
請求項1に記載の画像処理装置。
The first direction is a direction along the irradiation direction of the light irradiated to the eyeball in the process of generating the optical interference tomographic image.
The image processing apparatus according to claim 1.
前記対照領域は、前記第1方向周りに前記検出領域を囲む領域である、
請求項1または2に記載の画像処理装置。
The control region is a region surrounding the detection region around the first direction.
The image processing apparatus according to claim 1 or 2.
前記検出領域の長手方向は、前記第1方向である、
請求項1から3のうちいずれか1項に記載の画像処理装置。
The longitudinal direction of the detection region is the first direction.
The image processing apparatus according to any one of claims 1 to 3.
前記判定部は、前記検出領域の画素値の平均値と、前記対照領域の画素値の平均値との差分が第1閾値以上である場合に、前記検出領域が、所定の画像領域であると判定する、
請求項1から4のうちいずれか1項に記載の画像処理装置。
When the difference between the average value of the pixel values in the detection region and the average value of the pixel values in the control region is equal to or greater than the first threshold value, the determination unit determines that the detection region is a predetermined image region. judge,
The image processing apparatus according to any one of claims 1 to 4.
前記判定部は、更に、前記検出領域の画素値の最大値が第2閾値以上であるのか否かを判定し、前記検出領域の画素値の最大値が第2閾値以上でない場合に、前記検出領域が、所定の画像領域でないと判定する、
請求項1から5のうちいずれか1項に記載の画像処理装置。
The determination unit further determines whether or not the maximum value of the pixel value in the detection region is equal to or greater than the second threshold value, and when the maximum value of the pixel value in the detection region is not equal to or greater than the second threshold value, the detection unit Determining that the area is not a predetermined image area,
The image processing apparatus according to any one of claims 1 to 5.
前記判定部は、更に、前記検出領域の画素値の平均値が第3閾値以上であるのか否かを判定し、前記検出領域の画素値の平均値が第3閾値以上でない場合に、前記検出領域が、所定の画像領域でないと判定する、
請求項1から6のうちいずれか1項に記載の画像処理装置。
The determination unit further determines whether or not the average value of the pixel values in the detection region is equal to or greater than the third threshold value, and when the average value of the pixel values in the detection region is not equal to or greater than the third threshold value, the detection unit Determining that the area is not a predetermined image area,
The image processing apparatus according to any one of claims 1 to 6.
前記対照領域は、前記検出領域が設定された前記光干渉断層画像上に設定される、
請求項1から7のうちいずれか1項に記載の画像処理装置。
The control region is set on the optical interference tomographic image in which the detection region is set.
The image processing apparatus according to any one of claims 1 to 7.
前記対照領域は、前記第2方向において前記検出領域と隣り合う位置のいずれか一方または双方に設定される、
請求項8に記載の画像処理装置。
The control region is set at either or both of the positions adjacent to the detection region in the second direction.
The image processing apparatus according to claim 8.
前記対照領域は、前記取得部により取得された複数の光干渉断層画像のうち、前記第3方向において、前記検出領域が設定された前記光干渉断層画像と隣り合う、少なくとも1つ以上の光干渉断層画像上に設定される、
請求項8または9に記載の画像処理装置。
The control region is at least one or more optical interference adjacent to the optical interference tomographic image in which the detection region is set in the third direction among the plurality of optical interference tomographic images acquired by the acquisition unit. Set on the tomographic image,
The image processing apparatus according to claim 8 or 9.
前記対照領域は、前記第1方向において、前記検出領域の位置に基づく位置に設定される、
請求項8から10のうちいずれか1項に記載の画像処理装置。
The control region is set at a position based on the position of the detection region in the first direction.
The image processing apparatus according to any one of claims 8 to 10.
前記対照領域は、少なくとも前記第1方向において前記検出領域と同程度の大きさで設定される、
請求項8から11のうちいずれか1項に記載の画像処理装置。
The control region is set to be as large as the detection region at least in the first direction.
The image processing apparatus according to any one of claims 8 to 11.
前記判定部により所定の画像領域であると判定された画像領域のうち、画素値の平均値が同程度の画像領域をグループ化した画像領域グループを生成するグループ生成部と、
前記グループ生成部により生成された画像領域グループの数と、前記検出領域が設定された前記光干渉断層画像とを関連付けて表示部に表示させる表示制御部と、を更に備える、
請求項1から12のうちいずれか1項に記載の画像処理装置。
A group generation unit that generates an image area group in which image areas having the same average pixel value among the image areas determined to be a predetermined image area by the determination unit are grouped together.
A display control unit that associates the number of image area groups generated by the group generation unit with the optical interference tomographic image in which the detection area is set and displays them on the display unit is further provided.
The image processing apparatus according to any one of claims 1 to 12.
前記検出領域が設定される予定の前記光干渉断層画像を、前記検出領域の設定を禁止する禁止領域と、前記検出領域の設定を許可する許可領域とに分割するセグメンテーション処理部を更に備える、
請求項13に記載の画像処理装置。
A segmentation processing unit further comprises a segmentation processing unit that divides the optical interference tomographic image to which the detection area is to be set into a prohibited area for prohibiting the setting of the detection area and a permitted area for permitting the setting of the detection area.
The image processing apparatus according to claim 13.
前記検出領域が設定された前記光干渉断層画像を、前記検出領域の設定を禁止する禁止領域と、前記検出領域の設定を許可する許可領域とに分割するセグメンテーション処理部を更に備える、
請求項13に記載の画像処理装置。
It further includes a segmentation processing unit that divides the optical interference tomographic image in which the detection area is set into a prohibited area for prohibiting the setting of the detection area and a permitted area for permitting the setting of the detection area.
The image processing apparatus according to claim 13.
前記グループ生成部により生成された画像領域グループの数に基づいて、前記眼球の病状を診断する診断部を更に備え、
前記表示制御部は、前記診断部による診断結果に基づく画像を前記表示部に表示させる、
請求項13から15のうちいずれか1項に記載の画像処理装置。
A diagnostic unit for diagnosing the pathological condition of the eyeball is further provided based on the number of image region groups generated by the group generation unit.
The display control unit causes the display unit to display an image based on the diagnosis result by the diagnosis unit.
The image processing apparatus according to any one of claims 13 to 15.
請求項1から16のうちいずれか1項に記載の画像処理装置と、
前記第1方向の分解能が前記第2方向の分解能に比して高く、前記光干渉断層法により眼球に光を照射することで前記複数の光干渉断層画像を生成する光干渉断層画像撮像装置と、
を備える眼底撮像システム。
The image processing apparatus according to any one of claims 1 to 16.
With an optical interference tomographic image imaging device that has a higher resolution in the first direction than the resolution in the second direction and generates the plurality of optical interference tomographic images by irradiating the eyeball with light by the optical interference tomography method. ,
A fundus imaging system equipped with.
コンピュータが、
光干渉断層法により眼球に光を照射することで生成され、第1方向の解像度が、前記第1方向に直交する第2方向の解像度に比して高い複数の光干渉断層画像であって、前記第1方向および前記第2方向のそれぞれと直交する第3方向に並べられた複数の光干渉断層画像を取得し、
前記取得した複数の光干渉断層画像により形成される仮想的な三次元画像において、検出領域と、前記検出領域を囲む領域内に設定される対照領域との画素値の比較に基づいて、前記検出領域が、前記眼球において所定の事象が発生している所定の画像領域であるのか否かを判定する、
画像処理方法。
The computer
A plurality of optical interference tomographic images generated by irradiating an eyeball with light by the optical interference tomography method and having a resolution in the first direction higher than that in the second direction orthogonal to the first direction. A plurality of optical interference tomographic images arranged in a third direction orthogonal to each of the first direction and the second direction are acquired.
In a virtual three-dimensional image formed by the plurality of acquired optical interference tomographic images, the detection is based on a comparison of pixel values between the detection region and the control region set in the region surrounding the detection region. It is determined whether or not the region is a predetermined image region in which a predetermined event occurs in the eyeball.
Image processing method.
コンピュータに、
光干渉断層法により眼球に光を照射することで生成され、第1方向の解像度が、前記第1方向に直交する第2方向の解像度に比して高い複数の光干渉断層画像であって、前記第1方向および前記第2方向のそれぞれと直交する第3方向に並べられた複数の光干渉断層画像を取得させ、
前記取得させた複数の光干渉断層画像により形成される仮想的な三次元画像において、検出領域と、前記検出領域を囲む領域内に設定される対照領域との画素値の比較に基づいて、前記検出領域が、前記眼球において所定の事象が発生している所定の画像領域であるのか否かを判定させる、
プログラム。
On the computer
A plurality of optical interference tomographic images generated by irradiating an eyeball with light by the optical interference tomography method and having a resolution in the first direction higher than that in the second direction orthogonal to the first direction. A plurality of optical interference tomographic images arranged in a third direction orthogonal to each of the first direction and the second direction are acquired.
In a virtual three-dimensional image formed by the plurality of acquired optical interference tomographic images, the pixel values of the detection region and the control region set in the region surrounding the detection region are compared. It is made to determine whether or not the detection area is a predetermined image area in which a predetermined event occurs in the eyeball.
program.
JP2018547816A 2016-10-31 2017-10-30 Image processing equipment, fundus imaging system, image processing method, and program Active JP6860884B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016213815 2016-10-31
JP2016213815 2016-10-31
PCT/JP2017/039069 WO2018079765A1 (en) 2016-10-31 2017-10-30 Image processing device, fundus imaging system, image processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2018079765A1 JPWO2018079765A1 (en) 2019-09-19
JP6860884B2 true JP6860884B2 (en) 2021-04-21

Family

ID=62023688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018547816A Active JP6860884B2 (en) 2016-10-31 2017-10-30 Image processing equipment, fundus imaging system, image processing method, and program

Country Status (2)

Country Link
JP (1) JP6860884B2 (en)
WO (1) WO2018079765A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102455767B1 (en) * 2020-09-14 2022-10-18 충북대학교 산학협력단 Method for predicting early recurrence of diabetic macular edema refractory

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5007114B2 (en) * 2006-12-22 2012-08-22 株式会社トプコン Fundus observation apparatus, fundus image display apparatus, and program
JP2009175845A (en) * 2008-01-22 2009-08-06 Fuji Xerox Co Ltd Image processor, pen device, and program

Also Published As

Publication number Publication date
WO2018079765A1 (en) 2018-05-03
JPWO2018079765A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
US20170319061A1 (en) Volume analysis and display of information in optical coherence tomography angiography
US8684528B2 (en) Fundus analyzing appartus and fundus analyzing method
CN112601487A (en) Medical image processing apparatus, medical image processing method, and program
WO2020036182A1 (en) Medical image processing device, medical image processing method, and program
JP6702764B2 (en) Optical coherence tomographic data processing method, program for executing the method, and processing apparatus
US20170065170A1 (en) Ophthalmic apparatus
JP6322042B2 (en) Ophthalmic photographing apparatus, control method thereof, and program
US11887288B2 (en) Image processing apparatus, image processing method, and storage medium
US10102621B2 (en) Apparatus, method, and program for processing image
US10758122B2 (en) Volume analysis and display of information in optical coherence tomography angiography
JP7419042B2 (en) Medical image processing device, optical coherence tomography device, medical image processing method, and program
JP7374615B2 (en) Information processing device, information processing method and program
WO2020137678A1 (en) Image processing device, image processing method, and program
JP6898724B2 (en) Image processing methods, image processing devices and programs
JP6815798B2 (en) Ophthalmic imaging equipment and ophthalmic image processing equipment
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
JP7362403B2 (en) Image processing device and image processing method
JP6375760B2 (en) Optical coherence tomography apparatus and fundus image processing program
WO2020050308A1 (en) Image processing device, image processing method and program
JP7195745B2 (en) Image processing device, image processing method and program
JP6860884B2 (en) Image processing equipment, fundus imaging system, image processing method, and program
WO2020075719A1 (en) Image processing device, image processing method, and program
JP7106304B2 (en) Image processing device, image processing method and program
JP7297952B2 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210319

R150 Certificate of patent or registration of utility model

Ref document number: 6860884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250