JP2012019958A - Image processor, program, and storage medium - Google Patents

Image processor, program, and storage medium Download PDF

Info

Publication number
JP2012019958A
JP2012019958A JP2010160098A JP2010160098A JP2012019958A JP 2012019958 A JP2012019958 A JP 2012019958A JP 2010160098 A JP2010160098 A JP 2010160098A JP 2010160098 A JP2010160098 A JP 2010160098A JP 2012019958 A JP2012019958 A JP 2012019958A
Authority
JP
Japan
Prior art keywords
layer boundary
layer
detected
tomographic image
boundary candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010160098A
Other languages
Japanese (ja)
Other versions
JP5563394B2 (en
Inventor
Kazuhiro Miyasa
和大 宮狭
Yohei Minatoya
洋平 湊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010160098A priority Critical patent/JP5563394B2/en
Publication of JP2012019958A publication Critical patent/JP2012019958A/en
Application granted granted Critical
Publication of JP5563394B2 publication Critical patent/JP5563394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To specify a retina layer boundary without a mistake even in an area existing in the back of an abnormal site based on a fundus surface, when the abnormal site causes which shows the change of a laminar structure due to a disease and a structure different from a normal structure in a tomographic image.SOLUTION: An image processor includes: a forward detection part for detecting a layer boundary candidate of a retina layer of a subject's eye by analyzing the tomographic image along a forward direction toward the depth side of the fundus from the fundus surface of the tomographic image of the subject's eye; an abnormal site detection part for analyzing the tomographic image to detect the position of the abnormal site in the retina layer; a backward detection part for detecting a layer boundary candidate of the retina layer of the subject's eye by analyzing the tomographic image along a backward direction toward the fundus surface from the depth side of the fundus of the tomographic image when the abnormal site is detected; and a layer boundary specifying part for specifying the layer boundary from the fundus surface to the abnormal site using the layer boundary candidate detected by the forward detection part, and specifying the layer boundary from the depth side of the fundus to the abnormal site using the layer boundary candidate detected by the backward detection part.

Description

本発明は、画像処理装置、プログラムおよび記憶媒体に関する。   The present invention relates to an image processing apparatus, a program, and a storage medium.

生活習慣病や失明原因の上位を占める疾病の早期診断を目的として、眼部の検査が広く行われている。光干渉断層計(OCT:Optical Coherence Tomography)などの眼部断層画像撮像装置は、網膜層内部の状態を3次元的に観察することが可能であるため、疾病の診断をより的確に行うのに有用であると期待されている。   Eye examinations are widely performed for the purpose of early diagnosis of lifestyle-related diseases and diseases that occupy the top causes of blindness. An ophthalmic tomographic imaging apparatus such as an optical coherence tomography (OCT) can observe the state inside the retinal layer three-dimensionally, so that disease diagnosis can be performed more accurately. Expected to be useful.

図11(a)の参照によりOCTで撮影した網膜の黄斑部断層画像を説明する。図11(a)のように、OCTの撮影により複数の断層画像からなる画像(ボリューム画像)を得ることができる。図11(a)において、T1〜Tnはボリューム画像における黄斑部の2次元断層画像(B-scan像、以下、断層画像と呼ぶ)である。また、断層画像Tnにおいて、L1は内境界膜、L2は神経線維層とその下部の層との境界(以下、神経線維層境界と呼ぶ)、L2’は神経線維層を表す。L3は内網状層とその下部の層との境界(以下、内網状層境界と呼ぶ)、L4は外網状層とその下部の層との境界(以下、外網状層境界と呼ぶ)を表す。L5は視細胞内節外節接合部、L6は網膜色素上皮境界を表している。   A macular tomographic image of the retina taken by OCT will be described with reference to FIG. As shown in FIG. 11A, an image (volume image) composed of a plurality of tomographic images can be obtained by OCT imaging. In FIG. 11A, T1 to Tn are two-dimensional tomographic images (B-scan images, hereinafter referred to as tomographic images) of the macular portion in the volume image. In the tomographic image Tn, L1 represents the inner boundary membrane, L2 represents the boundary between the nerve fiber layer and its lower layer (hereinafter referred to as the nerve fiber layer boundary), and L2 'represents the nerve fiber layer. L3 represents a boundary between the inner reticulated layer and its lower layer (hereinafter referred to as inner reticulated layer boundary), and L4 represents a boundary between the outer reticulated layer and its lower layer (hereinafter referred to as outer reticulated layer boundary). L5 represents the inner and outer segment junction of photoreceptor cells, and L6 represents the retinal pigment epithelium boundary.

なお、明細書中で「正常構造」という表現を用いているが、それは上記の説明のような、層L1〜L6が輝度値として画像中に存在するときの構造を表す。アーチファクトなどでいずれかの層の輝度値が存在しないときは正常構造ではないとする。   In addition, although the expression “normal structure” is used in the specification, it represents a structure when the layers L1 to L6 are present in the image as luminance values as described above. When there is no luminance value in any layer due to artifacts, it is assumed that the structure is not normal.

OCTを用いた画像診断を行うために、画像解析によって各網膜層境界を特定する技術の開発が求められている。例えば、深度方向の各ライン(以下、A-scanラインと呼ぶ)において、内境界膜L1や神経線維層境界L2を特定できれば、緑内障診断の重要な情報となる神経線維層L2'の厚みを定量化できる。また、内境界膜L1や網膜色素上皮境界L6を特定できれば、黄斑浮腫などの診断の重要な情報となるそれらの境界に挟まれた網膜層の厚みを定量化することができる。   In order to perform image diagnosis using OCT, development of a technique for identifying each retinal layer boundary by image analysis is required. For example, if the inner limiting membrane L1 and the nerve fiber layer boundary L2 can be identified in each line in the depth direction (hereinafter referred to as A-scan line), the thickness of the nerve fiber layer L2 ′ that is important information for glaucoma diagnosis is quantified. Can be Further, if the inner boundary membrane L1 and the retinal pigment epithelium boundary L6 can be specified, the thickness of the retinal layer sandwiched between these boundaries, which is important information for diagnosis such as macular edema, can be quantified.

実際に網膜層解析の従来技術においても、様々な方法で網膜層境界を決定している。特許文献1では、断層画像の画素値を眼底の深度方向に沿って順次参照することにより、層の境界位置を求める技術が開示されている。また、特許文献2では、内境界膜と網膜色素上皮は背景からの輝度変化が大きいところに着目し、断層画像の深度方向に沿って2つの強いエッジを検出し、浅い方のエッジを内境界膜、深い方のエッジを網膜色素上皮としている。   Actually, in the conventional technique of retinal layer analysis, the retinal layer boundary is determined by various methods. Patent Document 1 discloses a technique for obtaining a layer boundary position by sequentially referring to pixel values of a tomographic image along the depth direction of the fundus. In Patent Document 2, focusing on the fact that the inner boundary membrane and the retinal pigment epithelium have a large luminance change from the background, two strong edges are detected along the depth direction of the tomographic image, and the shallower edge is detected as the inner boundary. The membrane, the deeper edge, is the retinal pigment epithelium.

特開2008−073099号公報JP 2008-073099 A 米国特許7347548号公報U.S. Pat. No. 7,347,548

しかしながら、従来の技術では以下の課題があった。上述の特許文献1、2における網膜層境界の特定方法は図11(a)のように、各層が正常に存在する正常構造において利用可能である。しかし、疾病による層構造の変化や、正常構造とは異なる構造を示す部位では、単にエッジの強さや、正常構造における出現する層の順番情報だけでは網膜層境界を特定することができない。例えば、糖尿病黄斑症などの症例では、網膜内に嚢胞による低輝度な空洞領域がしばしば発生する。   However, the conventional techniques have the following problems. The method for specifying the retinal layer boundary in Patent Documents 1 and 2 described above can be used in a normal structure in which each layer normally exists as shown in FIG. However, at a site showing a layer structure change due to a disease or a structure different from the normal structure, the retinal layer boundary cannot be specified only by the edge strength or the order information of the layers appearing in the normal structure. For example, in cases such as diabetic macular disease, a low-luminance cavity region due to a cyst often occurs in the retina.

図11(b)に、網膜内に嚢胞を含む症例の黄斑部断層画像の模式図を示す。図11(b)において、L1〜L6は、図11(a)と同様に、順に内境界膜、神経線維層境界、内網状層境界、外網状層境界、視細胞内節外節接合部、網膜色素上皮層境界を表している。また、CYは嚢胞を表している。このような症例では、嚢胞CYと層境界が接合した状態になり(図11(b)ではL4が嚢胞CYと接合している)、嚢胞周辺の層境界が画像上に現れないことがある。このような症例において、特許文献1では通常存在する層境界を順次特定するため、画像上での嚢胞周辺の層境界の消失による影響で嚢胞の奥に存在する層境界の特定に誤りが生じてしまう。   FIG. 11B shows a schematic diagram of a macular tomographic image of a case including a cyst in the retina. In FIG. 11 (b), L1 to L6 are the inner boundary membrane, nerve fiber layer boundary, inner reticular layer boundary, outer reticular layer boundary, photoreceptor inner / outer joint junction, Represents the retinal pigment epithelium layer boundary. CY represents a cyst. In such a case, the cyst CY and the layer boundary are joined (L4 is joined to the cyst CY in FIG. 11B), and the layer boundary around the cyst may not appear on the image. In such a case, in Patent Document 1, since the layer boundary that normally exists is sequentially specified, an error occurs in the identification of the layer boundary existing in the back of the cyst due to the effect of the disappearance of the layer boundary around the cyst on the image. End up.

また、低輝度な嚢胞端部と高輝度な周辺領域の境界では大きな輝度差が生じる。そのため、特許文献2のような、深度方向に沿って2つの強いエッジを検出し、浅い方から順に内境界膜、網膜色素上皮境界と特定する方法では、2番目に検出される嚢胞端部のエッジを、誤って網膜色素上皮境界と特定してしまう可能性がある。   In addition, a large luminance difference occurs at the boundary between the low luminance cyst edge and the high luminance peripheral region. Therefore, in the method of detecting two strong edges along the depth direction as in Patent Document 2 and specifying the inner boundary membrane and the retinal pigment epithelium boundary in order from the shallower side, the second detected cyst end is detected. It is possible to mistakenly identify an edge as a retinal pigment epithelium boundary.

網膜の断層画像において、疾病による層構造の変化や正常構造とは異なる構造を示す異常部位が生じた場合に、眼底表面を基準に異常部位の奥に存在する領域に対しても、正確に網膜層境界を特定することが可能な画像処理技術の提供を目的とする。   In a tomographic image of the retina, when an abnormal site that shows a layer structure change due to a disease or a structure different from the normal structure occurs, the retina can be accurately detected even in an area existing behind the abnormal site with reference to the fundus surface. An object is to provide an image processing technique capable of specifying a layer boundary.

上記の目的を達成する本発明の一つの側面にかかる画像処理装置は、被検眼の断層画像の眼底表面から眼底の奥側に向かう順方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する順方向検出手段と、
前記断層画像を解析して前記網膜層の異常部位の位置を検出する異常部位検出手段と、
前記異常部位検出手段により前記異常部位の位置が検出されたことにより、前記断層画像の眼底の奥側から眼底表面に向かう逆方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する逆方向検出手段と、
前記眼底表面から前記異常部位までの層境界を、前記順方向検出手段で検出された層境界候補を用いて特定し、前記眼底の奥側から前記異常部位までの層境界を、前記逆方向検出手段で検出された層境界候補を用いて特定する層境界特定手段と、
を備えることを特徴とする。
An image processing apparatus according to one aspect of the present invention that achieves the above object is characterized by analyzing the tomographic image along a forward direction from the fundus surface of the tomographic image of the eye to be examined toward the back side of the fundus. Forward direction detecting means for detecting a layer boundary candidate of the retinal layer of the optometry,
An abnormal part detecting means for analyzing the tomographic image and detecting the position of the abnormal part of the retinal layer;
When the position of the abnormal part is detected by the abnormal part detection means, the retina of the eye to be examined is analyzed by analyzing the tomographic image along the reverse direction from the back side of the fundus to the fundus surface of the tomographic image. A reverse direction detecting means for detecting a layer boundary candidate of the layer;
A layer boundary from the fundus surface to the abnormal part is identified using a layer boundary candidate detected by the forward direction detection means, and a layer boundary from the back side of the fundus to the abnormal part is detected in the reverse direction. A layer boundary specifying means for specifying using a layer boundary candidate detected by the means;
It is characterized by providing.

本発明によれば、網膜の断層画像において、疾病による層構造の変化や正常構造とは異なる構造を示す異常部位が生じた場合に、眼底表面を基準に異常部位の奥に存在する領域に対しても、正確に網膜層境界を特定することができる。   According to the present invention, in a tomographic image of the retina, when an abnormal part that shows a structure change due to a disease or a structure different from a normal structure occurs, an area existing behind the abnormal part with respect to the fundus surface is used. However, the retinal layer boundary can be specified accurately.

第1実施形態に係る断層画像撮像装置の機能構成を示す図。The figure which shows the function structure of the tomographic image imaging apparatus which concerns on 1st Embodiment. 第1実施形態に係る断層画像撮像装置の処理手順を示す図。The figure which shows the process sequence of the tomographic imaging apparatus which concerns on 1st Embodiment. 網膜内に異常部位を含む症例において層境界を特定する様子を示す図。The figure which shows a mode that a layer boundary is specified in the case where an abnormal site | part is included in a retina. 第2実施形態に係る断層画像撮像装置の機能構成を示す図。The figure which shows the function structure of the tomographic imaging apparatus which concerns on 2nd Embodiment. 第2実施形態に係る断層画像撮像装置の処理手順を示す図。The figure which shows the process sequence of the tomographic imaging apparatus which concerns on 2nd Embodiment. 第3実施形態に係る断層画像撮像装置の機能構成を示す図。The figure which shows the function structure of the tomographic imaging apparatus which concerns on 3rd Embodiment. 第3実施形態に係る断層画像撮像装置の処理手順を示す図。The figure which shows the process sequence of the tomographic imaging apparatus which concerns on 3rd Embodiment. (a)画像上端で網膜層が途切れた症例において層境界を特定する様子を示す図、(b)画像下端で網膜層が途切れた症例において層境界を特定する様子を示す図。(A) The figure which shows a mode that a layer boundary is specified in the case where the retinal layer was interrupted at the upper end of an image, (b) The figure which shows a mode that a layer boundary is specified in the case where the retinal layer was interrupted at the lower end of an image. 第4実施形態に係る断層画像撮像装置の機能構成を示す図。The figure which shows the function structure of the tomographic imaging apparatus which concerns on 4th Embodiment. 第4実施形態に係る断層画像撮像装置の処理手順を示す図。The figure which shows the process sequence of the tomographic imaging apparatus which concerns on 4th Embodiment. (a)OCTで撮影した網膜の黄斑部断層画像の模式図、(b)網膜内に嚢胞を含む症例の黄斑部断層画像の模式図。(A) The schematic diagram of the macular part tomographic image of the retina image | photographed by OCT, (b) The schematic diagram of the macular part tomographic image of the case which contains a cyst in a retina.

以下、図面を参照して、本発明の好適な実施形態を例示的に詳しく説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

(第1実施形態)
本実施形態では、断層画像上の各A-scanラインに沿って眼底表面から網膜の奥側に進む向き(順方向)に画像解析をして層境界候補を検出する。次に、A-scanライン上で異常部位が検出された場合には、さらに網膜の奥側から眼底表面に進む向き(逆方向)に画像解析をして層境界候補を検出する。そして、検出された異常部位よりも網膜手前側の領域(異常部手前領域)は順方向、網膜奥側の領域(異常部奥領域)は逆方向の検出結果を層境界として特定する。これにより、異常部位周辺で生じる網膜の層構造の異常に影響されることなく、層境界を特定できる仕組みを提供する。
(First embodiment)
In this embodiment, layer boundary candidates are detected by performing image analysis in a direction (forward direction) from the fundus surface to the back side of the retina along each A-scan line on the tomographic image. Next, when an abnormal part is detected on the A-scan line, image analysis is further performed in the direction (reverse direction) from the back side of the retina to the fundus surface to detect a layer boundary candidate. Then, the detection result in the forward direction is specified for the region on the nearer side of the retina than the detected abnormal part (the region on the front of the abnormal part), and the region on the back side of the retina (the abnormal region on the back) is specified as the layer boundary. This provides a mechanism that can identify a layer boundary without being affected by an abnormality in the layer structure of the retina that occurs around the abnormal site.

以下の実施形態では、取得する複数の断層画像群からなる三次元画像データに対して解析処理を行う場合について説明する。しかし、複数の三次元画像データの中から注目すべき二次元の断層画像を選択して、選択された二次元の断層画像に対して処理を行う構成であってもよい。例えば、予め定めた眼底の特定部位(例えば中心窩)を含む断層画像に対して処理を行ってもよい。この場合、検出される層の境界等は、いずれも断面上における二次元のデータとなる。   In the following embodiment, a case where analysis processing is performed on three-dimensional image data including a plurality of tomographic image groups to be acquired will be described. However, the configuration may be such that a notable two-dimensional tomographic image is selected from a plurality of three-dimensional image data, and processing is performed on the selected two-dimensional tomographic image. For example, the processing may be performed on a tomographic image including a predetermined specific part of the fundus (for example, the fovea). In this case, the detected layer boundaries are all two-dimensional data on the cross section.

(画像処理装置10の構成)
図1の参照により、本実施形態に係る画像処理装置10の構成を説明する。画像処理装置10は、画像取得部101、記憶部102、画像変換部103、順方向検出部104、異常部位検出部105、逆方向検出部106、層境界特定部107および表示部108を備える。また、画像処理装置10は断層画像取得装置20と接続されている。断層画像取得装置20は不図示の操作者による操作に応じて、不図示の被検眼の撮影を行い、得られた画像を画像処理装置10へと送信する。
(Configuration of the image processing apparatus 10)
The configuration of the image processing apparatus 10 according to the present embodiment will be described with reference to FIG. The image processing apparatus 10 includes an image acquisition unit 101, a storage unit 102, an image conversion unit 103, a forward direction detection unit 104, an abnormal site detection unit 105, a reverse direction detection unit 106, a layer boundary specification unit 107, and a display unit 108. The image processing apparatus 10 is connected to the tomographic image acquisition apparatus 20. The tomographic image acquisition apparatus 20 shoots an eye to be examined (not shown) in response to an operation by an operator (not shown), and transmits the obtained image to the image processing apparatus 10.

(画像処理装置10の処理)
図2の参照により画像処理装置10が実行する具体的な処理手順を説明する。ステップS201において、画像取得部101は、断層画像取得装置20で撮像されたOCT断層画像を取得し、記憶部102へ格納する。以降、このOCT断層画像を「原画像」と呼ぶものとする。
(Processing of the image processing apparatus 10)
A specific processing procedure executed by the image processing apparatus 10 will be described with reference to FIG. In step S <b> 201, the image acquisition unit 101 acquires the OCT tomographic image captured by the tomographic image acquisition device 20 and stores it in the storage unit 102. Hereinafter, this OCT tomographic image is referred to as an “original image”.

ステップS202において、画像変換部103は記憶部102に保存された原画像に対して画像変換を行う。本実施形態では画像における層境界の強調を目的として、断層画像(原画像)に対して深度方向の輝度変化を強調するSobelフィルタを適用する。このSobelフィルタは、深度方向に沿って輝度値の低い画素から高い画素へのエッジ及び、輝度値の高い画素から低い画素へのエッジの両方を強調する性質を持つ。本ステップでは画像変換により、Sobel画像を作成し、順方向検出部104及び逆方向検出部106へと送信する。   In step S <b> 202, the image conversion unit 103 performs image conversion on the original image stored in the storage unit 102. In the present embodiment, a Sobel filter that emphasizes a luminance change in the depth direction is applied to a tomographic image (original image) for the purpose of enhancing a layer boundary in the image. This Sobel filter has a property of emphasizing both an edge from a pixel having a low luminance value to a high pixel and an edge from a pixel having a high luminance value to a low pixel along the depth direction. In this step, a Sobel image is created by image conversion and transmitted to the forward direction detection unit 104 and the backward direction detection unit 106.

画像変換の方法はこれに限定されるものではなく、前処理として画像のノイズ除去を目的としたメディアンフィルタや平均値フィルタのような平滑化フィルタを用いてもよい。その他、ガンマ補正のような階調変換フィルタやモルフォロジーフィルタなどを用いて画像変換を行ってもよい。また、画像変換を行わず、原画像の輝度値のまま、次ステップの入力としてもよい。さらに、次ステップの入力とする画像の数は限定されるものではなく、1つ以上の画像が次ステップの入力とされてもよい。   The image conversion method is not limited to this, and a smoothing filter such as a median filter or an average value filter for the purpose of image noise removal may be used as preprocessing. In addition, image conversion may be performed using a gradation conversion filter such as gamma correction or a morphological filter. Further, the image conversion may not be performed and the luminance value of the original image may be used as the input for the next step. Furthermore, the number of images to be input in the next step is not limited, and one or more images may be input in the next step.

ステップS203において、順方向検出部104は画像変換部103から取得したSobel画像をA-scanラインに沿って順方向に解析することで網膜層境界の候補(層境界候補)を検出する。   In step S203, the forward direction detection unit 104 detects a retinal layer boundary candidate (layer boundary candidate) by analyzing the Sobel image acquired from the image conversion unit 103 in the forward direction along the A-scan line.

本実施形態では、Sobel画像を対象として、各A-scanラインに沿って順方向に1画素単位で輝度値を参照し、輝度値が所定の閾値を超えたときにその位置を層境界候補として順次検出する。所定の閾値は経験的に決定することが可能である。また、判別分析法やP-tile法を用いてSobel画像を高輝度なエッジ領域と低輝度なその他の領域に分割する閾値を適用することで、症例に応じて可変となる閾値としてもよい。   In this embodiment, for the Sobel image, the luminance value is referred to in units of one pixel in the forward direction along each A-scan line, and when the luminance value exceeds a predetermined threshold, the position is set as a layer boundary candidate. Detect sequentially. The predetermined threshold can be determined empirically. Further, by applying a threshold value that divides the Sobel image into a high-brightness edge region and other low-brightness regions using a discriminant analysis method or a P-tile method, the threshold value may be variable depending on the case.

層境界候補の検出方法はこれに限定されるものではなく、例えば各A-scanラインにおいて1画素単位ではなく、複数の画素からなるブロック領域の輝度値を参照しながら順方向に解析してもよい。さらに、層境界候補を検出する特徴として、Sobel画像を用いた原画像のエッジ強度以外にも、原画像においてブロック領域を設定し、例えば、ブロック領域の上側半分と下側半分の輝度値の差などを用いてもよい。   The layer boundary candidate detection method is not limited to this. For example, each A-scan line may be analyzed in the forward direction with reference to the luminance value of a block area composed of a plurality of pixels, not in units of one pixel. Good. Further, as a feature for detecting the layer boundary candidate, in addition to the edge strength of the original image using the Sobel image, a block area is set in the original image. For example, the difference between the luminance values of the upper half and the lower half of the block area is set. Etc. may be used.

次に、順方向検出部104は、検出した層境界候補の位置情報(順方向検出情報)を層境界特定部107へと送信する。   Next, the forward direction detection unit 104 transmits the detected position information of the layer boundary candidate (forward direction detection information) to the layer boundary identification unit 107.

ステップS204において、異常部位検出部105は記憶部102に格納された原画像を解析し異常部位の位置を検出する。本実施形態では、一例として異常部位が嚢胞である場合の検出方法を説明する。嚢胞は網膜内に発生する空洞領域であるため、例えば、図11(b)のCYが示すように、画像上では周囲の網膜領域に比べ非常に低い輝度値を示す。そこで、原画像の輝度値に対して所定の閾値による閾値処理を施し、閾値以下の領域を取り出すことで、嚢胞領域の候補(嚢胞領域候補)を抽出することができる。このとき、所定の閾値は、経験的に決定することが可能である。   In step S204, the abnormal part detection unit 105 analyzes the original image stored in the storage unit 102 and detects the position of the abnormal part. In the present embodiment, as an example, a detection method when the abnormal site is a cyst will be described. Since the cyst is a hollow area generated in the retina, for example, as shown by CY in FIG. 11B, the image shows a very low luminance value compared to the surrounding retinal area. Therefore, by applying threshold processing with a predetermined threshold to the luminance value of the original image and extracting an area below the threshold, a cyst area candidate (cyst area candidate) can be extracted. At this time, the predetermined threshold value can be determined empirically.

また、嚢胞領域の輝度値は、断層画像上の硝子体領域などの背景領域に近いため、判別分析法やP-tile法を用いて断層画像を高輝度な網膜層領域と低輝度な背景領域に大まかに分割する閾値を適用することで、症例に応じて可変となる閾値としてもよい。   In addition, since the luminance value of the cyst region is close to the background region such as the vitreous region on the tomographic image, the tomographic image is divided into a high luminance retinal layer region and a low luminance background region using the discriminant analysis method or the P-tile method. By applying a threshold that roughly divides into two, it may be a threshold that becomes variable depending on the case.

次に、抽出した嚢胞領域候補に対して、その領域の輝度情報や形態情報を解析することで嚢胞領域か否かを判別する。本実施形態では、それらの輝度情報や形態情報を特徴量として、予め多数の症例で学習を行った識別器に入力することで、嚢胞領域か否かの判別を行う。具体的には、輝度情報に基づく特徴量として、領域内の平均輝度値、分散、歪度、尖度、領域の境界の内外におけるコントラスト差を用いることが可能である。形態情報に基づく特徴量として、領域のサイズや領域の円形度を用いることが可能である。識別器としては、ニューラルネットワークやサポートベクターマシンを用いることが可能である。   Next, it is determined whether or not the extracted cyst region candidate is a cyst region by analyzing luminance information and morphological information of the region. In the present embodiment, the luminance information and the morphological information are input as feature quantities to a discriminator that has previously learned in a large number of cases to determine whether or not the region is a cyst region. Specifically, the average luminance value in the area, the variance, the skewness, the kurtosis, and the contrast difference inside and outside the boundary of the area can be used as the feature amount based on the luminance information. As the feature amount based on the shape information, the size of the region or the circularity of the region can be used. As the discriminator, a neural network or a support vector machine can be used.

但し、嚢胞領域の判別方法はこれに限定されるものではなく、例えば上記の輝度情報や形態情報に基づく特徴量が所定の範囲に収まる場合のみを嚢胞領域と判別する方法をとってもよい。このとき、所定の範囲は、経験的に決定してもよいし、臨床知識に基づいて決定してもよい。   However, the method of determining the cyst region is not limited to this, and for example, a method of determining the cyst region only when the feature amount based on the luminance information and the shape information is within a predetermined range may be used. At this time, the predetermined range may be determined empirically or based on clinical knowledge.

また、異常部位検出部105が検出する異常部位は、嚢胞に限定されるものではない。例えば、異常部位が白斑である場合、白斑領域は通常の層組織よりも高輝度で描出されるため、原画像の輝度値に対して所定の閾値による閾値処理を施し、閾値以上の領域を取り出すことで、白斑領域の候補を抽出する。そして、嚢胞領域の場合と同様に識別器を用いて白斑領域の候補を白斑領域か否かに分類することが可能である。その他、層と層が剥離した剥離領域に関しても、剥離領域は周囲の層組織よりも非常に低輝度で描出されるため、嚢胞領域の検出と同様の方法で検出を行うことが可能である。   Moreover, the abnormal part which the abnormal part detection part 105 detects is not limited to a cyst. For example, when the abnormal part is a vitiligo, the vitiligo region is drawn with higher brightness than the normal layered tissue, so the threshold value processing is performed on the luminance value of the original image with a predetermined threshold value, and the region above the threshold value is extracted. Thus, candidates for the vitiligo region are extracted. Then, as in the case of the cyst region, it is possible to classify the candidate for the vitiligo region into whether or not it is a vitiligo region using a discriminator. In addition, regarding the peeled area where the layers are peeled, the peeled area is depicted with a much lower luminance than the surrounding layered tissue, and thus can be detected by the same method as the detection of the cyst area.

さらに、異常部位検出部105による異常部位検出は全自動の処理に限定されるものではなく、例えば、操作者によって指定された異常部位の位置に基づき、同種の輝度値の領域を抽出するような半自動の検出処理であってもよい。次に、異常部位検出部105は、検出した異常部位の位置情報(異常位置情報)を層境界特定部107へと送信する。   Further, the abnormal part detection by the abnormal part detection unit 105 is not limited to fully automatic processing. For example, the same type of luminance value region is extracted based on the position of the abnormal part specified by the operator. It may be a semi-automatic detection process. Next, the abnormal part detection unit 105 transmits position information (abnormal position information) of the detected abnormal part to the layer boundary specifying unit 107.

ステップS205において、異常部位検出部105は、ステップS204で検出された異常位置情報を調べ、各A-scanラインに異常部位が存在するか否かを判定する。そして、異常部位が存在すると判定された場合は(S205−Yes)、異常部位が存在すると判定されたA-scanラインの位置情報を逆方向検出部106に送信してステップS206に処理を進める。異常部位が存在しないと判定された場合(S205−No)は、ステップS207へと処理を進める。   In step S205, the abnormal part detection unit 105 checks the abnormal position information detected in step S204 and determines whether or not there is an abnormal part in each A-scan line. If it is determined that an abnormal part exists (S205—Yes), the position information of the A-scan line determined to have an abnormal part is transmitted to the backward direction detection unit 106, and the process proceeds to step S206. If it is determined that there is no abnormal part (S205—No), the process proceeds to step S207.

ステップS206において、逆方向検出部106は、異常部位検出部105から取得したA-scanラインの位置情報と、画像変換部103からSobel画像と、を取得する。そして、位置情報を取得したA-scanラインのみを対象として、A-scanラインに沿って逆方向に解析することで層境界候補を検出する。   In step S <b> 206, the reverse direction detection unit 106 acquires the position information of the A-scan line acquired from the abnormal part detection unit 105 and the Sobel image from the image conversion unit 103. Then, the layer boundary candidate is detected by analyzing only the A-scan line from which the position information is acquired, in the reverse direction along the A-scan line.

本実施形態では、Sobel画像を対象として、各A-scanラインに沿って逆方向に1画素単位で輝度値を参照し、輝度値が所定の閾値を超えたときにその位置を層境界候補として順次検出する。所定の閾値はステップS203と同様に経験的に決定してもよいし、判別分析法やP-tile法を用いて症例に応じた可変の閾値としてもよい。また、層境界候補の検出方法はこれに限定されるものではなく、例えば、ステップS203に例示したものと同様の手法を用いてもよい。   In this embodiment, for the Sobel image, the luminance value is referred to in units of one pixel in the reverse direction along each A-scan line, and when the luminance value exceeds a predetermined threshold, the position is set as a layer boundary candidate. Detect sequentially. The predetermined threshold value may be determined empirically as in step S203, or may be a variable threshold value according to the case using a discriminant analysis method or a P-tile method. In addition, the layer boundary candidate detection method is not limited to this, and for example, a method similar to that exemplified in step S203 may be used.

次に、逆方向検出部106は、検出した層境界候補の位置情報(逆方向検出情報)を層境界特定部107へと送信する。   Next, the reverse direction detection unit 106 transmits the detected position information of the layer boundary candidate (reverse direction detection information) to the layer boundary specifying unit 107.

ステップS207において、層境界特定部107は、順方向検出部104から順方向検出情報を、異常部位検出部105から異常位置情報を、逆方向検出部106から逆方向検出情報を、それぞれ取得し、網膜層境界を特定する。   In step S207, the layer boundary specifying unit 107 acquires the forward direction detection information from the forward direction detection unit 104, the abnormal position information from the abnormal part detection unit 105, and the reverse direction detection information from the reverse direction detection unit 106, respectively. Identify retinal layer boundaries.

図3は、網膜内に異常部位を含む症例において層境界を特定する様子を示す図である。図3を用いて具体的な網膜層境界の特定方法を説明する。図3において、L1〜L6は、図11(a)と同様に、順に内境界膜、神経線維層境界、内網状層境界、外網状層境界、視細胞内節外節接合部、網膜色素上皮層境界を表している。このとき、異常部位が存在しないA-scanラインでは、網膜の層構造が正常であり層境界が順に存在することから、層境界特定部107は、順方向検出情報をそのまま網膜層境界として特定する。図3においてA1は、断層画像上の異常部位が存在しないA-scanラインを表し、DP1は、A1を順方向に解析したときに検出された複数の層境界候補の位置(図3では6点)を表している。この例では、層境界特定部107は、層境界候補DP1の各点をA-scanラインの順方向に沿って順にL1、L2、・・・、L6の層境界と決定する。   FIG. 3 is a diagram illustrating a state in which a layer boundary is specified in a case including an abnormal part in the retina. A specific method for identifying the retinal layer boundary will be described with reference to FIG. In FIG. 3, L1 to L6 are the inner boundary membrane, nerve fiber layer boundary, inner reticular layer boundary, outer reticular layer boundary, photoreceptor inner / outer node junction, retinal pigment, in the same manner as in FIG. Represents the cortical boundary. At this time, in the A-scan line in which no abnormal site exists, the layer structure of the retina is normal and the layer boundaries exist in order, so the layer boundary specifying unit 107 specifies the forward direction detection information as it is as the retinal layer boundary. . In FIG. 3, A1 represents an A-scan line in which no abnormal site exists on the tomographic image, and DP1 represents the positions of a plurality of layer boundary candidates detected when A1 is analyzed in the forward direction (6 points in FIG. 3). ). In this example, the layer boundary specifying unit 107 determines each point of the layer boundary candidate DP1 as a layer boundary of L1, L2,..., L6 in order along the forward direction of the A-scan line.

一方、異常部位が存在するA-scanラインでは、網膜の層構造が正常と異なり、異常部位付近では層境界が画像上で消失していたり、異常部位の端部で周囲の層組織との輝度差による強いエッジが生じていたりする可能性がある。そのため、本実施形態では、異常部位よりも網膜の手前側の領域(異常部手前領域)は順方向検出情報を網膜層境界として特定する。また、網膜の奥側の領域(異常部奥領域)は逆方向検出情報を網膜層境界として特定する。   On the other hand, in the A-scan line where the abnormal site exists, the layer structure of the retina is different from normal, and the layer boundary disappears on the image near the abnormal site, or the brightness of the surrounding layer tissue at the end of the abnormal site There may be a strong edge due to the difference. For this reason, in the present embodiment, the region on the near side of the retina from the abnormal part (the region near the abnormal part) specifies the forward direction detection information as the retinal layer boundary. In addition, the region on the back side of the retina (abnormal region back region) specifies the reverse direction detection information as the retinal layer boundary.

ここで、異常部手前領域と異常部奥領域は、異常部位検出部105から取得した異常位置情報に基づき、A-scanラインを異常部位の領域を挟んで手前側と奥側に分割することで求めることができる。図3においてA2は、断層画像上の異常部位が存在するA-scanラインを表し、CYは図11(b)と同様、異常部位の一例である嚢胞領域を表す。また、DP2は、A2を順方向に解析したときに異常部手前領域で検出された層境界候補の位置(図3では3点)を表し、UP2はA2を逆方向に解析したときに異常部奥領域で検出された層境界候補の位置(図3では2点)を表す。この例では、DP2の各点をA-scanラインの順方向に沿って順にL1、L2、L3と決定し、UP2の各点をA-scanラインの逆方向に沿って順にL6、L5と決定する。   Here, based on the abnormal position information acquired from the abnormal part detection unit 105, the abnormal front side area and the abnormal part back area are divided into a front side and a back side across the abnormal part region. Can be sought. In FIG. 3, A2 represents an A-scan line in which an abnormal site on a tomographic image exists, and CY represents a cyst region that is an example of an abnormal site, as in FIG. DP2 represents the position of the layer boundary candidate detected in the region before the abnormal part when A2 is analyzed in the forward direction (three points in FIG. 3), and UP2 is the abnormal part when A2 is analyzed in the reverse direction. The position of the layer boundary candidate detected in the back area (2 points in FIG. 3) is represented. In this example, each point of DP2 is determined as L1, L2, and L3 in order along the forward direction of the A-scan line, and each point of UP2 is determined as L6 and L5 in order along the reverse direction of the A-scan line. To do.

このように、嚢胞CYの手前側と奥側でそれぞれ順方向と逆方向に沿って層境界を特定することで、A2のライン上でのL4の層境界の消失や、嚢胞CYの端部で発生するエッジの影響を受けることなく、精度良く異常部奥領域のL5やL6の層境界を特定できる。   Thus, by identifying the layer boundary along the forward direction and the reverse direction on the front side and the back side of the cyst CY, respectively, the disappearance of the layer boundary of L4 on the line A2 and the end of the cyst CY The layer boundaries of L5 and L6 in the abnormal region deep region can be accurately identified without being affected by the generated edge.

このとき、上述の方法では画像上で消失している層境界L4は特定されないが、L4を特定しないままにしてもよいし、以下の方法によりA2の周囲で特定されたL4の位置を利用して補間することで特定してもよい。例えば、A2のラインよりも画像左側の領域内で特定されたL4の位置の中で最もA2に近いものを点PLとし、A2のラインよりも画像右側の領域内で特定されたL4の位置の中で最もA2に近いものを点PRとする。そして、この点PLとPRの間を線形補間することで、A2のような嚢胞の影響で層境界が消失した領域においてもL4に対応する層境界を特定することができる。   At this time, the layer boundary L4 disappearing on the image is not specified by the above method, but L4 may be left unspecified, or the position of L4 specified around A2 by the following method is used. May be specified by interpolation. For example, the point L2 closest to A2 among the positions of L4 specified in the area on the left side of the image with respect to the line A2 is set as the point PL, and the position of L4 specified in the area on the right side of the image with respect to the line of A2 is set. The point closest to A2 is set as the point PR. Then, by performing linear interpolation between the points PL and PR, the layer boundary corresponding to L4 can be specified even in the region where the layer boundary disappears due to the influence of the cyst such as A2.

また、他の手法として、画像上で消失しているL4は嚢胞の端部に接合していると仮定し、A2のライン上の嚢胞における上下の端部の位置をそれぞれ点PU及びPDとし、2点のうち点PL及びPRからの距離が短い方をL4上の点として特定してもよい。これにより、層境界が消失した領域においても、周囲で特定できた層境界のラインにより近い異常部位の端部をなぞって層境界とすることができる。   As another method, it is assumed that L4 disappearing on the image is joined to the end of the cyst, and the positions of the upper and lower ends of the cyst on the line A2 are point PU and PD, respectively. The shorter one of the two points from the points PL and PR may be specified as a point on L4. Thereby, even in the region where the layer boundary disappears, it is possible to trace the end of the abnormal part closer to the line of the layer boundary that can be specified in the surrounding area as the layer boundary.

上述の方法では、異常部位として嚢胞がA-scanラインに含まれる場合の層境界を特定する例を述べたが、異常部位としてステップS204で述べた白斑や剥離領域がA-scanラインに含まれる場合も同様の方法で層境界を特定できる。図3において、A3は、断層画像上の白斑が存在するA-scanラインを表し、EXは白斑領域、SHは白斑によって深度方向に信号が遮られることによって生じる影領域を表す。この影領域SHは、白斑領域の奥側にしばしば発生し、SHが発生した箇所では画像上に層境界は現れない。また、DP3は、A3を順方向に解析したときに異常部手前領域で検出された層境界候補の位置を表し、UP3は、A3を逆方向に解析したときに異常部奥領域で検出された層境界候補の位置を表す。   In the above-described method, the example of specifying the layer boundary when the cyst is included in the A-scan line as the abnormal part has been described. However, the white spot or the peeled area described in step S204 is included in the A-scan line as the abnormal part. In this case, the layer boundary can be specified by the same method. In FIG. 3, A3 represents an A-scan line in which vitiligo on a tomographic image exists, EX represents a vitiligo region, and SH represents a shadow region caused by a signal being blocked in the depth direction by vitiligo. This shadow region SH often occurs on the back side of the vitiligo region, and no layer boundary appears on the image at the location where SH occurs. DP3 represents the position of the layer boundary candidate detected in the front region of the abnormal part when A3 is analyzed in the forward direction, and UP3 is detected in the rear part of the abnormal part when A3 is analyzed in the reverse direction. Indicates the position of the layer boundary candidate.

この例では、DP3の各点をA-scanラインの順方向に沿って順にL1、L2、L3と決定する。一方、UP3に関しては、異常部奥領域(白斑よりも網膜奥側)には検出点が存在しないため層境界を決定しない。このように、白斑EXの手前側と奥側でそれぞれ順方向と逆方向に沿って層境界を特定することで、白斑EXによるL4の層境界の消失や、白斑EXの端部で発生するエッジの影響を受けることなく層境界を特定できる。また、影領域SHによって層境界が消失している場合でも、網膜奥側から白斑EXに到達するまでの領域を逆方向に走査して層境界を特定することで、誤った箇所をL5やL6として特定せず、それらの層境界を特定しないままにすることができる。白斑の存在により消失したL4、L5、L6の層境界は、嚢胞の場合と同様の方法で補間しても良い。   In this example, the points of DP3 are determined as L1, L2, and L3 in order along the forward direction of the A-scan line. On the other hand, for UP3, no layer boundary is determined because there is no detection point in the abnormal part back region (the back of the retina from the vitiligo). In this way, by identifying the layer boundary along the forward direction and the reverse direction on the front side and the back side of the vitiligo EX, respectively, the disappearance of the L4 layer boundary due to the vitiligo EX or the edge generated at the end of the vitiligo EX The layer boundary can be identified without being affected by Further, even when the layer boundary disappears due to the shadow region SH, by scanning the region from the back of the retina to the white spot EX in the reverse direction to identify the layer boundary, an erroneous location can be identified as L5 or L6. And can leave those layer boundaries unspecified. The layer boundaries of L4, L5, and L6 that have disappeared due to the presence of vitiligo may be interpolated in the same manner as in the case of the cyst.

さらに、図3において、A4は、断層画像上の層の剥離領域が存在するA-scanラインを表し、DTは剥離領域を表す。また、DP4は、A4を順方向に解析したときに異常部手前領域で検出された層境界候補の位置を表し、UP4は、A4をそれぞれ逆方向に解析したときに異常部奥領域で検出された層境界候補の位置を表す。この例では、DP4の各点をA-scanラインの順方向に沿って順にL1、L2、L3、L4、L5と決定し、UP4の各点をA-scanラインの逆方向に沿って順にL6と決定する。このように、剥離領域DTの手前側と奥側でそれぞれ順方向と逆方向に沿って層境界を特定することで、剥離した層と剥離領域DTの境界で発生するエッジの影響を受けることなくL6の層境界を特定できる。   Further, in FIG. 3, A4 represents an A-scan line where a layer peeling region on the tomographic image exists, and DT represents a peeling region. DP4 represents the position of the layer boundary candidate detected in the front region of the abnormal part when A4 is analyzed in the forward direction, and UP4 is detected in the rear part of the abnormal part when A4 is analyzed in the reverse direction. Represents the position of the layer boundary candidate. In this example, each point of DP4 is determined as L1, L2, L3, L4, and L5 in order along the forward direction of the A-scan line, and each point of UP4 is determined as L6 in order along the reverse direction of the A-scan line. And decide. Thus, by specifying the layer boundary along the forward direction and the reverse direction on the near side and the far side of the separation region DT, respectively, without being affected by the edge generated at the boundary between the separated layer and the separation region DT. The layer boundary of L6 can be specified.

本実施形態では、上記L1〜L6の6層を特定したが、特定する層は必ずしもこれらに限定されるものではない。実際の網膜層は、眼底表面から網膜の奥に向かって順に、内境界膜、神経線維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、網膜色素上皮層を有している。層境界特定部107は、これらの層の間に存在する層境界のうち少なくとも一つの位置を特定することが可能である。   In the present embodiment, the six layers L1 to L6 are specified, but the specified layers are not necessarily limited to these. The actual retinal layer is the inner boundary membrane, nerve fiber layer, ganglion cell layer, inner reticular layer, inner granular layer, outer reticular layer, outer granular layer, outer boundary membrane, in order from the fundus surface to the back of the retina. It has a photoreceptor cell layer and a retinal pigment epithelium layer. The layer boundary specifying unit 107 can specify at least one position among layer boundaries existing between these layers.

そして、層境界特定部107は、A-scanラインごとに特定した網膜層境界の位置情報(層境界位置情報)を記憶部102に格納する。   Then, the layer boundary specifying unit 107 stores the position information (layer boundary position information) of the retinal layer boundary specified for each A-scan line in the storage unit 102.

ステップS208において、表示部108は、記憶部102から原画像と層境界位置情報を取得し、層境界位置情報を原画像上に重畳させて不図示のモニタ上に表示する。   In step S208, the display unit 108 acquires the original image and the layer boundary position information from the storage unit 102, and displays the layer boundary position information on the monitor (not shown) by superimposing the layer boundary position information on the original image.

以上の構成により、異常部位が存在する断層画像においても、異常部位周辺の層構造の異常に影響されることなく、異常部位よりも網膜の奥に存在する層境界を精度良く特定することができる。   With the above configuration, even in a tomographic image in which an abnormal part exists, it is possible to accurately identify the layer boundary existing in the back of the retina rather than the abnormal part without being affected by the abnormality of the layer structure around the abnormal part. .

(第2実施形態)
本実施形態は、断層画像上のA-scanラインに沿って順方向または逆方向に走査して層境界候補を検出すると同時に異常部位の存在も検出し、両方向の検出結果に基づき層境界を特定するものである。
(Second Embodiment)
In this embodiment, a layer boundary candidate is detected by scanning in the forward or reverse direction along the A-scan line on the tomographic image, and at the same time, the presence of an abnormal part is detected, and the layer boundary is specified based on the detection result in both directions. To do.

より具体的には、第1実施形態では、層境界候補の検出とは別処理として異常部位を検出するため、処理に余分な手間がかかっていた。また、第1実施形態では、順方向での異常部奥領域の検出結果、逆方向での異常部手前領域の検出結果は、層境界の特定には採用されないにも関わらず、両方向共に一旦A-scanラインを画像の上端から下端(または下端から上端)まで走査していた。従って、それが余分な処理時間に繋がっていた。   More specifically, in the first embodiment, since an abnormal part is detected as a process separate from the detection of the layer boundary candidate, extra time is required for the process. In the first embodiment, the detection result of the abnormal part back region in the forward direction and the detection result of the abnormal part front region in the reverse direction are temporarily A in both directions, although they are not adopted for specifying the layer boundary. The -scan line was scanned from the top to the bottom of the image (or from the bottom to the top). Therefore, it led to extra processing time.

そこで、本実施形態は、断層画像上のA-scanラインに沿って順方向に走査して層境界候補を検出しながら同時に異常部位の存在も検出し、異常部位が検出された場合は順方向の走査を停止して逆方向の走査に切り替える。そして、順方向と同様に、逆方向に走査して層境界候補を検出しながら同時に異常部位の存在も検出し、異常部位が検出された箇所で逆方向の走査を停止する。そして、順方向と逆方向のそれぞれについて異常部位の検出により走査を停止するまでに検出した層境界候補を、それぞれ最終的な層境界として特定する。これにより、第1実施形態と同様、異常部位の周辺で生じる網膜の層構造の異常に影響されることなく、層境界を特定できる仕組みを提供する。それに加え、層境界候補と同時に異常部位の存在も検出するため、別処理として異常部位を検出する手間を省くことができる。さらに、順方向・逆方向共に異常部位の存在を検出した時点で走査を停止するため、解析の処理時間を短縮することができる。   Therefore, this embodiment scans in the forward direction along the A-scan line on the tomographic image to detect the layer boundary candidate and simultaneously detects the presence of the abnormal part. When the abnormal part is detected, the forward direction is detected. Is stopped and switched to scanning in the reverse direction. Similarly to the forward direction, while scanning in the reverse direction to detect the layer boundary candidates, the presence of the abnormal part is also detected at the same time, and the reverse scanning is stopped at the point where the abnormal part is detected. Then, the layer boundary candidates detected until the scanning is stopped by detecting the abnormal part in each of the forward direction and the reverse direction are specified as final layer boundaries. As a result, as in the first embodiment, a mechanism is provided in which the layer boundary can be specified without being affected by the abnormality in the layer structure of the retina that occurs around the abnormal part. In addition, since the presence of the abnormal part is detected simultaneously with the layer boundary candidate, it is possible to save the trouble of detecting the abnormal part as a separate process. Furthermore, since scanning is stopped when the presence of an abnormal part is detected in both the forward and reverse directions, the analysis processing time can be shortened.

(画像処理装置40の構成)
図4に本実施形態に係る画像処理装置40の構成を示す。画像処理装置40は、画像取得部401、記憶部402、画像変換部403、順方向検出部404、異常部位検出部405、逆方向検出部406、層境界特定部407および表示部408を備える。また、画像処理装置40は断層画像取得装置50と接続されている。断層画像取得装置50は第1実施形態の断層画像取得装置20と同様の機能を有するため、説明は省略する。
(Configuration of Image Processing Device 40)
FIG. 4 shows the configuration of the image processing apparatus 40 according to this embodiment. The image processing apparatus 40 includes an image acquisition unit 401, a storage unit 402, an image conversion unit 403, a forward direction detection unit 404, an abnormal site detection unit 405, a reverse direction detection unit 406, a layer boundary specification unit 407, and a display unit 408. The image processing device 40 is connected to a tomographic image acquisition device 50. Since the tomographic image acquisition apparatus 50 has the same function as the tomographic image acquisition apparatus 20 of the first embodiment, description thereof is omitted.

(画像処理装置40の処理)
図5は本実施形態のフローチャートであり、画像処理装置40が実行する具体的な処理手順をこのフローチャートに沿って説明する。但し、ステップS501、S502、S511はそれぞれ、図2のステップS201、S202、S208と同様であるため、説明は省略する。
(Processing of the image processing apparatus 40)
FIG. 5 is a flowchart of the present embodiment, and a specific processing procedure executed by the image processing apparatus 40 will be described along this flowchart. However, steps S501, S502, and S511 are the same as steps S201, S202, and S208 in FIG.

ステップS503において、順方向検出部404は、画像変換部403から取得したSobel画像をA-scanラインに沿って順方向に解析することで網膜層境界の候補を検出する。本ステップにおける具体的な解析処理の内容は、図2におけるステップS203と同様であるため、説明は省略する。   In step S <b> 503, the forward direction detection unit 404 detects a retinal layer boundary candidate by analyzing the Sobel image acquired from the image conversion unit 403 in the forward direction along the A-scan line. Details of the analysis process in this step are the same as in step S203 in FIG.

また、順方向検出部404は、順方向に解析中のA-scanラインにおける異常部位の有無を表す順方向異常検出フラグD_FLG(順方向異常検出情報)の値を保持している。順方向異常検出情報が指す参照画素が異常部位でないことを示す場合(D_FLG=FALSE)は、解析を続行する。順方向異常検出情報が指す参照画素が異常部位であることを示す場合(D_FLG=TRUE)の処理については、ステップS506で説明する。次に、順方向検出部404は、解析で参照中の画素の位置情報(順方向位置情報)を記憶部402へ送信する。   Further, the forward direction detection unit 404 holds a value of a forward direction abnormality detection flag D_FLG (forward direction abnormality detection information) indicating the presence or absence of an abnormal part in the A-scan line being analyzed in the forward direction. If the reference pixel indicated by the forward abnormality detection information indicates that it is not an abnormal part (D_FLG = FALSE), the analysis is continued. Processing in a case where the reference pixel indicated by the forward abnormality detection information indicates an abnormal part (D_FLG = TRUE) will be described in step S506. Next, the forward direction detection unit 404 transmits the position information (forward direction position information) of the pixel being referred to in the analysis to the storage unit 402.

ステップS504において、順方向検出部404は、記憶部402に格納された順方向位置情報を調べ、画像の下端にまだ到達していない場合は、順方向位置情報を常に異常部位検出部405へと送信し、ステップS505へと進む。一方、画像の下端に到達している場合は、記憶部402に格納された順方向検出情報を層境界特定部407へと送信し、ステップS510へと進む。   In step S <b> 504, the forward direction detection unit 404 checks the forward direction position information stored in the storage unit 402. If the forward direction position information has not yet reached the lower end of the image, the forward direction position information is always sent to the abnormal part detection unit 405. Then, the process proceeds to step S505. On the other hand, if it has reached the lower end of the image, the forward direction detection information stored in the storage unit 402 is transmitted to the layer boundary specifying unit 407, and the process proceeds to step S510.

ステップS505において、異常部位検出部405は、記憶部402に記憶された原画像と、順方向検出部404から常時取得する位置情報(順方向の解析位置を示す順方向位置情報)と、に基づき、異常部位の有無を判定する。異常部位検出部405は、順方向の解析位置(順方向位置情報)と対応付けて、断層画像を解析することにより異常部位の位置を検出する第1異常検出手段として機能する。順方向位置情報が指す参照画素が異常部位であると判定した場合は、順方向異常検出フラグD_FLG=TRUEと設定して順方向検出部404へと送信し、ステップS506へと進む。一方、参照画素が異常部位ではないと判定した場合は、D_FLG=FALSEと設定して順方向検出部404へと送信し、ステップS503へと進む。   In step S505, the abnormal part detection unit 405 is based on the original image stored in the storage unit 402 and the position information (forward position information indicating the analysis position in the forward direction) that is always acquired from the forward direction detection unit 404. The presence or absence of an abnormal part is determined. The abnormal part detection unit 405 functions as a first abnormality detection unit that detects the position of the abnormal part by analyzing a tomographic image in association with a forward analysis position (forward position information). If it is determined that the reference pixel indicated by the forward direction position information is an abnormal part, the forward abnormality detection flag D_FLG = TRUE is set and transmitted to the forward direction detection unit 404, and the process proceeds to step S506. On the other hand, if it is determined that the reference pixel is not an abnormal part, D_FLG = FALSE is set and transmitted to the forward direction detection unit 404, and the process proceeds to step S503.

本実施形態では、図3や図11(b)に示すような嚢胞領域が断層画像上に存在する場合の異常部位の検出方法について説明する。図2のステップS204で説明したとおり、嚢胞は網膜内に発生する空洞領域であるため、画像上では周囲の網膜領域に比べ非常に低い輝度値を示す。そこで、取得した順方向位置情報に対応する原画像上の画素を参照し、画素が所定の閾値以下になったときに、異常部位であると判定する。このとき、所定の閾値は、図2のステップS204と同様の方法で決定する。   In the present embodiment, a method for detecting an abnormal site when a cyst region as shown in FIG. 3 or FIG. 11B exists on a tomographic image will be described. As described in step S <b> 204 in FIG. 2, since the cyst is a hollow area generated in the retina, the image shows a very low luminance value compared to the surrounding retinal area. Therefore, the pixel on the original image corresponding to the acquired forward direction position information is referred to, and when the pixel falls below a predetermined threshold, it is determined that it is an abnormal part. At this time, the predetermined threshold is determined by the same method as in step S204 in FIG.

ここで、異常部位検出部405が検出する異常部位は、嚢胞に限定されるものではない。例えば、通常の層組織よりも高輝度で描出される白斑領域に関しては、図2のステップS204と同様に、原画像の輝度値に対して所定の閾値による閾値処理を施し、閾値以上の領域を取り出すことで、白斑領域の候補を抽出する。その他、層と層が剥離した剥離領域に関してもステップS204と同様の方法で検出できる。このような処理により、ステップS503の順方向の層境界候補検出と同時に異常部位の検出が行えるため、全くの別処理で異常部位を検出するよりも、処理の手間を省くことができる。   Here, the abnormal site detected by the abnormal site detector 405 is not limited to a cyst. For example, for the vitiligo region rendered with higher brightness than the normal layer structure, the threshold value processing is performed on the brightness value of the original image with a predetermined threshold value as in step S204 in FIG. By extracting, a candidate for a vitiligo region is extracted. In addition, the separation region where the layers are separated can be detected by the same method as in step S204. By such processing, the abnormal part can be detected simultaneously with the detection of the forward layer boundary candidate in step S503, so that it is possible to save the processing time compared to detecting the abnormal part by completely different processing.

ステップS506において、順方向検出部404は、異常部位検出部で設定された順方向異常検出フラグD_FLGの値を調べる。そして、順方向検出部404は、D_FLG=TRUE(参照画素が異常部位であることを示す)であることを確認した後、A-scanラインの順方向に沿った解析を停止する。そして、検出した順方向検出情報を層境界特定部407へ、走査中のA-scanラインの位置情報(A-scan位置情報)を記憶部402へと送信し、ステップS507へと進む。このように、順方向の走査中に異常部位を検出した時点で走査を停止し、それよりも網膜の奥側領域の解析を行わないことで、解析の処理時間を短縮することができる。   In step S506, the forward direction detection unit 404 checks the value of the forward direction abnormality detection flag D_FLG set by the abnormal part detection unit. Then, after confirming that D_FLG = TRUE (indicating that the reference pixel is an abnormal part), the forward direction detection unit 404 stops the analysis along the forward direction of the A-scan line. Then, the detected forward direction detection information is transmitted to the layer boundary specifying unit 407, and the position information (A-scan position information) of the A-scan line being scanned is transmitted to the storage unit 402, and the process proceeds to step S507. As described above, the scanning is stopped when an abnormal part is detected during the forward scanning, and the analysis of the back region of the retina is not performed, so that the analysis processing time can be shortened.

ステップS507において、逆方向検出部406は、画像変換部403から取得したSobel画像を、記憶部402に格納されたA-scan位置情報が指すA-scanラインに沿って逆方向に解析することで網膜層境界の候補を検出する。本ステップにおける具体的な解析処理の内容は、図2におけるステップS206と同様であるため、説明は省略する。   In step S507, the reverse direction detection unit 406 analyzes the Sobel image acquired from the image conversion unit 403 in the reverse direction along the A-scan line indicated by the A-scan position information stored in the storage unit 402. Detect retinal layer boundary candidates. Details of the analysis process in this step are the same as in step S206 in FIG.

また、逆方向検出部406は、逆方向に解析中のA-scanラインにおける異常部位の有無を表す逆方向異常検出フラグU_FLG(逆方向異常検出情報)の値を保持している。逆方向異常検出情報が指す参照画素が異常部位でないことを示す場合(U_FLG=FALSE)は、解析を続行する。逆方向異常検出情報が指す参照画素が異常部位であることを示す場合(U_FLG=TRUE)の処理については、ステップS509で説明する。   The reverse direction detection unit 406 holds a value of a reverse direction abnormality detection flag U_FLG (reverse direction abnormality detection information) indicating the presence or absence of an abnormal part in the A-scan line being analyzed in the reverse direction. If the reference pixel indicated by the reverse direction abnormality detection information indicates that it is not an abnormal part (U_FLG = FALSE), the analysis is continued. Processing in a case where the reference pixel indicated by the reverse direction abnormality detection information indicates that it is an abnormal part (U_FLG = TRUE) will be described in step S509.

次に、逆方向検出部406は、解析で参照中の画素の位置情報(逆方向位置情報)を記憶部402へ送信する。   Next, the reverse direction detection unit 406 transmits the position information (reverse direction position information) of the pixel being referred to in the analysis to the storage unit 402.

ステップS508において、異常部位検出部405は、記憶部402に記憶された原画像と、逆方向検出部406から常時取得する位置情報(逆方向の解析位置を示す逆方向位置情報)と、に基づき、異常部位の有無を判定する。異常部位検出部405は、逆方向の解析位置(逆方向位置情報)と対応付けて、断層画像を解析することにより異常部位の位置を検出する第2異常検出手段として機能する。逆方向位置情報が指す参照画素が異常部位であると判定した場合は、逆方向異常検出フラグU_FLG=TRUEと設定して逆方向検出部406へと送信し、ステップS509へと進む。一方、参照画素が異常部位ではないと判定した場合は、U_FLG=FALSEと設定して逆方向検出部406へと送信し、ステップS507へと進む。異常部位の検出方法は、ステップS505に記載した、順方向に解析中の異常部位の検出方法と同様であるので、説明は省略する。   In step S <b> 508, the abnormal part detection unit 405 is based on the original image stored in the storage unit 402 and position information (reverse direction position information indicating a reverse analysis position) that is always acquired from the reverse direction detection unit 406. The presence or absence of an abnormal part is determined. The abnormal part detection unit 405 functions as a second abnormality detection unit that detects the position of the abnormal part by analyzing the tomographic image in association with the analysis position in the reverse direction (reverse direction position information). If it is determined that the reference pixel pointed to by the reverse direction position information is an abnormal part, the reverse direction abnormality detection flag U_FLG = TRUE is set and transmitted to the reverse direction detection unit 406, and the process proceeds to step S509. On the other hand, if it is determined that the reference pixel is not an abnormal part, U_FLG = FALSE is set and transmitted to the backward direction detection unit 406, and the process proceeds to step S507. The method for detecting the abnormal part is the same as the method for detecting the abnormal part being analyzed in the forward direction described in step S505, and thus the description thereof is omitted.

このような処理により、ステップS507の逆方向の層境界候補検出と同時に異常部位の検出が行えるため、全くの別処理で異常部位を検出するよりも、処理の手間を省くことができる。   By such processing, the detection of the abnormal part can be performed at the same time as the detection of the layer boundary candidate in the reverse direction in step S507, so that it is possible to save processing time compared to detecting the abnormal part by completely different processing.

ステップS509において、逆方向検出部406は、異常部位検出部で設定された逆方向異常検出フラグU_FLGの値を調べ、U_FLG=TRUEであることを確認した後、A-scanラインの逆方向に沿った解析を停止する。そして、検出した逆方向検出情報を層境界特定部407へと送信し、ステップS507へと進む。このように、逆方向の走査中に異常部位を検出した時点で走査を停止し、それよりも網膜の手前側領域の解析を行わないことで、解析の処理時間を短縮することができる。   In step S509, the reverse direction detection unit 406 checks the value of the reverse direction abnormality detection flag U_FLG set by the abnormal part detection unit, confirms that U_FLG = TRUE, and then follows the reverse direction of the A-scan line. Stop the analysis. Then, the detected reverse direction detection information is transmitted to the layer boundary specifying unit 407, and the process proceeds to step S507. In this way, by stopping scanning when an abnormal site is detected during scanning in the reverse direction and not analyzing the near side region of the retina, the analysis processing time can be shortened.

ステップS510において、層境界特定部407は、順方向検出部404から順方向検出情報を、逆方向検出部406から逆方向検出情報をそれぞれ取得し、網膜層境界を特定する。   In step S510, the layer boundary specifying unit 407 acquires the forward direction detection information from the forward direction detection unit 404 and the reverse direction detection information from the reverse direction detection unit 406, and specifies the retinal layer boundary.

図3を用いて具体的な網膜層境界の特定方法を説明する。A1のように、A-scan上に異常部位を含まない場合、ステップS503で順方向に走査しながら解析した結果、ステップS504で画像の下端への到達が判定され、順方向検出情報のみが層境界特定部407に送信されている。この場合は、順方向の解析が失敗するような異常部位が存在しないため、そのまま順方向検出情報における層境界候補DP1の各点に対して、順方向にL1〜L6の層境界を割り当て、最終的な層境界として特定する。   A specific method for identifying the retinal layer boundary will be described with reference to FIG. When an abnormal part is not included on A-scan as in A1, as a result of analysis while scanning in the forward direction in step S503, it is determined in step S504 that the lower end of the image has been reached, and only forward direction detection information is included in the layer. It is transmitted to the boundary specifying unit 407. In this case, since there is no abnormal part that causes the forward analysis to fail, the layer boundaries L1 to L6 are assigned in the forward direction to the points of the layer boundary candidate DP1 in the forward direction detection information as they are. As a typical layer boundary.

一方、A2のようにA-scan上に異常部位を含む場合は、順方向走査で異常部位を検出するまでの順方向検出情報と、逆方向走査で異常部位を検出するまでの逆方向検出情報が、層境界特定部407に送信されている。この場合は、順方向検出情報における層境界候補DP2の各点に対して順方向に層境界を割り当て、逆方向検出情報における層境界候補UP2の各点に対して逆方向に層境界を割り当て、最終的な層境界として特定する。より具体的には、DP2の各点に対して、A-scanの順方向から順にL1、L2、L3の層境界を割り当て、UP2の各点に対して、A-scanの逆方向から順にL6、L5の層境界を割り当てる。   On the other hand, when an abnormal part is included on the A-scan as in A2, forward direction detection information until the abnormal part is detected by forward scanning and reverse direction detection information until the abnormal part is detected by reverse scanning. Is transmitted to the layer boundary specifying unit 407. In this case, a layer boundary is assigned in the forward direction to each point of the layer boundary candidate DP2 in the forward direction detection information, and a layer boundary is assigned in the reverse direction to each point of the layer boundary candidate UP2 in the reverse direction detection information. Identifies as final layer boundary. More specifically, L1, L2, and L3 layer boundaries are assigned to each point of DP2 in order from the forward direction of A-scan, and L6 is assigned to each point of UP2 in order from the reverse direction of A-scan. , L5 layer boundaries are allocated.

これにより、A2のライン上でのL4の層境界の消失や、嚢胞CYの端部で発生するエッジの影響を受けることなく、異常部奥領域でも精度良くL5やL6の層境界を特定することができる。このとき、上述の方法では画像上で消失している層境界L4は特定されないが、L4を特定しないままにしてもよいし、図2のステップS207に記載した方法により、A2の周囲で特定されたL4の位置を利用して補間することで特定してもよい。   As a result, the L5 and L6 layer boundaries can be accurately identified even in the abnormal region back region without being affected by the disappearance of the L4 layer boundary on the A2 line or the edge generated at the end of the cyst CY. Can do. At this time, the layer boundary L4 disappearing on the image is not specified by the above-described method, but L4 may be left unspecified, or may be specified around A2 by the method described in step S207 of FIG. Alternatively, the position may be specified by interpolation using the position of L4.

さらに、図3の白斑EXを含むA-scanラインA3や、剥離領域DTを含むA-scanラインA4の場合も、同様の方法で層境界の特定を行うことができる。また、本実施形態では、上記L1〜L6の6層を特定したが、特定する層は必ずしもこれらに限定されるものではなく、図2のステップS207に記載した層を特定してもよい。そして、層境界特定部407は、A-scanラインごとに特定した層境界位置情報を記憶部402に格納する。   Further, in the case of the A-scan line A3 including the white spot EX in FIG. 3 and the A-scan line A4 including the peeling region DT, the layer boundary can be specified by the same method. In the present embodiment, the six layers L1 to L6 are specified. However, the layers to be specified are not necessarily limited to these, and the layers described in step S207 in FIG. 2 may be specified. Then, the layer boundary specifying unit 407 stores the layer boundary position information specified for each A-scan line in the storage unit 402.

以上の構成により、異常部位が存在する断層画像においても、異常部位周辺の層構造の異常に影響されることなく、異常部位よりも網膜の奥に存在する層境界を精度良く特定することができる。それに加え、層境界候補と同時に異常部位の存在も検出するため、別処理として異常部位を検出する手間を省くことができる。さらに、順方向・逆方向共に異常部位の存在を検出した時点で走査を停止するため、解析の処理時間を短縮することができる。   With the above configuration, even in a tomographic image in which an abnormal part exists, it is possible to accurately identify the layer boundary existing in the back of the retina rather than the abnormal part without being affected by the abnormality of the layer structure around the abnormal part. . In addition, since the presence of the abnormal part is detected simultaneously with the layer boundary candidate, it is possible to save the trouble of detecting the abnormal part as a separate process. Furthermore, since scanning is stopped when the presence of an abnormal part is detected in both the forward and reverse directions, the analysis processing time can be shortened.

(第3実施形態)
本実施形態は、断層画像上のA-scanラインに沿って順方向と逆方向の双方向で解析し、各解析結果(検出結果)が示す特徴を、正しい層境界の特徴と比較し、より正しい層境界の特徴に近い検出結果を選択することで層境界を特定するものである。
(Third embodiment)
In this embodiment, the analysis is performed in both the forward and reverse directions along the A-scan line on the tomographic image, and the characteristics indicated by each analysis result (detection result) are compared with the characteristics of the correct layer boundary. The layer boundary is specified by selecting a detection result close to the correct layer boundary feature.

より具体的には、被験眼が強度の近視の場合に被験眼のボリューム画像を取得すると、ボリューム画像の端部の断層画像において、画像の上端や下端で網膜層がしばしば途切れてしまう。例えば、そのような画像上端で網膜層が途切れた断層画像から網膜層境界を特定する際、A-scanラインに沿って順方向に解析すると、通常のように内境界膜から層境界が出現するのではなく途中の層境界から出現するため、誤って層境界を特定してしまう。   More specifically, when a volume image of a subject eye is acquired when the subject eye is intense myopia, the retinal layer is often interrupted at the upper and lower ends of the image in the tomographic image at the end of the volume image. For example, when a retinal layer boundary is specified from a tomographic image in which the retinal layer is interrupted at the upper end of the image, a layer boundary appears from the inner boundary film as usual when analyzed in the forward direction along the A-scan line. Because it appears from the middle layer boundary instead of, the layer boundary is specified by mistake.

そこで本実施形態では、断層画像上の各A-scanラインに沿って順方向と逆方向の双方向に解析してそれぞれの層境界候補を検出する。次に、それら2つの方向の検出結果に対して、各方向で順に層境界を仮に割り当てる。そして、割り当てられた各方向の層境界の特徴を、予め記憶された正しい層境界の特徴と比較し、正しい層境界の特徴により類似する方向の層境界を選択し、最終的な層境界として特定する。これにより、網膜層が画像端部で途切れている場合、途切れている側の画像端部から解析した場合は層境界を誤って割り当てるため正しい層境界との類似度が低くなるが、逆向きから解析した場合は層境界を正しく割り当てられるため類似度が高くなる。その結果、間違うことなく層境界を特定できる画像処理技術を提供できる。   Therefore, in the present embodiment, each layer boundary candidate is detected by analyzing in both the forward and reverse directions along each A-scan line on the tomographic image. Next, a layer boundary is temporarily assigned to the detection results in these two directions in order in each direction. Then, compare the assigned layer boundary characteristics with the correct layer boundary characteristics stored in advance, select the layer boundary in the similar direction according to the correct layer boundary characteristics, and identify it as the final layer boundary To do. As a result, when the retinal layer is interrupted at the edge of the image, if the analysis is performed from the edge of the image on the interrupted side, the layer boundary is erroneously assigned and the similarity to the correct layer boundary is low, but from the opposite direction In the case of analysis, the layer boundary is correctly assigned, so the similarity becomes high. As a result, it is possible to provide an image processing technique capable of specifying the layer boundary without making a mistake.

(画像処理装置60の構成)
図6に本実施形態に係る画像処理装置60の構成を示す。画像処理装置60は、画像取得部601、記憶部602、画像変換部603、順方向検出部604、逆方向検出部605、検出結果評価部606、層境界特定部607および表示部608を備える。また、画像処理装置60は断層画像取得装置70と接続されている。断層画像取得装置70は図2の断層画像取得装置20と同様の機能を有するため、説明は省略する。
(Configuration of Image Processing Device 60)
FIG. 6 shows the configuration of the image processing apparatus 60 according to the present embodiment. The image processing apparatus 60 includes an image acquisition unit 601, a storage unit 602, an image conversion unit 603, a forward direction detection unit 604, a backward direction detection unit 605, a detection result evaluation unit 606, a layer boundary specification unit 607, and a display unit 608. The image processing device 60 is connected to the tomographic image acquisition device 70. The tomographic image acquisition apparatus 70 has the same function as the tomographic image acquisition apparatus 20 of FIG.

(画像処理装置60の処理)
図7は本実施形態のフローチャートであり、画像処理装置60が実行する具体的な処理手順をこのフローチャートに沿って説明する。但し、ステップS701、S702、S707はそれぞれ、図2のステップS201、S202、S208と同様であるため、説明は省略する。
(Processing of the image processing device 60)
FIG. 7 is a flowchart of the present embodiment, and a specific processing procedure executed by the image processing apparatus 60 will be described along this flowchart. However, steps S701, S702, and S707 are the same as steps S201, S202, and S208 in FIG.

ステップS703において、順方向検出部604は、Sobel画像を画像変換部603から取得し、画像をA-scanラインに沿って順方向に解析することで網膜層境界の候補を検出する。本ステップにおける具体的な解析処理の内容は、図2におけるステップS203と同様であるため、説明は省略する。次に、順方向検出部604は、検出した順方向検出情報を検出結果評価部606へと送信する。   In step S <b> 703, the forward direction detection unit 604 acquires a Sobel image from the image conversion unit 603 and analyzes the image in the forward direction along the A-scan line to detect a retinal layer boundary candidate. Details of the analysis process in this step are the same as in step S203 in FIG. Next, the forward direction detection unit 604 transmits the detected forward direction detection information to the detection result evaluation unit 606.

ステップS704において、逆方向検出部605は、Sobel画像を画像変換部603から取得し、画像をA-scanラインに沿って逆方向に解析することで網膜層境界の候補を検出する。本ステップにおける具体的な解析処理の内容は、図2におけるステップS206と同様であるため、説明は省略する。次に、逆方向検出部605は、検出した逆方向検出情報を検出結果評価部606へと送信する。   In step S704, the reverse direction detection unit 605 acquires a Sobel image from the image conversion unit 603, and analyzes the image in the reverse direction along the A-scan line to detect a retinal layer boundary candidate. Details of the analysis process in this step are the same as in step S206 in FIG. Next, the reverse direction detection unit 605 transmits the detected reverse direction detection information to the detection result evaluation unit 606.

ステップS705において、検出結果評価部606は、順方向検出部604から取得した順方向検出情報、及び逆方向検出部605から取得した逆方向検出情報を、予め記憶部602に記憶されている層境界の特徴と比較する。ここで、記憶部602には、予め画像から特定すべき対象となる層境界の正しい特徴量が保存されている。   In step S <b> 705, the detection result evaluation unit 606 stores the forward direction detection information acquired from the forward direction detection unit 604 and the backward direction detection information acquired from the backward direction detection unit 605 in advance in the storage unit 602. Compare with the characteristics of Here, the storage unit 602 stores in advance the correct feature amount of the layer boundary to be specified from the image.

正しい特徴量とは、予め医師などの専門家が断層画像上で正しい層境界の位置を指定し、その位置に基づき画像から抽出した特徴量のことを指す。以降、これを「正解特徴量」と呼ぶ。各層境界の特徴量として、例えば、層境界上側の層と下側の層それぞれの輝度平均・分散・尖度・歪度や、上側層と下側層間の輝度平均の差、層境界のエッジ強度を適用することが可能である。尚、特徴量として列記したものは例示的なものであり、輝度平均・分散・尖度・歪度や、上側層と下側層間の輝度平均の差、層境界のエッジ強度のすべてを用いる必要はない。列記したものの中から少なくとも何れか一つを用いて特徴量を定めることが可能である。   The correct feature amount refers to a feature amount extracted from an image based on the position specified by a specialist such as a doctor in advance on the tomographic image. Hereinafter, this is referred to as “correct feature amount”. As feature values of each layer boundary, for example, the luminance average, variance, kurtosis, skewness of the upper and lower layers, the difference in luminance average between the upper and lower layers, the edge strength of the layer boundary It is possible to apply. The features listed are exemplary, and it is necessary to use all of the luminance average, variance, kurtosis, skewness, the difference in luminance average between the upper and lower layers, and the edge strength at the layer boundary. There is no. It is possible to determine the feature amount using at least one of the listed items.

本実施形態では、A-scanラインごとに順方向検出情報と逆方向検出情報のそれぞれの検出結果(層境界候補の位置)に対して、各方向で順に層境界を仮に割り当てる。これらを、それぞれ順方向層境界と逆方向層境界と呼ぶ。次に、割り当てられた各方向の層境界に対して、その位置に基づき原画像から各方向の層境界に対応する上記特徴量を抽出する。そして、抽出された各方向の特徴量と、正解特徴量との類似度を計算し、計算結果を比較する。以降、順方向の特徴量と正解特徴量との類似度(第1類似度)、逆方向の特徴量と正解特徴量との類似度(第2類似度)をそれぞれ、「順方向類似度」、「逆方向類似度」と呼ぶ。   In the present embodiment, for each A-scan line, a layer boundary is provisionally assigned in order in each direction to each detection result (layer boundary candidate position) of the forward direction detection information and the backward direction detection information. These are called the forward layer boundary and the reverse layer boundary, respectively. Next, for the assigned layer boundary in each direction, the feature amount corresponding to the layer boundary in each direction is extracted from the original image based on the position. Then, the similarity between the extracted feature quantity in each direction and the correct feature quantity is calculated, and the calculation results are compared. Thereafter, the similarity between the forward feature quantity and the correct feature quantity (first similarity) and the similarity degree between the backward feature quantity and the correct feature quantity (second similarity) are respectively “forward similarity”. , Called “reverse direction similarity”.

図8(a)は、画像上端で網膜層が途切れた症例において層境界を特定する様子を示す図である。図8(a)を用いて本実施形態における順方向検出情報と正解特徴量との比較方法と、逆方向検出情報と正解特徴量との比較方法を具体的に説明する。図8(a)のL1〜L6は図11(b)と同様に、順に内境界膜、神経線維層境界、内網状層境界、外網状層境界、視細胞内節外節接合部、網膜色素上皮層境界を表している。本実施形態ではこれらを、特定すべき対象となる層境界とする。このとき、記憶部602には、L1〜L6までの正解特徴量が保存されており、各層境界に対応する正解特徴量のベクトルをそれぞれf1、f2、・・・、f6とする。ここで、i番目の層境界(iは1<=i<=6を満たす)に対応する特徴量ベクトルfは、上述のような複数の特徴量からなるベクトルであり、(1)式で表す。 FIG. 8A is a diagram illustrating a state in which the layer boundary is specified in a case where the retinal layer is interrupted at the upper end of the image. The comparison method between the forward direction detection information and the correct feature amount and the comparison method between the reverse direction detection information and the correct feature amount in the present embodiment will be specifically described with reference to FIG. L1 to L6 in FIG. 8A are the inner boundary membrane, the nerve fiber layer boundary, the inner reticular layer boundary, the outer reticular layer boundary, the photoreceptor inner and outer node junction, and the retinal pigment in the same manner as in FIG. 11B. It represents the epithelial layer boundary. In the present embodiment, these are the layer boundaries to be specified. At this time, the storage unit 602 is saved correct feature amount of up to L1 to L6, respectively a vector of correct feature amounts f 1, f 2 corresponding to each layer boundary, ..., and f 6. Here, the feature quantity vector f i corresponding to the i-th layer boundary (i satisfies 1 <= i <= 6) is a vector composed of a plurality of feature quantities as described above. To express.

Figure 2012019958
Figure 2012019958

(1)式において、Nは特徴ベクトルの要素数を表す。   In the equation (1), N represents the number of elements of the feature vector.

ここで、図8(a)のRは画像から網膜層が途切れていない正常の撮像領域(正常領域)を表し、A1は正常領域に含まれるA-scanラインを表す。DP1は、A1を順方向に解析したときに検出された順方向検出情報(6点の層境界候補の位置)を表している。UP1は、A1を逆方向に解析したときに検出された逆方向検出情報(6点の層境界候補の位置)を表している。DP1の各点に対してA-scanラインの順方向に沿って順にL1〜L6の層境界を仮に割り当て、これを順方向層境界とする。そして、順方向層境界の各点を順にPd1、Pd2、・・・、Pd6とする。同様に、UP1の各点に対して逆方向に沿って層境界を割り当てた逆方向層境界の各点を順にPu6、Pu5、・・・、Pu1とする。次に、正解特徴量の場合と同様にこれらの層境界に対応する特徴量を画像から抽出する。そして、点Pd1〜Pd6と点Pu6〜Pu1に対応する特徴量ベクトルをそれぞれd1、d2、・・・、d6、とu6、u5、・・・、u1とする。ここで、i番目の層境界に対応する順方向と逆方向の特徴ベクトルdとuはそれぞれ次の(2)、(3)式で表される。 Here, R N represents the normal of the imaging region (normal region) retinal layers is not interrupted from the image of FIG. 8 (a), A1 represents A-scan lines included in the normal region. DP1 represents forward direction detection information (positions of six layer boundary candidates) detected when A1 is analyzed in the forward direction. UP1 represents reverse direction detection information (positions of six layer boundary candidates) detected when A1 is analyzed in the reverse direction. For each point of DP1, layer boundaries L1 to L6 are assigned in order along the forward direction of the A-scan line, and these are defined as forward layer boundaries. Then, each point on the forward layer boundary is set to P d1 , P d2 ,..., P d6 in order. Similarly, P u6 , P u5 ,..., P u1 are the points on the reverse layer boundary obtained by assigning layer boundaries along the reverse direction to the points of UP1. Next, as in the case of the correct feature quantity, feature quantities corresponding to these layer boundaries are extracted from the image. Then, the point P d1 to P d6 and the point P u6 to P u1 each d 1 feature quantity vectors corresponding to, d 2, · · ·, d 6, and u 6, u 5, · · ·, and u 1 To do. Here, forward and backward feature vectors d i and u i corresponding to the i-th layer boundary are expressed by the following equations (2) and (3), respectively.

Figure 2012019958
Figure 2012019958

このとき、dとfの類似度sd,i(順方向類似度)は、本実施形態では両者のユークリッド距離に基づき(4)式で求めることができる。 At this time, the similarity s d, i (forward similarity) between d i and f i can be obtained by the expression (4) based on the Euclidean distance between the two in this embodiment.

Figure 2012019958
Figure 2012019958

同様に、uとfの類似度su,i(逆方向類似度)は、(5)式で求めることができる。 Similarly, the similarity s u, i (reverse direction similarity) between u i and f i can be obtained by equation (5).

Figure 2012019958
Figure 2012019958

以上のようにして、1<=i<=6を満たす全てのiに関して、順方向層境界の点Pdiに対応する順方向類似度sd,iと、逆方向層境界の点Puiに対応する逆方向類似度su,iを求める。 As described above, for all i satisfying 1 <= i <= 6, the forward similarity s d, i corresponding to the forward layer boundary point P di and the backward layer boundary point P ui The corresponding reverse similarity su, i is obtained.

一方、図8(a)のRは画像上端で網膜層が途切れている部位の領域を表し、A2はその部位に含まれるA-scanラインを表す。DP2は、A2を順方向に解析したときに検出された順方向検出情報(4点の層境界候補の位置)を表している。UP2は、A2を逆方向に解析したときに検出された逆方向検出情報(4点の層境界候補の位置)を表している。このとき、DP2及びUP2の各点を、A1の場合と同様に順方向層境界と逆方向層境界として割り当てる。この場合、画像からの網膜層の途切れによって層境界が欠損しているため、順方向層境界は点Pd1〜Pd4、逆方向層境界は点Pu6〜Pu3となり、それぞれ本来存在する層境界の数(6点)よりも少ない。 On the other hand, R U in FIG. 8 (a) represents the area of a portion retinal layer is broken by an image upper end, A2 represents A-scan lines included in the site. DP2 represents forward direction detection information (positions of four layer boundary candidates) detected when A2 is analyzed in the forward direction. UP2 represents reverse direction detection information (positions of four layer boundary candidates) detected when A2 is analyzed in the reverse direction. At this time, each point of DP2 and UP2 is assigned as a forward layer boundary and a reverse layer boundary as in the case of A1. In this case, since the layer boundary by interruption of retinal layers from the image is missing, the forward layer boundary point P d1 to P d4, reverse layer boundary point P u6 to P u3, and the layer originally present respectively Less than the number of boundaries (6 points).

従って、本実施形態では、割り当てられた層境界と、正解特徴量(f〜f)のうち共通する特徴量(割り当てられた層境界に対応する特徴量)のみと、を比較して類似度を算出する。具体的には、順方向層境界の場合は、L1〜L4に対応する層境界のみが共通するため特徴量ベクトルd〜dとf〜fとを比較する。逆方向層境界の場合は、L3〜L6に対応する層境界のみが共通するため特徴量ベクトルu〜uとf〜fとを比較する。そして、それぞれ(4)式と(5)式に基づき類似度を算出する。このようにして、順方向の場合は、1<=i<=4を満たす全てのiに関して点Pdiに対応する順方向類似度sd,iを求め、一方、逆方向の場合は、3<=i<=6を満たす全てのiに関して点Puiに対応する逆方向類似度su,iを求める。 Therefore, in the present embodiment, the assigned layer boundary is compared with only the common feature amount (feature amount corresponding to the assigned layer boundary) among the correct feature amounts (f 1 to f 6 ). Calculate the degree. Specifically, in the case of the forward layer boundary, only the layer boundaries corresponding to L1 to L4 are common, so the feature quantity vectors d 1 to d 4 and f 1 to f 4 are compared. For reverse layer boundary, to compare the feature vector u 3 ~u 6 and f 3 ~f 6 since only the layer boundary corresponding to L3~L6 are common. Then, the similarity is calculated based on the equations (4) and (5), respectively. Thus, in the forward direction, the forward similarity s d, i corresponding to the point P di is obtained for all i satisfying 1 <= i <= 4, while in the reverse direction, 3 The reverse similarity s u, i corresponding to the point P ui is obtained for all i satisfying ≦ i <= 6.

そして、検出結果評価部606は、本ステップでA-scanラインごとに層境界の割り当てにより求められた順方向層境界及び逆方向層境界のデータと、それらの各点に対応する順方向類似度及び逆方向類似度の値を層境界特定部607へと送信する。   Then, the detection result evaluation unit 606 performs forward layer boundary and reverse layer boundary data obtained by assigning layer boundaries for each A-scan line in this step, and forward similarity corresponding to each point. And the value of the reverse direction similarity is transmitted to the layer boundary specifying unit 607.

ステップS706において、層境界特定部607は、検出結果評価部606から順方向層境界及び逆方向層境界のデータと、それらの各点に対応する順方向類似度及び逆方向類似度の値を取得する。そして、順方向と逆方向のそれぞれの類似度を比較してより類似度の値が高い方向、つまり正常の層境界に近い方向の層境界データを選択し、最終的な層境界として特定する。   In step S706, the layer boundary specifying unit 607 obtains the forward layer boundary and reverse layer boundary data from the detection result evaluation unit 606, and the forward similarity and the reverse similarity values corresponding to the respective points. To do. Then, by comparing the similarities in the forward direction and the reverse direction, the direction having a higher similarity value, that is, the layer boundary data in the direction close to the normal layer boundary is selected and specified as the final layer boundary.

本実施形態では、順方向層境界の各点の順方向類似度sd,iの平均値sd,aveと、逆方向層境界の各点の逆方向類似度su,iの平均値su,aveを算出し、値が大きい方に対応する方向のデータを用いて最終的な層境界として特定する。例えば、図8(a)のA2のように網膜層が画像上端で途切れている場合、順方向層境界は、実際は画像上で欠損している内境界膜から順に層境界候補に対して割り当てられるため誤りが生じる。一方、逆方向層境界は、画像上に写っている網膜色素上皮層境界から順に層境界候補に対して層境界が割り当てられるため誤りが生じない。従って、順方向の平均値sd,aveが非常に低い値になる一方、逆方向の平均値su,aveが高い値となるため、類似度の高い逆方向層境界が、最終的な層境界として選択される。これにより、画像上端で網膜層が途切れている場合でも、間違えることなく層境界を特定することができる。 In this embodiment , the average value s d, ave of the forward similarity s d, i at each point on the forward layer boundary and the average value s of the reverse similarity s u, i at each point on the reverse layer boundary. u and ave are calculated and specified as the final layer boundary using data in the direction corresponding to the larger value. For example, when the retinal layer is interrupted at the upper end of the image as shown by A2 in FIG. 8A, the forward layer boundary is assigned to the layer boundary candidates in order from the inner boundary film that is actually missing on the image. An error occurs. On the other hand, since the reverse layer boundary is assigned to the layer boundary candidates in order from the retinal pigment epithelium layer boundary in the image, no error occurs. Accordingly, the average value s d, ave in the forward direction is a very low value, while the average value su, ave in the reverse direction is a high value, the reverse layer boundary having a high similarity is the final layer. Selected as a boundary. Thereby, even when the retinal layer is interrupted at the upper end of the image, the layer boundary can be specified without making a mistake.

一方、逆に画像下端で網膜層が途切れている場合でも同様の効果が期待できる。図8(b)は、画像下端で網膜層が一部途切れた症例において層境界を特定する様子を示す図である。図8(b)のL1〜L6は図11(b)と同様に、順に内境界膜、神経線維層境界、内網状層境界、外網状層境界、視細胞内節外節接合部、網膜色素上皮層境界を表している。図8(b)のRは、正常の撮像部位の領域を表し、A3はその部位におけるA-scanラインを表している。DP3は順方向検出情報、UP3は逆方向検出情報を表している。図8(b)のRは、図8(a)の領域Rとは逆に画像下端で網膜層が途切れている部位を表し、A4はその部位に含まれるA-scanラインを表す。DP4は順方向検出情報を表し、UP4は逆方向検出情報を表している。この場合、逆方向層境界は、実際は画像上で欠損している網膜色素上皮層境界から順に層境界候補に対して層境界が割り当てられているため誤りが生じる。一方、順方向層境界は、画像上に写っている内境界膜から順に層境界候補に対して層境界が割り当てられているため誤りが生じない。従って、逆方向の平均値su,aveが非常に低い値になる。一方、順方向の平均値sd,aveが逆方向の平均値su,aveに比べて高い値となるため、類似度の高い順方向層境界が、最終的な層境界として選択される。これにより、画像下端で網膜層が途切れている場合でも、間違えることなく層境界を特定することができる。 On the other hand, the same effect can be expected even when the retinal layer is interrupted at the lower end of the image. FIG. 8B is a diagram illustrating a state in which the layer boundary is specified in a case where the retinal layer is partially interrupted at the lower end of the image. L1 to L6 in FIG. 8B are the inner boundary membrane, the nerve fiber layer boundary, the inner reticular layer boundary, the outer reticular layer boundary, the photoreceptor inner and outer node junction, and the retinal pigment in the same manner as in FIG. 11B. It represents the epithelial layer boundary. R N in FIG. 8 (b), represents a region of the normal imaging site, A3 represents the A-scan line at that site. DP3 represents forward direction detection information, and UP3 represents backward direction detection information. R D of FIG. 8 (b), the region R U shown in FIG. 8 (a) represents the site where retinal layer is broken by the image bottom Conversely, A4 represents an A-scan lines included in the site. DP4 represents forward direction detection information, and UP4 represents backward direction detection information. In this case, an error occurs because the layer boundary is assigned to the layer boundary candidates in order from the retinal pigment epithelium layer boundary that is actually missing on the reverse layer boundary. On the other hand, since the layer boundary is assigned to the layer boundary candidates in order from the inner boundary film appearing on the image, no error occurs in the forward layer boundary. Accordingly, the average value su, ave in the reverse direction is a very low value. On the other hand, since the forward average value s d, ave is higher than the reverse average value su, ave , the forward layer boundary having a high degree of similarity is selected as the final layer boundary. Thereby, even when the retinal layer is interrupted at the lower end of the image, the layer boundary can be specified without making a mistake.

また、図8(a)のA1や図8(b)のA3のような正常の撮像部位のA-scanラインにおいては、ステップS703及びS704での層境界候補の検出に誤りが出なければ、順方向と逆方向のどちらでも層境界を間違わずに割り当てることができる。従って、順方向の平均値sd,aveと順方向の平均値sd,aveの両方が高い値となり、どちらが選択されても、正しい層境界を特定することができる。また、順方向と逆方向の層境界候補検出のどちらかに誤りが出た場合は、より正解特徴量に近い方の結果が選択されるため、層境界の最終的な特定で誤りを防ぐことができる。 In addition, in the A-scan line of a normal imaging region such as A1 in FIG. 8A or A3 in FIG. 8B, if there is no error in detection of layer boundary candidates in steps S703 and S704, It is possible to assign the layer boundaries without making a mistake in either the forward direction or the reverse direction. Therefore, both the forward average value s d, ave and the forward average value s d, ave are high, and the correct layer boundary can be specified regardless of which is selected. In addition, if an error occurs in either forward or reverse layer boundary candidate detection, the result closer to the correct feature value is selected, so the error can be prevented by final identification of the layer boundary. Can do.

本実施形態では、順方向層境界と正解特徴量との類似度の平均値と、逆方向層境界と正解特徴量との類似度の平均値を比較し、値が高い方の層境界データをそのまま最終的な層境界として特定している。しかしながら、層境界の特定方法はこれに限られるものではない。例えば、順方向層境界と逆方向層境界の各点(PdiとPui)について、対応する類似度(sd,iとsu,i)を個別に比較し、それぞれにおいて類似度が大きい方向に対応する点を選択する方法を用いてもよい。このとき、例えば、順方向層境界と逆方向層境界の各点について、A-scanの順方向に沿って並んでいる順にペアを作って類似度を比較してもよいし、各点の座標が近いもの同士をペアにして類似度を比較する方法をとってもよい。 In this embodiment, the average value of the similarity between the forward layer boundary and the correct feature value is compared with the average value of the similarity between the reverse layer boundary and the correct feature value, and the layer boundary data having a higher value is compared. The final layer boundary is identified as it is. However, the method for identifying the layer boundary is not limited to this. For example, for each point (P di and P ui ) on the forward layer boundary and the reverse layer boundary, the corresponding similarities (s d, i and su, i ) are individually compared, and the similarities are large in each. A method of selecting a point corresponding to a direction may be used. At this time, for example, the points of the forward layer boundary and the backward layer boundary may be paired in the order in which they are arranged along the A-scan forward direction, and the degree of similarity may be compared. A method may be used in which similarities are compared with each other having a close relationship.

この方法により、A-scanライン上で、ある部分は順方向層境界の割り当てが正しく、別の部分は逆方向層境界の割り当てが正しい場合に、正しい割り当て結果を最終的に特定する層境界に反映させることができる。第1実施形態に記載した網膜層内に異常部位を含む症例がこれに該当する。この場合、異常部位を挟んで網膜手前側の領域は順方向の検出結果、網膜奥側の領域は逆方向の検出結果がより高い類似度の点となり、層境界として採用することができる。予め異常部位の存在が分からない場合であれば、このように部分的に順方向と逆方向の結果が採用されているA-scanラインを検出することで、網膜内の異常部位の存在を検出することもできる。さらに、層境界として順方向で採用された点と逆方向で採用された点で挟まれた領域を、異常部位の領域として特定することが可能となる。   With this method, when the forward layer boundary assignment is correct in one part and the reverse layer boundary assignment is correct in the other part on the A-scan line, the correct assignment result is finally determined as the layer boundary. It can be reflected. The case where an abnormal site is included in the retinal layer described in the first embodiment corresponds to this case. In this case, the region on the front side of the retina across the abnormal part has a higher degree of similarity, and the region on the back side of the retina has a higher degree of similarity in the reverse direction, and can be adopted as a layer boundary. If the presence of an abnormal site is not known in advance, the presence of an abnormal site in the retina can be detected by detecting the A-scan line in which the results of the forward and reverse directions are partially adopted. You can also Furthermore, it is possible to specify a region sandwiched between points adopted in the forward direction as layers boundaries and points adopted in the reverse direction as regions of abnormal parts.

そして、層境界特定部607は、A-scanラインごとに特定した層境界位置情報を記憶部602に格納する。以上の構成により、画像の上端または下端において網膜層に途切れが生じている症例においても、網膜層の途切れによる層境界の欠損に影響されることなく、層境界を精度良く特定することができる。   Then, the layer boundary specifying unit 607 stores the layer boundary position information specified for each A-scan line in the storage unit 602. With the above configuration, even in a case where the retinal layer is interrupted at the upper end or the lower end of the image, the layer boundary can be accurately identified without being affected by the loss of the layer boundary due to the interruption of the retinal layer.

(第4実施形態)
本実施形態では、断層画像上のA-scanラインに沿って順方向と逆方向の双方向で層境界候補を検出する。次に、検出結果に基づき層境界の欠損領域が判定された場合は、各方向の検出結果を対象画像内の正常領域の層境界から抽出した特徴と比較することで、層境界を特定する。
(Fourth embodiment)
In the present embodiment, layer boundary candidates are detected in both the forward and reverse directions along the A-scan line on the tomographic image. Next, when the missing region at the layer boundary is determined based on the detection result, the layer boundary is specified by comparing the detection result in each direction with the feature extracted from the layer boundary of the normal region in the target image.

より具体的には、第3実施形態では、順方向層境界及び逆方向層境界と比較する正解特徴量は予め記憶されており決まったものであるため、症例ごとに存在する層境界の特徴のばらつきに対応した比較ができない。   More specifically, in the third embodiment, the correct feature amount to be compared with the forward layer boundary and the reverse layer boundary is stored and determined in advance, and thus the layer boundary feature existing for each case is determined. The comparison corresponding to the variation is not possible.

そこで本実施形態では、断層画像上の各A-scanラインに沿って順方向と逆方向の双方向に解析してそれぞれの層境界候補を検出する。次に、それら2つの方向の検出結果に対して、各方向で順に層境界を仮に割り当てて互いの対応関係を比較することで層境界の欠損の有無を判定する。このとき、層境界が欠損していると判定された領域を「層境界欠損領域」と呼ぶ。そして、層境界の欠損があると判定された場合は、各方向で割り当てたそれぞれの層境界の特徴を、上述で判定した層境界欠損領域ではない領域(正常領域)で検出した層境界の特徴と比較する。その結果、正常領域の層境界の特徴に、より類似する方向の層境界を選択し、最終的な層境界として特定する。これにより、網膜層が途切れた画像端部で途切れた場合、その画像端部から順に解析した結果は層境界を誤って割り当てるため正しい層境界との類似度が低くなるが、逆向きから解析した結果は層境界を正しく割り当てられるため類似度が高くなる。その結果、間違うことなく層境界を特定できる画像処理技術を提供できる。それに加え、各方向の検出結果を、対象画像における正常領域の層境界の特徴と比較するため、症例ごとに存在する層境界の特徴のばらつきに対応した比較が可能になる。   Therefore, in the present embodiment, each layer boundary candidate is detected by analyzing in both the forward and reverse directions along each A-scan line on the tomographic image. Next, with respect to the detection results in these two directions, layer boundaries are temporarily assigned in each direction, and the correspondence between the layers is compared to determine whether or not there is a layer boundary defect. At this time, a region determined to have a missing layer boundary is referred to as a “layer boundary missing region”. If it is determined that there is a layer boundary defect, the layer boundary features assigned in each direction are detected in the region that is not the layer boundary defect region determined above (normal region). Compare with As a result, a layer boundary in a direction more similar to the feature of the layer boundary in the normal region is selected and specified as the final layer boundary. As a result, when the retinal layer is interrupted at the edge of the image, the result of analysis from the image edge in turn decreases the similarity with the correct layer boundary because the layer boundary is incorrectly assigned, but the analysis was performed from the opposite direction. The result is highly similar because the layer boundaries are assigned correctly. As a result, it is possible to provide an image processing technique capable of specifying the layer boundary without making a mistake. In addition, since the detection result in each direction is compared with the feature of the layer boundary of the normal region in the target image, a comparison corresponding to the variation in the feature of the layer boundary existing for each case becomes possible.

(画像処理装置90の構成)
図9に本実施形態に係る画像処理装置90の構成を示す。画像処理装置90は、画像取得部901、記憶部902、画像変換部903、順方向検出部904、逆方向検出部905、検出結果評価部906、層境界特定部907、表示部908、欠損検出部909を備える。また、画像処理装置90は断層画像取得装置110と接続されている。断層画像取得装置110は第3実施形態の断層画像取得装置70と同様の機能を有するため、説明は省略する。
(Configuration of image processing apparatus 90)
FIG. 9 shows a configuration of an image processing apparatus 90 according to the present embodiment. The image processing apparatus 90 includes an image acquisition unit 901, a storage unit 902, an image conversion unit 903, a forward direction detection unit 904, a backward direction detection unit 905, a detection result evaluation unit 906, a layer boundary identification unit 907, a display unit 908, and a defect detection. Part 909. The image processing device 90 is connected to the tomographic image acquisition device 110. Since the tomographic image acquisition apparatus 110 has the same function as the tomographic image acquisition apparatus 70 of the third embodiment, a description thereof will be omitted.

(画像処理装置90の処理)
図10は本実施形態のフローチャートであり、画像処理装置90が実行する具体的な処理手順をこのフローチャートに沿って説明する。但し、ステップS1001、S1002、S1009はそれぞれ、第3実施形態のステップS701、S702、S707と同様であるため、説明は省略する。
(Processing of image processing apparatus 90)
FIG. 10 is a flowchart of this embodiment, and a specific processing procedure executed by the image processing apparatus 90 will be described along this flowchart. However, Steps S1001, S1002, and S1009 are the same as Steps S701, S702, and S707 of the third embodiment, and thus the description thereof is omitted.

ステップS1003において、順方向検出部904は、画像変換部903から取得したSobel画像を、A-scanラインに沿って順方向に解析することで網膜層境界の候補を検出する。本ステップにおける具体的な解析処理の内容は、第3実施形態におけるステップS703と同様であるため、説明は省略する。次に、順方向検出部904は、検出した順方向検出情報を欠損検出部909へと送信する。   In step S1003, the forward direction detection unit 904 detects a retinal layer boundary candidate by analyzing the Sobel image acquired from the image conversion unit 903 in the forward direction along the A-scan line. The details of the analysis process in this step are the same as in step S703 in the third embodiment, and a description thereof will be omitted. Next, the forward direction detection unit 904 transmits the detected forward direction detection information to the defect detection unit 909.

ステップS1004において、逆方向検出部905は、画像変換部903から取得したSobel画像を、A-scanラインに沿って逆方向に解析することで網膜層境界の候補を検出する。本ステップにおける具体的な解析処理の内容は、第3実施形態におけるステップS704と同様であるため、説明は省略する。次に、逆方向検出部905は、検出した逆方向検出情報を欠損検出部909へと送信する。   In step S1004, the backward direction detection unit 905 detects a retinal layer boundary candidate by analyzing the Sobel image acquired from the image conversion unit 903 in the backward direction along the A-scan line. The details of the analysis process in this step are the same as in step S704 in the third embodiment, and a description thereof will be omitted. Next, the reverse direction detection unit 905 transmits the detected reverse direction detection information to the defect detection unit 909.

ステップS1005において、欠損検出部909は、順方向検出部904から取得した順方向検出情報と、逆方向検出部905から取得した逆方向検出情報とに基づき、A-scanラインごとに層境界の欠損の有無を判定する。そして、層境界が欠損していると判定した場合は、順方向検出情報と逆方向検出情報とを検出結果評価部906へと送信し、ステップS1007へと進む。また、層境界が欠損していない(正常領域である)と判定した場合は、順方向検出情報(または逆方向検出情報でもよい)を層境界特定部907へと送信し、処理をステップS1006へと進む。   In step S1005, the defect detection unit 909 detects the layer boundary defect for each A-scan line based on the forward direction detection information acquired from the forward direction detection unit 904 and the reverse direction detection information acquired from the reverse direction detection unit 905. The presence or absence of is determined. If it is determined that the layer boundary is missing, the forward direction detection information and the backward direction detection information are transmitted to the detection result evaluation unit 906, and the process proceeds to step S1007. If it is determined that the layer boundary is not missing (is a normal region), forward direction detection information (or reverse direction detection information) may be transmitted to the layer boundary specifying unit 907, and the process proceeds to step S1006. Proceed with

本実施形態では、欠損検出部909は、順方向の層境界候補が検出された領域が正常な領域か否かを、順方向の層境界候補と逆方向の層境界候補との対応関係、および順方向の層境界候補と逆方向の層境界候補との位置関係により判定する。順方向と逆方向のそれぞれの検出結果に対して、各方向で順に層境界を仮に割り当て、それぞれ順方向層境界と逆方向層境界とする。そして、順方向と逆方向の間で対応する層境界の位置をそれぞれ比較し、層境界が互いに全て対応しており、かつそれらの位置が一致する場合は正常領域であると判定する。逆に、割り当てられた層境界の対応関係にずれがある、或いは対応する層境界の位置が一致しない場合は層境界の欠損であると判定する。   In the present embodiment, the defect detection unit 909 determines whether or not the region in which the forward layer boundary candidate is detected is a normal region, the correspondence between the forward layer boundary candidate and the backward layer boundary candidate, and The determination is made based on the positional relationship between the forward layer boundary candidate and the backward layer boundary candidate. For each detection result in the forward direction and in the reverse direction, a layer boundary is provisionally assigned in each direction in order, and is set as a forward layer boundary and a reverse layer boundary, respectively. Then, the positions of the corresponding layer boundaries are compared between the forward direction and the reverse direction, and if all the layer boundaries correspond to each other and the positions coincide with each other, it is determined that the region is a normal region. Conversely, if there is a shift in the correspondence relationship between the assigned layer boundaries or the positions of the corresponding layer boundaries do not match, it is determined that the layer boundary is missing.

図8(a)を用いてこの処理を具体的に説明する。図8(a)では、L1〜L6の6つの層境界が特定すべき対象である。A1のラインに対して層境界の欠損の判定を行う場合、A1のラインでは順方向の層境界候補DP1は6点検出されているため、各点に対して、順方向に沿って順にL1〜L6の層境界を割り当てることができる。これを第3実施形態のステップS705と同様に順方向層境界(各点が順にPd1、Pd2、・・・、Pd6)とする。また、逆方向の層境界候補DP2も6点検出されているため、各点に対して、逆方向から順にL6〜L1の層境界を割り当てることができる。同様にこれを逆方向層境界(各点が順にPu6、Pu5、・・・、Pu1)とする。このとき、双方で層境界の対応関係を見ると、それぞれPd1とPu1、Pd2とPu2、・・・、Pu6とPu6、が対応し、L1〜L6の全ての層境界が対応している。さらに、これらの位置を互いに比較すると、DP1とDP2の各点の位置が示すように全て一致するため、A1ラインは正常領域であると判定される。 This process will be specifically described with reference to FIG. In FIG. 8A, six layer boundaries L1 to L6 are objects to be specified. When determining the loss of the layer boundary with respect to the A1 line, since six points of the forward layer boundary candidates DP1 are detected in the A1 line, for each point, L1 to L1 in order along the forward direction. L6 layer boundaries can be assigned. This is assumed to be a forward layer boundary (each point is in order P d1 , P d2 ,..., P d6 ) as in step S705 of the third embodiment. In addition, since six layer boundary candidates DP2 in the reverse direction are detected, the layer boundaries L6 to L1 can be assigned to each point in order from the reverse direction. Similarly, this is defined as a reverse layer boundary (where each point is P u6 , P u5 ,..., P u1 ). At this time, when the correspondence relationship between the layer boundaries is seen on both sides, P d1 and P u1 , P d2 and P u2 ,..., P u6 and P u6 correspond to each other, and all the layer boundaries of L1 to L6 are It corresponds. Further, when these positions are compared with each other, the positions of the points DP1 and DP2 are all coincident with each other, so that the A1 line is determined to be a normal region.

一方、A2ラインに対して層境界の欠損の判定を行う場合、層境界候補DP2とUP2はそれぞれ4点ずつしか検出されない。従って、順方向の層境界候補DP2の各点に対して層境界を割り当てると、L1〜L4に対応するPd1〜Pd4のみが割り当てられる。また、逆方向の層境界候補UP2の各点に対しては、L6〜L3に対応するPu6〜Pu3のみが割り当てられる。このとき、互いの層境界の対応を見ると、L3とL4のみしか対応せず(Pd3とPu3及びPd4とPu4のみが対応)、割り当てられた層境界の対応関係がずれている。従って、A2ラインは層境界欠損領域であると判定される。 On the other hand, when determining the loss of the layer boundary for the A2 line, only four points each of the layer boundary candidates DP2 and UP2 are detected. Accordingly, when a layer boundary is assigned to each point of the forward layer boundary candidate DP2, only P d1 to P d4 corresponding to L1 to L4 are assigned. Also, for each point of the reverse layer boundary candidates UP2, it is assigned only P u6 to P u3 corresponding to L6~L3. At this time, when looking at the correspondence between the layer boundaries, only L3 and L4 correspond (P d3 and P u3 and P d4 and P u4 only), and the correspondence relationship between the assigned layer boundaries is shifted. . Therefore, it is determined that the A2 line is a layer boundary defect region.

また、割り当てられた層境界は互いに全て対応していても、各点の位置を比較したときにそれらの位置が異なる場合、本実施形態では層境界欠損領域と判定される。これは、実際には正常領域であっても、順方向と逆方向の検出結果のどちらかに誤りがある場合が考えられる。この段階では順方向と逆方向のどちらの検出結果が正しいか判断できないため、ここでは層境界欠損領域として扱う。これは、正常領域と判定した場合、後述のステップS1006において、処理に利用する検出結果が信頼性の高いものとして扱われるためである。   Further, even if all the assigned layer boundaries correspond to each other, if the positions are different when the positions of the points are compared, in the present embodiment, it is determined as a layer boundary missing region. This is considered to be the case where there is an error in either the forward direction or the backward direction detection result even in the normal region. At this stage, since it cannot be determined whether the detection result in the forward direction or the reverse direction is correct, it is treated as a layer boundary defect region here. This is because if it is determined that the region is a normal region, the detection result used for the processing is treated as highly reliable in step S1006 described later.

ステップS1006において、層境界特定部907は、欠損検出部909から取得した順方向検出情報(または逆方向検出情報)に基づき、層境界を特定する。本ステップで取得される順方向検出情報は、ステップS1005で順方向と逆方向のそれぞれの層境界候補が対応し、かつ、それぞれの検出結果の位置が一致した結果、正常領域と判定されたものであるため、検出結果の信頼性は高いと考えられる。従って、本実施形態では、順方向検出情報に対して、層境界を割り当てた結果(順方向層境界)をそのまま、最終的な層境界として特定する。次に、層境界特定部907は、特定した正常領域の層境界の位置情報(正常層境界情報)を検出結果評価部906へと送信する。   In step S <b> 1006, the layer boundary specifying unit 907 specifies the layer boundary based on the forward direction detection information (or reverse direction detection information) acquired from the defect detection unit 909. The forward direction detection information acquired in this step is determined as a normal region as a result of the correspondence between the layer boundary candidates in the forward direction and the reverse direction in step S1005, and the positions of the respective detection results match. Therefore, the reliability of the detection result is considered high. Therefore, in the present embodiment, the result of assigning the layer boundary (forward layer boundary) to the forward direction detection information is directly specified as the final layer boundary. Next, the layer boundary specifying unit 907 transmits the layer boundary position information (normal layer boundary information) of the specified normal region to the detection result evaluating unit 906.

ステップS1007において、検出結果評価部906は、欠損検出部909から取得した層境界欠損領域の順方向検出情報と逆方向検出情報とを、層境界特定部907から取得した正常層境界情報から抽出される層境界の特徴と比較する。   In step S <b> 1007, the detection result evaluation unit 906 extracts the forward direction detection information and the backward direction detection information of the layer boundary defect region acquired from the defect detection unit 909 from the normal layer boundary information acquired from the layer boundary specification unit 907. Compare with the characteristics of the layer boundary.

本実施形態では、記憶部902に格納された原画像上で、正常層境界情報が示す正常領域における層境界の位置情報からA-scanラインごとに各層境界の特徴量を抽出する。そして、抽出した各層境界の特徴量に関して、正常領域全体での平均値を求め、これを各層境界の正解特徴量とする。これは、ステップS1006に記載した通り、正常領域では信頼性の高い検出結果から層境界が特定されているためである。また、特徴量としては、第3実施形態のステップS705に記載した特徴量と同様のものを抽出する。   In the present embodiment, on the original image stored in the storage unit 902, the feature amount of each layer boundary is extracted for each A-scan line from the position information of the layer boundary in the normal region indicated by the normal layer boundary information. Then, an average value in the entire normal region is obtained with respect to the extracted feature values of each layer boundary, and this is set as a correct feature value of each layer boundary. This is because, as described in step S1006, the layer boundary is specified from the detection result with high reliability in the normal region. Further, as the feature amount, the same feature amount as that described in step S705 of the third embodiment is extracted.

図8(a)では、A1のA-scanラインはステップS1005において正常領域と判定されているため、A1のA-scanライン上の層境界候補DP1に層境界を割り当てた、順方向層境界の各点(Pd1、Pd2、・・・、Pd6)から特徴量を抽出する。また、A1と同様に、正常領域Rに含まれる任意のA-scanラインにおいて、A-scanライン上の順方向層境界の各点に対応する特徴量ベクトルを抽出する。そして、Rに含まれるこれら全ての特徴量ベクトルの平均値を層境界ごとに算出し、正解特徴量f1、f2、・・・、f6とする。このように、対象画像の正常領域Rから正解特徴量を算出することで、症例ごとに存在する層境界の特徴のばらつき(個人差)に対応した正解特徴量を利用することが可能になる。 In FIG. 8A, since the A-scan line of A1 is determined to be a normal region in step S1005, the layer boundary is assigned to the layer boundary candidate DP1 on the A-scan line of A1. A feature amount is extracted from each point (P d1 , P d2 ,..., P d6 ). Similarly to the A1, in any A-scan lines included in the normal region R N, extracts a feature vector corresponding to each point of the forward layer boundaries on A-scan lines. Then, an average value of all of the feature vectors of these contained in R N for each layer boundary, correct feature value f 1, f 2, · · ·, and f 6. Thus, by calculating the correct features from the normal region R N of the target image, it is possible to use the correct feature amount corresponding to variation in the characteristics of the layer boundary present in each case (individual differences) .

次に、層境界欠損領域(図8(a)では領域R)における順方向及び逆方向の検出結果に対して、それらの位置に基づきA-scanラインごとに原画像から上記特徴量を抽出する。そして、抽出された各方向の特徴量を、上記で求めた正解特徴量との類似度を計算することで比較する。ここで、類似度の計算方法は、第3実施形態のステップS705と同様であるため、説明を省略する。また、順方向の特徴量と正解特徴量との類似度を順方向類似度、逆方向の特徴量と正解特徴量との類似度を逆方向類似度とする。そして、検出結果評価部906は、層境界欠損領域における順方向層境界及び逆方向層境界のデータと、それらの各点に対応する順方向類似度及び逆方向類似度の値を層境界特定部907へと送信する。 Next, with respect to the detection results in the forward direction and the reverse direction in the layer boundary defect region (region R U in FIG. 8A), the above feature amount is extracted from the original image for each A-scan line based on those positions. To do. Then, the extracted feature quantities in each direction are compared by calculating the degree of similarity with the correct feature quantity obtained above. Here, since the similarity calculation method is the same as that in step S705 of the third embodiment, the description thereof is omitted. Also, the similarity between the forward feature quantity and the correct feature quantity is defined as the forward similarity, and the similarity between the reverse feature quantity and the correct feature quantity is defined as the backward similarity. Then, the detection result evaluation unit 906 receives the data of the forward layer boundary and the backward layer boundary in the layer boundary defect region, and the forward similarity and the backward similarity value corresponding to each of those points, the layer boundary specifying unit To 907.

ステップS1008において、層境界特定部907は、検出結果評価部906から層境界欠損領域における順方向層境界及び逆方向層境界のデータと、それらの各点に対応する順方向類似度及び逆方向類似度の値を取得する。そして、順方向と逆方向のそれぞれの類似度を比較してより類似度の値が高い方向、つまり正常の層境界に近い方向の層境界データを選択し、最終的な層境界として特定する。本ステップにおける層境界の特定方法は、対象領域が層境界欠損領域のみであること以外は、第3実施形態におけるステップS706と同様であるので、説明を省略する。   In step S1008, the layer boundary specifying unit 907, from the detection result evaluation unit 906, forward layer boundary and reverse layer boundary data in the layer boundary defect region, and forward similarity and backward similarity corresponding to each point. Get the degree value. Then, by comparing the similarities in the forward direction and the reverse direction, the direction having a higher similarity value, that is, the layer boundary data in the direction close to the normal layer boundary is selected and specified as the final layer boundary. Since the layer boundary specifying method in this step is the same as that in step S706 in the third embodiment except that the target region is only the layer boundary defect region, description thereof will be omitted.

以上の構成により、画像の上端または下端において網膜層に途切れが生じている症例においても、網膜層の途切れによる層境界の欠損に影響されることなく、層境界を精度良く特定することができる。さらに、順方向と逆方向の検出結果を、対象画像における正常領域の層境界の特徴と比較して類似度を算出するため、症例ごとに存在する層境界の特徴のばらつきに対応した比較が可能になる。   With the above configuration, even in a case where the retinal layer is interrupted at the upper end or the lower end of the image, the layer boundary can be accurately identified without being affected by the loss of the layer boundary due to the interruption of the retinal layer. Furthermore, since the similarity is calculated by comparing the detection results in the forward and reverse directions with the characteristics of the layer boundary of the normal region in the target image, it is possible to make a comparison corresponding to the variation in the characteristics of the layer boundary existing for each case. become.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (10)

被検眼の断層画像の眼底表面から眼底の奥側に向かう順方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する順方向検出手段と、
前記断層画像を解析して前記網膜層の異常部位の位置を検出する異常部位検出手段と、
前記異常部位検出手段により前記異常部位の位置が検出されたことにより、前記断層画像の眼底の奥側から眼底表面に向かう逆方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する逆方向検出手段と、
前記眼底表面から前記異常部位までの層境界を、前記順方向検出手段で検出された層境界候補を用いて特定し、前記眼底の奥側から前記異常部位までの層境界を、前記逆方向検出手段で検出された層境界候補を用いて特定する層境界特定手段と、
を備えることを特徴とする画像処理装置。
Forward direction detecting means for detecting a layer boundary candidate of the retinal layer of the eye to be examined by analyzing the tomographic image along a forward direction from the fundus surface of the tomographic image of the eye to be examined to the back side of the fundus;
An abnormal part detecting means for analyzing the tomographic image and detecting the position of the abnormal part of the retinal layer;
When the position of the abnormal part is detected by the abnormal part detection means, the retina of the eye to be examined is analyzed by analyzing the tomographic image along the reverse direction from the back side of the fundus to the fundus surface of the tomographic image. A reverse direction detecting means for detecting a layer boundary candidate of the layer;
A layer boundary from the fundus surface to the abnormal part is identified using a layer boundary candidate detected by the forward direction detection means, and a layer boundary from the back side of the fundus to the abnormal part is detected in the reverse direction. A layer boundary specifying means for specifying using a layer boundary candidate detected by the means;
An image processing apparatus comprising:
前記異常部位検出手段により前記網膜層の異常部位の位置が検出されないとき、
前記逆方向検出手段は、前記層境界候補の検出を行わず、
前記層境界特定手段は、前記順方向検出手段で検出された層境界候補を用いて、前記被検眼の網膜層の境界を特定することを特徴とする請求項1に記載の画像処理装置。
When the position of the abnormal part of the retinal layer is not detected by the abnormal part detection means,
The reverse direction detection means does not detect the layer boundary candidate,
The image processing apparatus according to claim 1, wherein the layer boundary specifying unit specifies a boundary of the retinal layer of the eye to be examined using the layer boundary candidate detected by the forward direction detection unit.
被検眼の断層画像の眼底表面から眼底の奥側に向かう順方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する順方向検出手段と、
前記順方向検出手段の順方向の解析位置と対応付けて前記断層画像を解析して、前記網膜層の異常部位の位置を検出する第1異常検出手段と、
前記断層画像の眼底の奥側から眼底表面に向かう逆方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する逆方向検出手段と、
前記逆方向検出手段の逆方向の解析位置と対応付けて前記断層画像を解析して、前記網膜層の異常部位の位置を検出する第2異常検出手段と、
前記眼底表面から前記第1異常検出手段で検出された異常部位までの層境界を、前記順方向検出手段で検出された層境界候補を用いて特定し、前記眼底の奥側から前記第2異常検出手段により検出された異常部位までの層境界を、前記逆方向検出手段で検出された層境界候補を用いて特定する層境界特定手段と、
を備えることを特徴とする画像処理装置。
Forward direction detecting means for detecting a layer boundary candidate of the retinal layer of the eye to be examined by analyzing the tomographic image along a forward direction from the fundus surface of the tomographic image of the eye to be examined to the back side of the fundus;
First abnormality detection means for detecting the position of the abnormal part of the retinal layer by analyzing the tomographic image in association with the analysis position in the forward direction of the forward direction detection means;
A reverse direction detecting means for detecting a layer boundary candidate of the retinal layer of the eye to be examined by analyzing the tomographic image along a reverse direction from the back side of the fundus of the tomographic image to the fundus surface;
Second abnormality detection means for detecting the position of the abnormal part of the retinal layer by analyzing the tomographic image in association with the analysis position in the reverse direction of the reverse direction detection means;
A layer boundary from the fundus surface to the abnormal site detected by the first abnormality detection unit is specified using a layer boundary candidate detected by the forward direction detection unit, and the second abnormality is detected from the back side of the fundus. A layer boundary specifying means for specifying the layer boundary to the abnormal site detected by the detecting means using the layer boundary candidate detected by the reverse direction detecting means;
An image processing apparatus comprising:
前記順方向検出手段は、前記第1異常検出手段により前記網膜層の異常部位の位置が検出されたことにより、前記順方向検出手段による順方向の層境界候補の検出を停止し、
前記逆方向検出手段は、前記第2異常検出手段により前記網膜層の異常部位の位置が検出されたことにより、前記逆方向検出手段による逆方向の層境界候補の検出を停止することを特徴とする請求項3に記載の画像処理装置。
The forward direction detection means stops detecting the forward layer boundary candidate by the forward direction detection means when the position of the abnormal part of the retinal layer is detected by the first abnormality detection means,
The reverse direction detection means stops detecting the layer boundary candidate in the reverse direction by the reverse direction detection means when the position of the abnormal part of the retinal layer is detected by the second abnormality detection means. The image processing apparatus according to claim 3.
被検眼の断層画像の眼底表面から眼底の奥側に向かう順方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する順方向検出手段と、
前記断層画像の眼底の奥側から眼底表面に向かう逆方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する逆方向検出手段と、
前記順方向検出手段により検出された順方向の層境界候補と、前記逆方向検出手段により検出された逆方向の層境界候補と、からそれぞれの特徴量を取得する取得手段と、
前記取得手段により取得された前記特徴量と、予め記憶手段に記憶された層境界の特徴量と、を比較する比較手段と、
前記比較手段の比較により、前記順方向の層境界候補および前記逆方向の層境界候補のうち前記記憶手段に記憶された層境界の特徴量に近い特徴量を示す方を選択し、当該選択された方の層境界候補を前記被検眼の網膜層の層境界として特定する層境界特定手段と、
を備えることを特徴とする画像処理装置。
Forward direction detecting means for detecting a layer boundary candidate of the retinal layer of the eye to be examined by analyzing the tomographic image along a forward direction from the fundus surface of the tomographic image of the eye to be examined to the back side of the fundus;
A reverse direction detecting means for detecting a layer boundary candidate of the retinal layer of the eye to be examined by analyzing the tomographic image along a reverse direction from the back side of the fundus of the tomographic image to the fundus surface;
An acquisition means for acquiring each feature amount from a forward layer boundary candidate detected by the forward direction detection means and a backward layer boundary candidate detected by the backward direction detection means;
Comparison means for comparing the feature quantity acquired by the acquisition means with the feature quantity of the layer boundary stored in advance in the storage means;
Based on the comparison by the comparison means, the one indicating the feature quantity close to the feature quantity of the layer boundary stored in the storage means is selected from the forward layer boundary candidate and the reverse layer boundary candidate, and the selected one is selected. Layer boundary specifying means for specifying the layer boundary candidate of the other eye as the layer boundary of the retinal layer of the eye to be examined;
An image processing apparatus comprising:
前記比較手段は、
前記順方向の層境界候補の特徴量と、予め前記記憶手段に記憶された層境界の特徴量との第1類似度と、
前記逆方向の層境界候補の特徴量と、予め前記記憶手段に記憶された層境界の特徴量との第2類似度と、を算出し、
層境界特定手段は、
前記第1類似度および第2類似度のうち、高い類似度を示す方の層境界候補を前記被検眼の網膜層の層境界として特定することを特徴とする請求項5に記載の画像処理装置。
The comparison means includes
A first similarity between the feature amount of the forward layer boundary candidate and the feature amount of the layer boundary stored in advance in the storage unit;
Calculating a second similarity between the feature quantity of the layer boundary candidate in the reverse direction and the feature quantity of the layer boundary stored in advance in the storage unit;
Layer boundary identification means
6. The image processing apparatus according to claim 5, wherein a layer boundary candidate showing a higher similarity among the first similarity and the second similarity is specified as a layer boundary of the retinal layer of the eye to be examined. .
被検眼の断層画像の眼底表面から眼底の奥側に向かう順方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する順方向検出手段と、
前記断層画像の眼底の奥側から眼底表面に向かう逆方向に沿って、前記断層画像を解析することにより前記被検眼の網膜層の層境界候補を検出する逆方向検出手段と、
前記順方向および前記逆方向の層境界候補が検出された領域が正常な領域か否かを、前記順方向の層境界候補と前記逆方向の層境界候補との対応関係、および前記順方向の層境界候補と前記逆方向の層境界候補との位置関係により判定する判定手段と、
前記順方向および前記逆方向の層境界候補が検出された一の領域について、前記判定手段により前記一の領域が正常な領域であると判定されたことにより、前記正常な領域に対応する前記断層画像の領域の特徴量を、当該断層画像から抽出する抽出手段と、
前記順方向および前記逆方向の層境界候補が検出された他の領域について、前記判定手段により前記他の領域が正常な領域でないと判定されたことにより、前記順方向の層境界候補と、前記逆方向の層境界候補と、からそれぞれの特徴量を取得する取得手段と、
前記取得手段により取得された前記特徴量と、前記抽出手段により抽出された前記特徴量と、を比較する比較手段と、
前記比較手段の比較により、前記順方向の層境界候補および前記逆方向の層境界候補のうち前記抽出手段により抽出された特徴量に近い特徴量を示す方を選択し、当該選択された方の層境界候補を前記被検眼の網膜層の層境界として特定する層境界特定手段と、
を備えることを特徴とする画像処理装置。
Forward direction detecting means for detecting a layer boundary candidate of the retinal layer of the eye to be examined by analyzing the tomographic image along a forward direction from the fundus surface of the tomographic image of the eye to be examined to the back side of the fundus;
A reverse direction detecting means for detecting a layer boundary candidate of the retinal layer of the eye to be examined by analyzing the tomographic image along a reverse direction from the back side of the fundus of the tomographic image to the fundus surface;
Whether the region where the forward and reverse layer boundary candidates are detected is a normal region, the correspondence between the forward layer boundary candidate and the reverse layer boundary candidate, and the forward direction Determination means for determining by a positional relationship between the layer boundary candidate and the layer boundary candidate in the reverse direction;
With respect to the one area where the forward and reverse layer boundary candidates are detected, it is determined that the one area is a normal area by the determination means, and thus the tomogram corresponding to the normal area Extraction means for extracting the feature amount of the region of the image from the tomographic image;
With respect to the other areas in which the forward and reverse layer boundary candidates are detected, the determination means determines that the other areas are not normal areas, and the forward layer boundary candidates and Acquisition means for acquiring each feature quantity from the layer boundary candidates in the reverse direction;
Comparison means for comparing the feature quantity acquired by the acquisition means with the feature quantity extracted by the extraction means;
Based on the comparison by the comparison unit, the one indicating the feature amount close to the feature amount extracted by the extraction unit is selected from the forward layer boundary candidate and the reverse layer boundary candidate, and the selected one A layer boundary specifying means for specifying a layer boundary candidate as a layer boundary of the retinal layer of the eye to be examined;
An image processing apparatus comprising:
前記判定手段は、前記順方向の層境界候補と前記逆方向の層境界候補とがそれぞれ対応し、かつ、前記順方向の層境界候補の位置と前記逆方向の層境界候補の位置とが一致する場合に、前記順方向の層境界候補が検出された領域が正常な領域であると判定することを特徴とする請求項7に記載の画像処理装置。   The determination means corresponds to the forward layer boundary candidate and the backward layer boundary candidate, and the position of the forward layer boundary candidate matches the position of the backward layer boundary candidate. The image processing apparatus according to claim 7, wherein the image processing apparatus determines that the area where the forward layer boundary candidate is detected is a normal area. コンピュータを、請求項1乃至8のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 8. 請求項9に記載のプログラムを記憶したコンピュータにより読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9.
JP2010160098A 2010-07-14 2010-07-14 Image processing apparatus, program, and storage medium Active JP5563394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010160098A JP5563394B2 (en) 2010-07-14 2010-07-14 Image processing apparatus, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010160098A JP5563394B2 (en) 2010-07-14 2010-07-14 Image processing apparatus, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2012019958A true JP2012019958A (en) 2012-02-02
JP5563394B2 JP5563394B2 (en) 2014-07-30

Family

ID=45774752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010160098A Active JP5563394B2 (en) 2010-07-14 2010-07-14 Image processing apparatus, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5563394B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014176566A (en) * 2013-03-15 2014-09-25 Canon Inc Image processing system, image processing method and program
WO2019073962A1 (en) * 2017-10-10 2019-04-18 国立大学法人 東京大学 Image processing device and program
WO2020036182A1 (en) * 2018-08-14 2020-02-20 キヤノン株式会社 Medical image processing device, medical image processing method, and program
JP2020093076A (en) * 2018-08-14 2020-06-18 キヤノン株式会社 Medical image processing device, learned model, medical image processing method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050018133A1 (en) * 2003-05-01 2005-01-27 The Cleveland Clinic Foundation Method and apparatus for measuring a retinal sublayer characteristic
JP2008073099A (en) * 2006-09-19 2008-04-03 Topcon Corp Fundus observation apparatus, fundus image display device, and fundus observation program
JP2008267891A (en) * 2007-04-18 2008-11-06 Topcon Corp Optical image measuring device
JP2009066015A (en) * 2007-09-10 2009-04-02 Univ Of Tokyo Fundus observation apparatus, ophthalmologic image processer, and program
JP2010142498A (en) * 2008-12-19 2010-07-01 Canon Inc Fundus image display apparatus, control method thereof, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050018133A1 (en) * 2003-05-01 2005-01-27 The Cleveland Clinic Foundation Method and apparatus for measuring a retinal sublayer characteristic
JP2008073099A (en) * 2006-09-19 2008-04-03 Topcon Corp Fundus observation apparatus, fundus image display device, and fundus observation program
JP2008267891A (en) * 2007-04-18 2008-11-06 Topcon Corp Optical image measuring device
JP2009066015A (en) * 2007-09-10 2009-04-02 Univ Of Tokyo Fundus observation apparatus, ophthalmologic image processer, and program
JP2010142498A (en) * 2008-12-19 2010-07-01 Canon Inc Fundus image display apparatus, control method thereof, and computer program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014176566A (en) * 2013-03-15 2014-09-25 Canon Inc Image processing system, image processing method and program
WO2019073962A1 (en) * 2017-10-10 2019-04-18 国立大学法人 東京大学 Image processing device and program
JPWO2019073962A1 (en) * 2017-10-10 2019-11-14 国立大学法人 東京大学 Image processing apparatus and program
WO2020036182A1 (en) * 2018-08-14 2020-02-20 キヤノン株式会社 Medical image processing device, medical image processing method, and program
JP2020093076A (en) * 2018-08-14 2020-06-18 キヤノン株式会社 Medical image processing device, learned model, medical image processing method and program
CN112601487A (en) * 2018-08-14 2021-04-02 佳能株式会社 Medical image processing apparatus, medical image processing method, and program
KR20210041046A (en) * 2018-08-14 2021-04-14 캐논 가부시끼가이샤 Medical image processing device, medical image processing method, computer-readable medium, and learning completed model
GB2591890A (en) * 2018-08-14 2021-08-11 Canon Kk Medical image processing device, medical image processing method, and program
JP2022103221A (en) * 2018-08-14 2022-07-07 キヤノン株式会社 Medical image processing device, medical image processing system, medical image processing method, and program
JP7269413B2 (en) 2018-08-14 2023-05-08 キヤノン株式会社 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
KR102543875B1 (en) * 2018-08-14 2023-06-16 캐논 가부시끼가이샤 Medical image processing apparatus, medical image processing method, computer readable medium, and trained model
GB2591890B (en) * 2018-08-14 2023-07-19 Canon Kk Medical image processing apparatus, medical image processing method, program, and learned model

Also Published As

Publication number Publication date
JP5563394B2 (en) 2014-07-30

Similar Documents

Publication Publication Date Title
KR101484365B1 (en) Image processing apparatus, image processing method and storage medium
US10441163B2 (en) Ophthalmic diagnosis support apparatus and ophthalmic diagnosis support method
JP5665768B2 (en) Image processing apparatus, image processing method, imaging system, and program
US9943224B2 (en) Image processing apparatus and image processing method
JP4909377B2 (en) Image processing apparatus, control method therefor, and computer program
JP4466968B2 (en) Image processing apparatus, image processing method, program, and program storage medium
JP5751815B2 (en) Image processing apparatus, photographing system, image processing method, and program
JP5955163B2 (en) Image processing apparatus and image processing method
JP2021154159A (en) Machine learning guided imaging system
EP2458550B1 (en) Analysis of retinal images
US20110137157A1 (en) Image processing apparatus and image processing method
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
JP5563394B2 (en) Image processing apparatus, program, and storage medium
Hatanaka et al. Improvement of automatic hemorrhage detection methods using brightness correction on fundus images
JP6239021B2 (en) Image processing apparatus, image processing method, and program
JP6061984B2 (en) Image processing apparatus, image processing method, and program
JP6611776B2 (en) Image processing apparatus, method of operating image processing apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140612

R151 Written notification of patent or utility model registration

Ref document number: 5563394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151