KR20120024842A - Image processing apparatus, control method thereof, and computer program - Google Patents

Image processing apparatus, control method thereof, and computer program Download PDF

Info

Publication number
KR20120024842A
KR20120024842A KR1020117030891A KR20117030891A KR20120024842A KR 20120024842 A KR20120024842 A KR 20120024842A KR 1020117030891 A KR1020117030891 A KR 1020117030891A KR 20117030891 A KR20117030891 A KR 20117030891A KR 20120024842 A KR20120024842 A KR 20120024842A
Authority
KR
South Korea
Prior art keywords
layer
artifact
image
region
area
Prior art date
Application number
KR1020117030891A
Other languages
Korean (ko)
Other versions
KR101318685B1 (en
Inventor
히로시 이마무라
아끼히로 가따야마
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20120024842A publication Critical patent/KR20120024842A/en
Application granted granted Critical
Publication of KR101318685B1 publication Critical patent/KR101318685B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02083Interferometers characterised by particular signal processing and presentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 피검안을 단층상 촬상 장치에 의해 촬상해서 얻어진 단층상(tomogram)의 화상을 처리하는 화상 처리 장치이며, 단층상으로부터 피검안의 망막의 층 후보들을 검출하는 층 후보 검출 수단, 층 후보들을 이용해서 얻어진 화상 특징에 기초하여 단층상에 있어서의 아티팩트 영역을 판정하는 아티팩트 영역 판정 수단, 및 아티팩트 영역 판정 수단의 판정 결과와 영역에서의 화상 특징에 기초하여 아티팩트 영역에서의 휘도값을 보정하는 화상 보정 수단을 포함한다. The present invention is an image processing apparatus for processing a tomogram image obtained by imaging an eye to be examined by a tomography imaging device, and using layer candidate detection means and layer candidates to detect layer candidates of the retina of the eye to be examined from the tomography image. Artifact region determination means for determining an artifact region on a tomographic layer based on the obtained image characteristic, and image correction for correcting a luminance value in the artifact region based on the determination result of the artifact region determination means and the image characteristic in the region. Means;

Description

화상 처리 장치, 그 제어 방법, 및 컴퓨터 프로그램 {IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND COMPUTER PROGRAM}Image processing apparatus, control method thereof, and computer program {IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND COMPUTER PROGRAM}

본 발명은 화상 처리 장치, 그 제어 방법, 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to an image processing apparatus, a control method thereof, and a computer program.

생활 습관에 관련된 병 및 실명의 원인의 상위를 차지하는 각종 질병의 조기 진단을 목적으로 안과의 검사가 널리 행해지고 있다. 광 간섭 단층 촬영(OCT: Optical Coherence Tomography) 등 안부 단층상 촬상 장치(tomography apparatus for eye portion)는, 망막층들 내부의 상태를 3차원적으로 관찰하는 것이 가능하기 때문에, 질병의 진단을 더 적절하게 행하는 데에 유효하다고 기대된다. 이 단층상(tomogram)으로부터, 예를 들어, 신경 섬유층이나 망막 등의 층 두께의 변화, 망막 색소 상피층에 있어서의 요철 등의 층 형상의 변화를 계측함으로써, 녹내장(glaucoma), 황반 부종(macular edema), 및 연령-관련 황반 변성(age-related macular degeneration) 등의 질병의 진행 정도, 및 치료 후의 회복 수준을 정량적으로 진단하는 것이 가능하다. 이들의 층 두께를 정량적으로 계측하기 위해, 컴퓨터를 사용해서 단층상으로부터 망막의 각 층들을 검출하고, 이 층들의 두께를 계측하는 기술이 제안되어 있다(일본 공개 특허 공개 제2008-073099호 공보 참조). Examination of ophthalmology is widely conducted for the purpose of early diagnosis of various diseases that occupy the top causes of illness and blindness related to lifestyle. A tomography apparatus for eye portion, such as optical coherence tomography (OCT), allows for three-dimensional observation of the state inside the retinal layers, thus making it more appropriate to diagnose the disease. It is expected to be effective in doing so. From this tomogram, for example, glaucoma and macular edema are measured by measuring a change in layer thickness such as a nerve fiber layer or a retina and a change in layer shape such as irregularities in the retinal pigment epithelial layer. ), And the extent of disease progression, such as age-related macular degeneration, and the level of recovery after treatment. In order to quantitatively measure the thickness of these layers, a technique for detecting each layer of the retina from a single layer using a computer and measuring the thickness of these layers has been proposed (see Japanese Laid-Open Patent Publication No. 2008-073099). ).

한편, OCT 단층상에서는, 측정광이 물체에서 강하게 반사 또는 흡수되면, 물체의 후방에 있어서, 신호가 감쇠 또는 결손에 기인한 아티팩트(artifact)가 발생하는 경우가 종종 있다. 물체란, 예를 들어, 혈관 등의 조직과, 백반 및 출혈 등의 병변 부위를 포함한다는 것을 유의한다. 도 1a에 도시된 바와 같이, 통상적으로 망막의 깊이 방향(하기에서는 z축 방향 또는 A-스캔 방향이라고 칭함)에 관해서 휘도값을 표시하면, 망막 색소 상피(2)의 부근에서 최대 휘도가 나타난다. 그러나, 도 1b에 도시된 바와 같이, 망막 혈관(4)의 z축의 양의 방향 측에 아티팩트 영역(5)이 발생하면, 아티팩트 영역(5)에 있어서의 망막 색소 상피(6) 부근의 휘도가 감쇠 또는 결손되어 버린다. 따라서, 아티팩트가 발생한 영역에서의 층의 휘도 감쇠 정도에 따라서는 층의 추출과, 층 두께 및 층 형상의 계측이 곤란해질 경우가 종종 있다. 이 문제를 해결하기 위해, 안저의 표면 화상으로부터 혈관 영역을 추출하고, 혈관 영역을 OCT 단층상 위에 역투영하고, 역투영 영역의 근방의 층들을 보간하여, 혈관에 의해 유발된 아티팩트 영역 내의 층 위치를 추정하는 기술이 제안되어 있다(일본 공개 특허 제2007-325831호 공보 참조). On the other hand, on the OCT tomography, when the measurement light is strongly reflected or absorbed by the object, artifacts due to attenuation or loss of the signal often occur behind the object. Note that the object includes, for example, tissue such as blood vessels and lesion sites such as alum and bleeding. As shown in Fig. 1A, when a luminance value is typically displayed in the depth direction of the retina (hereinafter referred to as the z-axis direction or the A-scan direction), the maximum luminance appears in the vicinity of the retinal pigment epithelium 2. However, as shown in FIG. 1B, when the artifact region 5 occurs on the positive side of the z-axis of the retinal vessel 4, the luminance near the retinal pigment epithelium 6 in the artifact region 5 is reduced. It is attenuated or missing. Therefore, depending on the degree of luminance attenuation of the layer in the region where the artifact has occurred, it is often difficult to extract the layer and to measure the layer thickness and the layer shape. To solve this problem, the vascular area is extracted from the surface image of the fundus, the vascular area is backprojected onto the OCT tomography, and the layers in the artifact area caused by the vascular are interpolated by interpolating the layers in the vicinity of the backprojection area. A technique for estimating is proposed (see Japanese Unexamined Patent Publication No. 2007-325831).

그러나, 일본 공개 특허 제2008-073099호 공보에 기재된 기술에서는, 아티팩트가 발생한 영역에서의 층 위치를 산출하는 방법에 대해서는 전혀 개시되어 있지 않다. However, in the technique described in Japanese Unexamined Patent Publication No. 2008-073099, there is no disclosure about the method of calculating the layer position in the region where the artifact has occurred.

또한, 일본 공개 특허 제2007-325831호 공보에 기재된 기술에서는, 아티팩트가 발생할 가능성이 높은 영역으로서 단순히 단층상 위에 역투영한 영역 근방의 층들을 보간할 뿐, 역투영 영역 내에서 감쇠된 층의 휘도 신호를 검출해서 본래의 층 위치를 산출하는 것은 아니다. 또한, 층 검출을 위해 화상 보정을 행하는 경우에도, 아티팩트 영역과 그 이외의 다른 영역에서는 히스토그램 및 콘트라스트 레벨 등의 휘도에 관한 성질이 상이하기 때문에, 아티팩트 영역을 판정해서 적절하게 화상 보정을 적용할 필요가 있다. In addition, in the technique described in Japanese Unexamined Patent Application Publication No. 2007-325831, the luminance signal of the layer attenuated in the reverse projection area is merely an interpolation of the layers near the reverse projection area on the tomographic layer as the area where artifacts are likely to occur. Does not calculate the original floor position. In addition, even when image correction is performed for layer detection, the characteristics of luminance, such as histogram and contrast level, are different in the artifact region and other regions, so it is necessary to determine the artifact region and apply image correction appropriately. There is.

그러므로, 본 발명은 혈관 등의 조직, 또는 백반이나 출혈 등의 병변 부위의 영향에 기인하여 휘도가 감쇠된 영역을 판정하고, 그 영역에서의 층들을 검출하기 쉽게 하기 위한 화상 보정을 행한다. Therefore, the present invention determines an area where brightness is attenuated due to the influence of tissues such as blood vessels or lesion sites such as alum and bleeding, and performs image correction for making it easier to detect layers in the area.

본 발명의 실시예들의 일 특징은, 피검안을 단층상 촬상 장치에 의해 촬상해서 얻어진 단층상의 화상을 처리하는 화상 처리 장치로서, 단층상으로부터 피검안의 망막의 층 후보들을 검출하는 층 후보 검출 수단, 층 후보들을 이용해서 얻어진 화상 특징에 기초하여 단층상에 있어서의 아티팩트 영역을 판정하는 아티팩트 영역 판정 수단, 및 아티팩트 영역 판정 수단의 판정 결과와 영역에서의 화상 특징에 기초하여 아티팩트 영역에서의 휘도값을 보정하는 화상 보정 수단을 포함하는 화상 처리 장치에 관련된다. An aspect of embodiments of the present invention is an image processing apparatus for processing a tomographic image obtained by imaging an eye to be examined by a tomographic imaging device, comprising: layer candidate detection means for detecting layer candidates of the retina of the eye to be examined from a tomography layer; Artifact area determining means for determining an artifact area on a tomographic layer based on image features obtained by using the candidates, and correcting luminance values in the artifact area based on the determination result of the artifact area determining means and the image characteristics in the area. It relates to an image processing apparatus including an image correction means.

본 발명의 실시예들의 다른 일 특징은, 피검안을 단층상 촬상 장치에 의해 촬상해서 얻어진 단층상의 화상을 처리하는 화상 처리 장치로서, 상기 단층상으로부터 상기 피검안의 망막의 층 후보들을 검출하는 층 후보 검출 수단, 상기 층 후보들을 이용해서 얻어진 화상 특징에 기초하여 상기 단층상에 있어서의 아티팩트 영역을 판정하는 아티팩트 영역 판정 수단, 및 상기 아티팩트 영역 판정 수단의 판정 결과에 기초하여 상기 아티팩트 영역에서 상기 망막의 층의 위치를 결정하는 층 결정 수단을 포함하고, 상기 층 결정 수단은, 상기 아티팩트 영역에 포함된 층 형상을 특정하기 위해 이용되며 복수의 제어 점에 의해 정의되는 형상 모델을 이용하고, 상기 형상 모델의 형상에 연관된 평가 함수와, 상기 제어 점의 근방에 있어서의 휘도값에 연관된 평가 함수에 기초하여 상기 층의 위치를 결정하는 화상 처리 장치에 관련된다.Another aspect of embodiments of the present invention is an image processing apparatus for processing a tomographic image obtained by imaging an eye to be examined by a tomographic imaging apparatus, wherein layer candidate detection for detecting layer candidates of the retina of the eye to be examined is performed from the tomography. Means, an artifact region determining means for determining an artifact region on the tomographic layer based on an image characteristic obtained by using the layer candidates, and a layer of the retina in the artifact region based on a determination result of the artifact region determining means. Means for determining the position of the layer determining means, using the shape model defined by a plurality of control points and used to specify the layer shape included in the artifact region; An evaluation function associated with the shape and a flatness associated with the luminance value in the vicinity of the control point On the basis of the function it is related to the image processing apparatus for determining a position of the layer.

본 발명의 다른 특징들은 (첨부 도면을 참조하여) 하기의 실시예들의 설명으로부터 명백해질 것이다.Other features of the present invention will become apparent from the following description of the embodiments (with reference to the accompanying drawings).

도 1a 및 도 1b는 망막 혈관의 존재로 인해 망막 색소 상피층에 있어서의 화상 신호의 감쇠의 예를 설명하는 도면이다.
도 2는 제1 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성을 도시하는 블록도이다.
도 3은 제1 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 4는 제1 실시예에 따른 화상 처리 장치(10)의 처리 수순을 도시하는 흐름도이다.
도 5는 제1 실시예에 따른 아티팩트 영역의 판정 방법을 설명하는 도면이다.
도 6은 제1 실시예에 따른 아티팩트 영역을 판정하기 위해 필요한 화상 처리 수순을 도시하는 흐름도이다.
도 7은 제1 실시예에 따른 아티팩트 영역으로서 판정된 영역에 대한 화상 처리 수순을 도시하는 흐름도이다.
도 8은 제2 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 9는 제2 실시예에 따른 아티팩트 영역으로서 판정된 영역에 대한 화상 처리 수순을 도시하는 흐름도이다.
도 10은 제3 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 11은 제3 실시예에 따른 화상 처리 장치(10)의 처리 수순을 도시하는 흐름도이다.
도 12는 제3 실시예에 따른 아티팩트 영역의 판정 방법을 설명하는 도면이다.
도 13은 제4 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 14는 제5 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성을 도시하는 블록도이다.
도 15는 제5 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 16은 제5 실시예에 따른 화상 처리 장치(10)의 처리 수순을 도시하는 흐름도이다.
도 17a 및 도 17b는 제5 실시예에 따른 아티팩트 영역의 판정 방법을 설명하는 도면이다.
도 18은 제6 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 19는 제7 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 20은 제7 실시예에 따른 화상 처리 장치(10)의 처리 수순을 도시하는 흐름도이다.
도 21은 제7 실시예에 따른 아티팩트 영역으로서 판정된 영역에 대한 화상 처리 수순을 도시하는 흐름도이다.
도 22는 제7 실시예에 따른 층의 요철 형상의 계측 방법을 설명하는 도면이다.
도 23은 제8 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 24는 제8 실시예에 따른 아티팩트 영역으로서 판정된 영역에 대한 화상 처리 수순을 도시하는 흐름도이다.
도 25는 제8 실시예에 따른 화상 처리 방법 결정 방법 및 층 결정 방법을 설명하는 도면이다.
도 26은 제9 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 27은 제9 실시예에 따른 화상 처리 장치(10)의 처리 수순을 도시하는 흐름도이다.
도 28은 제9 실시예에 따른 아티팩트 영역 판정 방법을 설명하는 도면이다.
도 29는 제10 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 30은 제11 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 31은 제11 실시예에 따른 화상 처리 장치(10)의 처리 수순을 도시하는 흐름도이다.
도 32는 제12 실시예에 따른 화상 처리 장치(10)의 기능 구성을 도시하는 블록도이다.
도 33은 화상 처리 장치(10)의 각 유닛들을 소프트웨어에 의해 실현할 수 있는 컴퓨터의 기본 구성을 도시하는 블록도이다.
1A and 1B are diagrams illustrating an example of attenuation of an image signal in the retinal pigment epithelial layer due to the presence of retinal blood vessels.
2 is a block diagram showing the configuration of an apparatus connected to the image processing apparatus 10 according to the first embodiment.
3 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the first embodiment.
4 is a flowchart showing the processing procedure of the image processing apparatus 10 according to the first embodiment.
5 is a view for explaining a method for determining an artifact region according to the first embodiment.
6 is a flowchart showing an image processing procedure necessary for determining an artifact area according to the first embodiment.
7 is a flowchart showing an image processing procedure for an area determined as an artifact area according to the first embodiment.
8 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the second embodiment.
9 is a flowchart showing an image processing procedure for an area determined as an artifact area according to the second embodiment.
10 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the third embodiment.
11 is a flowchart showing the processing procedure of the image processing apparatus 10 according to the third embodiment.
12 is a diagram for explaining a method for determining an artifact region according to the third embodiment.
13 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the fourth embodiment.
14 is a block diagram showing the structure of an apparatus connected to the image processing apparatus 10 according to the fifth embodiment.
15 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the fifth embodiment.
16 is a flowchart showing the processing procedure of the image processing apparatus 10 according to the fifth embodiment.
17A and 17B are views for explaining a method for determining an artifact region according to the fifth embodiment.
18 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the sixth embodiment.
19 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the seventh embodiment.
20 is a flowchart showing the processing procedure of the image processing apparatus 10 according to the seventh embodiment.
21 is a flowchart showing an image processing procedure for an area determined as an artifact area according to the seventh embodiment.
It is a figure explaining the measuring method of the uneven | corrugated shape of the layer which concerns on 7th Example.
23 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the eighth embodiment.
24 is a flowchart showing an image processing procedure for an area determined as an artifact area according to the eighth embodiment.
25 is a view for explaining an image processing method determination method and a layer determination method according to the eighth embodiment.
26 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the ninth embodiment.
27 is a flowchart showing the processing procedure of the image processing apparatus 10 according to the ninth embodiment.
28 is a diagram for explaining an artifact area determining method according to the ninth embodiment.
29 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the tenth embodiment.
30 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the eleventh embodiment.
31 is a flowchart showing the processing procedure of the image processing apparatus 10 according to the eleventh embodiment.
32 is a block diagram showing the functional configuration of the image processing apparatus 10 according to the twelfth embodiment.
33 is a block diagram showing the basic configuration of a computer that can realize respective units of the image processing apparatus 10 by software.

이하, 첨부 도면을 참조하여 본 발명에 따른 화상 처리 장치 및 방법의 바람직한 실시예들에 대해 상세하게 설명한다. 그러나, 본 발명의 범위는 예시된 예들로 한정되지 않는다. Hereinafter, with reference to the accompanying drawings will be described in detail preferred embodiments of the image processing apparatus and method according to the present invention. However, the scope of the present invention is not limited to the illustrated examples.

[제1 실시예][First Embodiment]

OCT 장치로 피검안(검사 대상으로서의 눈)을 촬상할 경우, 망막 위에 혈관이나 백반 등이 존재하면, 측정광의 강도가 저하하기 때문에, 얻어진 화상에서 망막 색소 상피층이 감쇠되어, 층을 검출하는 것이 어려워진다. 따라서, 본 실시예에서는, 피검안의 단층상으로부터 아티팩트 영역을 판정하고, 그 영역 내의 통계량에 따라 그 영역에 화상 보정을 실시한다. When imaging a subject's eye (eye as an object to be examined) with an OCT device, if a blood vessel, alum, or the like is present on the retina, the intensity of the measurement light decreases, so that the retinal pigment epithelial layer is attenuated in the obtained image, making it difficult to detect the layer. Lose. Therefore, in the present embodiment, the artifact region is determined from the tomogram of the eye to be examined, and the image correction is performed on the region according to the statistics in the region.

도 2는 본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성을 도시하는 블록도이다. 도 2에 도시된 바와 같이, 화상 처리 장치(10)는 광 파이버, 및 예를 들면, USB 또는 IEEE1394 등의 인터페이스를 통해 단층상 촬상 장치(20)에 접속되어 있다. 단층상 촬상 장치(20)는 예를 들면, Ethernet? 등에 기초한 로컬 에리어 네트워크(LAN)(30)를 통해 데이터 서버(40)에 접속되어 있다. 화상 처리 장치(10)는 인터넷 등의 외부 네트워크를 통해 이 장치들에 접속될 수 있다는 것을 유의한다. 단층상 촬상 장치(20)는, 눈 부위의 단층상을 취득하며, 예를 들어, 타임 도메인 OCT 또는 푸리에 도메인 OCT를 포함한다. 단층상 촬상 장치(20)는, 조작자(도시 생략)에 의한 조작에 응답하여, 피검안(도시 생략)의 단층상을 3차원적으로 촬상한다. 단층상 촬상 장치(20)는 취득된 단층상을 화상 처리 장치(10)에 송신한다. 데이터 서버(40)는 피검안의 단층상 및 피검안의 화상 특징량 등을 유지한다. 데이터 서버(40)는 단층상 촬상 장치(20)로부터 출력된 피검안의 단층상 및 화상 처리 장치(10)로부터 출력된 해석 결과를 저장한다. 데이터 서버(40)는 화상 처리 장치(10)로부터의 요구에 응답하여, 피검안에 관한 과거의 데이터를 화상 처리 장치(10)에 송신한다. 2 is a block diagram showing the configuration of an apparatus connected to the image processing apparatus 10 according to the present embodiment. As shown in FIG. 2, the image processing apparatus 10 is connected to the tomographic imaging apparatus 20 via an optical fiber and an interface such as, for example, USB or IEEE1394. The tomographic image pickup device 20 is connected to the data server 40 via a local area network (LAN) 30 based on Ethernet® or the like, for example. Note that the image processing apparatus 10 can be connected to these apparatuses via an external network such as the Internet. The tomographic image pickup device 20 acquires a tomographic image of an eye portion and includes, for example, a time domain OCT or a Fourier domain OCT. The tomographic image pickup device 20 images three-dimensionally the tomographic image of the eye to be examined (not shown) in response to an operation by an operator (not shown). The tomographic image pickup device 20 transmits the acquired tomographic image to the image processing device 10. The data server 40 maintains the tomogram of the eye to be examined, the image feature amount of the eye to be examined, and the like. The data server 40 stores the tomographic image of the eye to be output from the tomographic imaging device 20 and the analysis result output from the image processing device 10. In response to a request from the image processing apparatus 10, the data server 40 transmits past data regarding the eye to be examined to the image processing apparatus 10.

본 실시예에서는 망막 색소 상피층 후보를 취득하는 경우에 대해서 설명한다는 것을 유의한다. 그러나, 취득할 후보는 망막 색소 상피층의 외측 경계(2)에 한정되지 않는다. 다른 층 경계(망막 색소 상피층의 내측 경계(도시 생략), 광수용 분절 내부와 외부 간의 경계(3), 또는 외부 경계막(도시 생략))를 검출해도 된다. 황반부 대신 시신경 유두부에 대해 층 후보의 취득, 아티팩트 영역의 판정, 및 화상 보정을 행하는 경우, 유두 중심부(오목부)와 같이 층이 존재하지 않는 영역을 미리 공지의 부위 인식 방법을 이용해서 처리 대상 영역으로부터 제외시킬 수 있다. Note that the present embodiment describes a case where a retinal pigment epithelial layer candidate is obtained. However, the candidate to be acquired is not limited to the outer boundary 2 of the retinal pigment epithelial layer. Another layer boundary (inner boundary (not shown) of the retinal pigment epithelial layer, boundary 3 between the photoreceptor segment and the outside, or outer boundary membrane (not shown)) may be detected. When acquiring a layer candidate, determining an artifact region, and performing image correction on the optic nerve papilla instead of the macula, an area where a layer does not exist, such as the center of the papilla (concave), is subjected to processing using a known site recognition method in advance. Can be excluded from the region.

하기에서는, 도 3을 참조하여 본 실시예에 따른 화상 처리 장치(10)의 기능 구성을 설명한다. 도 3은 화상 처리 장치(10)의 기능 블록도이다. 도 3에 도시된 바와 같이, 화상 처리 장치(10)는 단층상 취득 유닛(310), 저장 유닛(320), 화상 처리 유닛(330), 표시 유닛(340), 결과 출력 유닛(350), 및 지시 취득 유닛(360)을 포함한다. 또한, 화상 처리 유닛(330)은 층 후보 검출 유닛(331), 아티팩트 영역 판정 유닛(332), 및 화상 보정 유닛(333)을 포함한다. 화상 처리 장치(10)를 구성하는 각 블록의 기능에 대해서는, 하기에서 도 4에 도시된 흐름도를 참조하여 본 실시예의 화상 처리 장치(10)가 실행하는 구체적인 처리의 수순과 관련지어 설명한다.In the following, the functional configuration of the image processing apparatus 10 according to the present embodiment will be described with reference to FIG. 3 is a functional block diagram of the image processing apparatus 10. As shown in FIG. 3, the image processing apparatus 10 includes a tomographic image acquisition unit 310, a storage unit 320, an image processing unit 330, a display unit 340, a result output unit 350, and The instruction acquisition unit 360 is included. The image processing unit 330 also includes a layer candidate detection unit 331, an artifact area determination unit 332, and an image correction unit 333. The function of each block constituting the image processing apparatus 10 will be described below in relation to the specific processing performed by the image processing apparatus 10 of the present embodiment with reference to the flowchart shown in FIG. 4.

단계 S410에 있어서, 단층상 취득 유닛(310)은 단층상 촬상 장치(20)에 단층상의 송신을 요구하고, 단층상 촬상 장치(20)로부터 송신되는 단층상을 취득한다. 그리고, 유닛(310)은 취득한 정보를 저장 유닛(320)에 송신한다. 저장 유닛(320)은 단층상을 저장한다. 단계 S420에 있어서, 층 후보 검출 유닛(331)은 저장 유닛(320)으로부터 단층상을 취득하고, 단층상으로부터 내부 경계막(1) 및 망막 색소 상피층 후보 점 시퀀스 {Pi}를 검출한다. 그리고, 유닛(331)은 이들 결과를 저장 유닛(320)에 출력한다. In step S410, the tomographic image acquisition unit 310 requests the tomographic image pickup device 20 to transmit the tomographic image, and acquires the tomographic image transmitted from the tomographic image capture device 20. The unit 310 then transmits the acquired information to the storage unit 320. The storage unit 320 stores the tomographic image. In step S420, the layer candidate detection unit 331 acquires a tomographic image from the storage unit 320, and detects the inner boundary film 1 and the retinal pigment epithelial layer candidate point sequence {P i } from the tomographic image. The unit 331 then outputs these results to the storage unit 320.

망막층들은 각 층마다 휘도값이 상이하기 때문에, 이웃하는 2층 간의 경계에는 농도값의 콘트라스트(에지)가 발생한다. 따라서, 이 콘트라스트에 주목하여, 층의 경계를 추출한다. 이러한 콘트라스트를 포함하는 영역을 추출하는 방법에는 여러 가지가 있다. 예를 들어, 콘트라스트를 에지로서 간주하고, 에지를 검출함으로써 층 위치를 추출할 수 있다. 더 구체적으로, 에지 검출 필터를 단층상에 적용함으로써 에지 성분을 검출하고, 초자체 측으로부터 안저의 심도 방향으로 에지를 탐색한다. 그런 다음, 최초의 피크 위치를 초자체와 망막층 간의 경계로서, 그리고 최대 피크 위치를 망막 색소 상피층 경계로서 검출한다. Since the retinal layers have different luminance values for each layer, contrast (edge) of density values occurs at the boundary between two adjacent layers. Therefore, paying attention to this contrast, the boundary of the layer is extracted. There are various methods of extracting the region containing such contrast. For example, considering the contrast as an edge, the layer position can be extracted by detecting the edge. More specifically, edge components are detected by applying an edge detection filter on a single layer, and edges are searched in the depth direction of the fundus from the vitreous side. The first peak position is then detected as the boundary between the vitreous body and the retinal layer, and the maximum peak position as the retinal pigment epithelial layer boundary.

또한, Snakes 또는 레벨 세트법(Level Set method)과 같은 가변 형상 모델(Deformable Model)을 적용해서 층 경계를 검출해도 된다. 레벨 세트법의 경우, 검출될 영역의 차원보다도 1차원 높은 레벨 세트 함수를 정의하고, 검출될 층 경계를 그 제로 등고선이라고 간주한다. 그리고, 레벨 세트 함수를 갱신함으로써 윤곽을 제어하여, 층의 경계를 검출한다. 이외에도, GraphCut와 같은 그래프 이론을 이용해서 층 경계를 검출해도 된다. 이 경우, 화상의 각 픽셀에 대응한 노드, 및 싱크(sink)와 소스(source)라고 불리는 터미널을 설정하고, 노드들 사이를 연결하는 에지(n-link)와, 터미널들 사이를 연결하는 에지(t-link)를 설정한다. 이 에지들에 대하여 가중치를 부여하여 작성한 그래프에 기초하여 최소 커트(minimum cut)를 산출함으로써, 층 경계를 검출한다.In addition, a layer boundary may be detected by applying a deformable model such as a snakes or a level set method. In the level set method, a level set function that is one dimension higher than the dimension of the area to be detected is defined, and the layer boundary to be detected is regarded as its zero contour line. The contour is controlled by updating the level set function to detect the boundary of the layer. In addition, layer boundaries may be detected using graph theory such as GraphCut. In this case, a node corresponding to each pixel of the image, and a terminal called a sink and a source are set, and an edge (n-link) connecting between the nodes and an edge connecting between the terminals are set. Set (t-link). The layer boundary is detected by calculating a minimum cut based on a graph created by weighting the edges.

전술한 층 위치 추출 방법은 3차원(3D) 단층상 전체를 처리 대상으로 해서 3차원적으로 적용될 수 있거나, 또는 입력된 3D 단층상을 2차원(2D) 단층상의 집합이라고 여기면서 각각의 2D 단층상에 대하여 독립적으로 적용될 수도 있다. 층 경계를 검출하는 방법은 이 방법들에 한정되지 않고, 눈 부위의 단층상으로부터 층의 경계를 검출할 수 있는 한, 임의의 다른 방법들을 사용해도 된다는 것을 유의한다. The above-described layer position extraction method can be applied three-dimensionally by treating the entire three-dimensional (3D) tomographic phase, or each 2D tomographic layer while considering the input 3D tomographic image as a set of two-dimensional (2D) tomographic layers. It may be applied independently with respect to the phase. Note that the method of detecting the layer boundary is not limited to these methods, and any other method may be used as long as the boundary of the layer can be detected from the tomogram of the eye area.

단계 S430에 있어서, 아티팩트 영역 판정 유닛(332)은, 단계 S420에서 검출한 망막 색소 상피의 후보 점 시퀀스 {Pi}의 연결도에 기초하여 각 층 후보 점 부근에서 아티팩트가 발생하는지의 여부(아티팩트 영역이 발생하는지 여부)를 판정한다. 그리고, 아티팩트 영역이 판정된 경우, 유닛(332)은 아티팩트 영역 내의 휘도값에 연관된 통계량을 산출한다. 또한, 유닛(332)은 그 판정 결과를 저장 유닛(320)에 출력한다. 이 단계의 아티팩트 영역 판정 처리에 대해서는, 도 6에 도시된 흐름도를 사용해서 상세하게 후술한다. In step S430, the artifact region determining unit 332 determines whether or not an artifact occurs in the vicinity of each layer candidate point based on the degree of connection of the candidate point sequence {P i } of the retinal pigment epithelium detected in step S420 (artifact) Whether an area occurs). And, when the artifact region is determined, the unit 332 calculates a statistic associated with the luminance value in the artifact region. In addition, the unit 332 outputs the determination result to the storage unit 320. The artifact area determination processing in this step will be described later in detail using the flowchart shown in FIG. 6.

단계 S440에 있어서, 아티팩트 영역 판정 유닛(332)은 단계 S430에서 구한 판정 결과에 따라 처리의 분기를 행한다. 즉, 아티팩트가 발생한다고 판정된 층 후보 점에 대하여, 유닛(332)은 화상 보정 유닛(333)에 소정의 처리의 실행을 지시하는 신호를 송신한다(처리 수순은 단계 S450으로 진행한다). 한편, 유닛(332)이 아티팩트가 발생하지 않는 아티팩트 영역 이외의 영역(하기에서는, 트루 화상 영역이라고 칭함)이라고 판정하는 경우, 표시 유닛(340)에 소정의 처리의 실행을 지시하는 신호를 송신한다(처리 수순은 단계 S455로 진행한다). In step S440, the artifact area determination unit 332 branches the processing according to the determination result obtained in step S430. That is, the unit 332 transmits a signal instructing the image correction unit 333 to perform a predetermined process with respect to the layer candidate point determined that artifacts have occurred (the process proceeds to step S450). On the other hand, when the unit 332 determines that the region other than the artifact region where artifacts do not occur (hereinafter referred to as a true image region), a signal instructing the execution of a predetermined process is transmitted to the display unit 340. (The process proceeds to step S455).

또한, 단계 S450에 있어서, 화상 처리 유닛(330)은, 소정의 층의 후보 점 부근에서 아티팩트가 발생하는 경우의 해석 처리를 실행한다. 이 단계의 처리에 대해서는, 도 7에 도시된 흐름도를 사용해서 상세하게 후술한다. 한편, 단계 S455에 있어서, 표시 유닛(340)은, 소정의 층의 후보 점 부근에서 아티팩트가 발생하지 않는 경우의 처리로서, 트루 화상 영역에 연관지어 단층상을 표시하는 통상의 화상 표시 처리를 행한다.In addition, in step S450, the image processing unit 330 executes an analysis process when an artifact occurs in the vicinity of the candidate point of the predetermined layer. The processing of this step will be described later in detail using the flowchart shown in FIG. On the other hand, in step S455, the display unit 340 performs normal image display processing of displaying a tomographic image in association with the true image region as a process in which no artifacts occur in the vicinity of the candidate point of the predetermined layer. .

단계 S460에 있어서, 지시 취득 유닛(360)은, 피검안에 연관된 금회의 처리의 결과를 데이터 서버(40)에 저장할지 여부의 지시를 외부로부터 취득한다. 이 지시는 조작자가, 예를 들면, 키보드 및 마우스(도시 생략)를 통해 입력한다. 조작자가 금회의 결과를 저장할 것을 지시한 경우, 처리는 단계 S470으로 진행하고, 그렇지 않은 경우, 처리는 단계 S480으로 진행한다. 그 후, 단계 S470에서, 결과 출력 유닛(350)은 검사 일시, 피검안을 식별하기 위해 이용되는 정보, 피검안의 단층상, 및 화상 처리 유닛(330)에 의해 얻어진 해석 결과를, 저장할 정보로서 서로 연관시키고, 그 정보를 데이터 서버(40)에 송신한다. In step S460, the instruction acquisition unit 360 acquires, from the outside, an instruction of whether or not to store in the data server 40 the result of the current process associated with the examination target. This instruction is input by the operator, for example, via a keyboard and a mouse (not shown). If the operator has instructed to save the result of this time, the process proceeds to step S470, otherwise, the process proceeds to step S480. Then, in step S470, the result output unit 350 associates the inspection date and time, the information used to identify the eye to be examined, the tomogram of the eye to be examined, and the analysis result obtained by the image processing unit 330 as information to be stored. The information is sent to the data server 40.

단계 S480에 있어서, 지시 취득 유닛(360)은, 화상 처리 장치(10)에 의한 단층상의 해석 처리를 종료할 것인지 여부의 지시를 외부로부터 취득한다. 이 지시는 조작자가, 예를 들면, 키보드 및 마우스(도시 생략)를 통해 입력한다. 처리를 종료하기 위한 지시를 취득한 경우, 화상 처리 장치(10)는 그의 처리를 종료한다. 한편, 처리를 계속하기 위한 지시를 취득한 경우, 처리는 단계 S410으로 복귀하고, 다음 피검안에 대한 처리(또는, 동일 피검안에 대한 재처리)를 실행한다. 이러한 방식으로, 화상 처리 장치(10)의 처리가 행해진다.In step S480, the instruction acquisition unit 360 acquires, from the outside, an instruction of whether or not to complete the tomographic analysis process by the image processing apparatus 10. This instruction is input by the operator, for example, via a keyboard and a mouse (not shown). When the instruction for terminating the process is acquired, the image processing apparatus 10 ends the process. On the other hand, when an instruction to continue the process is obtained, the process returns to step S410 to execute a process (or reprocessing for the same eye) for the next eye. In this manner, the processing of the image processing apparatus 10 is performed.

도 5를 사용해서 단계 S430에서 실행되는 아티팩트 영역 판정 처리의 수순을 하기에서 설명한다. 도 5는 아티팩트 영역을 포함하는 단층상의 예를 도시하고, 점선으로 둘러싸인 영역(5)을 아티팩트 영역으로서 나타낸다. 이러한 아티팩트가 발생하는 영역의 특징으로서 다음과 같은 2개의 특징이 공지되어 있다. 도 5에 도시된 단층상에서는, 망막의 심도 방향에 대응하는 단층상의 세로 방향을 z축으로서 정의하고, 심도 방향에 직교하는 가로 방향을 x축으로서 정의한다는 것을 유의한다. z축 방향은 A-스캔 방향에 해당한다.The procedure of the artifact area determination processing executed in step S430 will be described below using FIG. 5. FIG. 5 shows an example of a tomographic layer comprising an artifact region, and shows the region 5 enclosed by the dotted lines as the artifact region. The following two characteristics are known as the characteristics of the area | region where these artifacts generate | occur | produce. Note that in the tomogram shown in FIG. 5, the longitudinal direction of the tomogram corresponding to the depth direction of the retina is defined as the z-axis, and the transverse direction orthogonal to the depth direction is defined as the x-axis. The z-axis direction corresponds to the A-scan direction.

(1) 이 영역들(5) 내의 휘도값의 평균, 분산, 및 최대값이 모두 트루 화상 영역들 내의 것들보다 작다.(1) The average, variance, and maximum values of the luminance values in these regions 5 are all smaller than those in the true image regions.

(2) 이 영역들(5)을 포함하는 영역에서 망막 색소 상피층 후보 점들을 산출하는 경우, 망막 색소 상피층 이외의 고휘도 영역, 예를 들면, 망막 혈관 영역이 잘못 추출되는 것에 기인하여 점 Pi및 Pi +1과 같은 비연결 부분이 발생하기 쉽다. (2) When calculating the retinal pigment epithelial candidate points in the region including these regions 5, the points P i and the high brightness regions other than the retinal pigment epithelial layer, for example, the retinal vascular region are incorrectly extracted. Non-connected parts like P i +1 are likely to occur.

따라서, 본 실시예에서는 이 특징들을 이용하여, 다음과 같이 각 아티팩트 영역을 판정한다.Therefore, in this embodiment, using these features, each artifact area is determined as follows.

(i) 비연결 층 후보 점들의 쌍들을 검출한다.(i) Detect pairs of unconnected layer candidate points.

(ii) 비연결 점들로서 판정된 층 후보 점들의 각 쌍 중에서 아티팩트 발생 측을 조사한다.(ii) Examine the artifact-generating side among each pair of layer candidate points determined as unconnected points.

(iii) 아티팩트가 발생한 측의 층 후보 점 시퀀스를 다음의 비연결 점을 발견할 때까지 추적한다.(iii) The layer candidate point sequence on the side where the artifact occurs is tracked until the next unconnected point is found.

(iv) 추적한 층 후보 점을 통과하는 A-스캔 선 상에서, 층 후보 점의 심층측에 있어서의 휘도값의 통계량(평균, 분산, 최대값 등)을 산출한다. 심층측은, 도 5에 있어서 2개의 점 중에서, z축 방향의 좌표값이 큰 것을 의미한다는 것을 유의한다.(iv) The statistical value (average, variance, maximum value, etc.) of the luminance value at the deep side of the layer candidate point is calculated on the A-scan line passing through the tracked layer candidate point. Note that the deeper side means that the coordinate value in the z-axis direction is larger among two points in FIG. 5.

(v) 비연결 후보 점을 에지 점으로서 갖고, 낮은 휘도 통계량을 갖는 영역을 아티팩트 영역이라고 판정한다. 또한, 휘도 통계량은 각 아티팩트 영역 내의 휘도 감쇠의 정도를 반영한 양이라고 여겨지기 때문에, 단계 S450에 있어서 아티팩트 영역 내의 화상 처리 방법을 결정할 때 이용된다. (v) The area having the unconnected candidate point as the edge point and having a low luminance statistic is determined as an artifact area. In addition, since the luminance statistic is considered to be an amount reflecting the degree of luminance attenuation in each artifact region, it is used when determining the image processing method in the artifact region in step S450.

망막 색소 상피의 후보 점 시퀀스 {Pi}에 기초하여 아티팩트 판정을 행하는 구체적인 방법을 도 6에 도시된 흐름도를 참조하여 하기에서 설명한다. 이 경우, 처리 대상인 3D 단층상을 2D 단층상의 집합이라고 생각하고, 각각의 2D 단층상에 대하여 다음의 2D 화상 처리를 행한다. A specific method of performing artifact determination based on the candidate point sequence {P i } of the retinal pigment epithelium is described below with reference to the flowchart shown in FIG. In this case, the 3D tomographic image to be processed is considered to be a set of 2D tomographic images, and the following 2D image processing is performed on each 2D tomographic image.

단계 S610에서는, 이웃하는 층 후보 점들 간의 연결도 C를 모든 층 후보 점에 대하여 산출한다. 연결도 C는 다음과 같이 주어지고,In step S610, the connection degree C between neighboring layer candidate points is calculated for all layer candidate points. Connection diagram C is given by

Figure pct00001
Figure pct00001

여기서, i는 층 후보 점 번호이고, Si는 층 후보 점 Pi와 Pi +1 사이를 보간함으로써 구한 곡선 위의 화소들의 휘도값의 통계량이다. 또한, S는 층 후보 점 시퀀스 전체 {Pi}에 의해 정의되는 곡선 위의 화소들의 휘도값의 통계량이며, Ts는 임계값이다. 이 경우, 휘도값의 통계량 Si 및 S로서, 정의된 곡선들 위의 화소들의 휘도값의 평균을 이용한다. 수학식 1에 있어서, |Si-S|가 임계값 Ts 이하이면, 이웃하는 점들이 연결되어 있다고 판정된다. Here, i is a layer candidate point number, and S i is a statistic of luminance values of the pixels on the curve obtained by interpolating between the layer candidate points P i and P i + 1 . In addition, S is a statistic of luminance values of pixels on a curve defined by the entire layer candidate point sequence {P i }, and T s is a threshold value. In this case, as the statistics S i and S of the luminance values, the average of the luminance values of the pixels on the defined curves is used. In Equation 1, if | S i -S | is equal to or less than the threshold value T s , it is determined that neighboring points are connected.

휘도의 통계량은 전술한 양에 한정되지 않고, 다른 통계량, 예를 들면, 최대값, 분산, 최빈값, 및 중앙값 등이 이용될 수도 있다는 것을 유의한다. 대안적으로, 이 통계량들의 조합에 기초하여 연결도를 판정해도 된다. 또한, S로서, 미리 촬상 장치나 피검체 각각에 대해 산출한 소정의 층의 휘도값에 연관된 통계량을 이용해도 되고, 또는 미리 설정된 표준값을 이용해도 된다. 연결도의 판정에 사용되는 지표로서는 층 후보 점들을 연결하는 곡선 위의 휘도값에 연관된 통계량을 사용한다는 것을 유의한다. 그러나, 본 발명은 그러한 특정 지표에 한정되지 않는다. 예를 들면, 혈관이나 백반을 잘못 검출한 결과 비연결 후보 점의 근방에서 z축 방향에 평행한 에지(도 5의 참조 번호 7로 지시됨)가 발생하고, 이러한 특징을 포착하는 지표로서 A-스캔 방향에 연관된 복수의 휘도 프로파일 사이의 차이의 정도를 이용해도 된다. 휘도 프로파일은 도 1a 또는 도 1b의 우측에 도시된 바와 같이, A-스캔 방향에 있어서의 공간적 위치와 그 위치에 있어서의 휘도값 간의 관계를 나타내는 그래프를 나타내고, 이웃하는 휘도 프로파일들 간의 차이는 통상적으로 작다는 것을 유의한다.Note that the statistics of luminance are not limited to the above-described amounts, and other statistics, for example, a maximum value, a variance, a mode value, a median value, and the like may be used. Alternatively, the degree of connectivity may be determined based on the combination of these statistics. In addition, as S, the statistical value related to the brightness | luminance value of the predetermined | prescribed layer computed previously about each imaging device or a test subject may be used, or the preset standard value may be used. Note that a statistic associated with the luminance value on the curve connecting the layer candidate points is used as an indicator used for the determination of the degree of connection. However, the present invention is not limited to such specific indicators. For example, incorrect detection of blood vessels or alum results in an edge parallel to the z-axis direction (indicated by reference numeral 7 in FIG. 5) in the vicinity of the unconnected candidate point, and as an index for capturing such characteristics. The degree of difference between the plurality of luminance profiles associated with the scan direction may be used. The luminance profile shows a graph showing the relationship between the spatial position in the A-scan direction and the luminance value at that position, as shown on the right side of FIG. 1A or 1B, and the difference between neighboring luminance profiles is typical. Note that it is small.

휘도 프로파일들 간의 차이의 정도에 연관된 지표의 구체적인 계산 방법은, 예를 들면, 다음과 같이 표현된다.A specific calculation method of the indicator related to the degree of difference between the luminance profiles is expressed as, for example, as follows.

Figure pct00002
Figure pct00002

(1) 도 5에 도시된 Pi, Pi +1', Pi", 및 Pi +1"의 4점으로 둘러싸인 국소 영역 내의 화소들에 대해, x축 방향에 있어서의 휘도값의 차분 D를 계산한다. Pi"은 Pi와 같은 x 좌표값을 갖고, 최대 z 좌표값을 갖는 점이라는 것을 유의한다. 또한, Pi+1"은 Pi +1과 같은 x 좌표값을 갖고, 최대 z 좌표값을 갖는 점이다. (1) Differences in luminance values in the x-axis direction with respect to the pixels in the local area surrounded by four points of P i , P i +1 ', P i ", and P i +1 " shown in FIG. Calculate D. Note that P i "has the same x coordinate value as P i and has a maximum z coordinate value. Also, P i + 1 " has the same x coordinate value as P i +1 and a maximum z coordinate value. It has a point.

(2) 임계값 Td1 이상인 차분 D를 가산함으로써 합계값 ΣD를 산출한다. ΣD 값은, 에지가 더 넓은 범위에서 명료하게 보일수록 큰 값이라고 상정한다. (2) The sum ΣD is calculated by adding the difference D that is equal to or larger than the threshold Td1. The ΣD value is assumed to be a larger value as the edge appears clearer over a wider range.

(3) 합계값 ΣD이 임계값 Td2보다 큰 경우, 비연결 점들이 판정된다.(3) When the sum value ΣD is larger than the threshold Td2, disconnection points are determined.

또한, 복수의 지표를 조합해서 연결도를 판정해도 된다. In addition, the connection degree may be determined by combining a plurality of indices.

단계 S620에서는, 비연결 점들로서 판정된 층 후보 점들의 쌍 중 어느 측에서 아티팩트가 발생하는지를 조사하여, 아티팩트 영역의 에지 부분을 특정한다. 아티팩트 영역 에지 부분의 특정 처리는 비연결 층 후보 점들의 쌍 각각에 대하여 실행된다. 더 구체적으로는, 도 5의 Pi와 Pi +1의 쌍의 경우에,In step S620, it is checked which side of the pair of layer candidate points determined as non-connected points an artifact occurs to specify an edge portion of the artifact region. Specific processing of the artifact region edge portion is performed for each pair of unconnected layer candidate points. More specifically, in the case of the pair of P i and P i +1 of FIG. 5,

(i) Pi를 통과하는 A-스캔 선 상에 있어서의, Pi의 z축의 양의 방향 측에서의 휘도값의 통계량을 산출한다.(i) calculates, statistic of z-axis positive direction side of the luminance value of P i of the phase A- scan line passing through the P i.

(ii) Pi +i을 통과하는 A-스캔 선 상에 있어서의, Pi +1'의 z축의 양의 방향 측에서의 휘도값의 통계량을 산출한다. Pi +1'은 Pi +1과 같은 x 좌표를 갖고, Pi와 같은 z 좌표를 갖는 점이라는 것을 유의한다.(ii) The statistical value of the luminance value on the positive direction side of the z-axis of P i + 1 'on the A-scan line passing through P i + i is calculated. Note that P i +1 ′ has a x coordinate equal to P i +1 and a z coordinate equal to P i .

(iii) 2개의 통계량을 비교하고, 더 작은 통계량을 갖는 후보 점 측에서 아티팩트가 발생한다고 판정한다. 판정된 작은 통계량을 갖는 후보 점은 아티팩트 영역의 에지 부분으로서 정의된다.(iii) Compare the two statistics and determine that artifacts occur on the candidate point side with the smaller statistics. The candidate point with the determined small statistic is defined as the edge portion of the artifact area.

이 예에 있어서는, Pi +1 측에서 휘도값의 통계량이 작아지기 때문에, Pi +1 측에서 아티팩트가 발생한다고 판정된다. 휘도값의 통계량을 산출할 때 사용되는 점들의 쌍들을 선택하는 방법은 전술한 방법에 한정되지 않는다는 것을 유의한다. 예를 들어, 도 5에 도시된 바와 같이, Pi'(Pi와 같은 x 좌표를 갖고, Pi +1과 같은 z 좌표를 갖는 점)과 Pi+1을 사용해서 판정해도 된다. In this example, since the statistics of the luminance values in a small P i +1 side, it is determined that artifacts are generated in the P i +1 side. Note that the method of selecting pairs of points used when calculating the statistic of the luminance value is not limited to the above-described method. For example,, P i 'is (x has the same coordinates as the P i, points having a z-coordinate, such as the P i +1) and may be determined by using the P i + 1 as shown in Fig.

단계 S630에서는, 아티팩트가 발생하는 측의 층 후보 점을 다음 비연결 점을 발견할 때까지 추적하여, 아티팩트 영역의 범위를 산출한다. 예를 들어, 도 5의 Pi+1에 대하여는 Pi +3까지가 아티팩트 영역으로서 판정된다.In step S630, the layer candidate point on the side where the artifact occurs is tracked until the next unconnected point is found, and the range of the artifact area is calculated. For example, with respect to P i + 1 of FIG. 5, up to P i +3 is determined as the artifact region.

단계 S640에서는, 아티팩트 영역으로서 판정된 영역에서, 각 후보 점의 z축의 양의 방향 측에 있는 영역의 휘도값의 평균, 분산, 또는 최대값을 산출한다. 그러나, 휘도값에 연관된 통계량을 산출하는 공간적 범위는 그러한 특정 범위에 한정되지 않는다. 예를 들어, 아티팩트 영역은 임의의 국소 영역들로 분할될 수 있고, 각각의 국소 영역마다 통계량을 산출할 수 있다. 이 경우, 층 후보 점의 추적 처리와, 휘도 신호에 연관된 통계량의 산출 처리를 반드시 별개의 단계로서 실행할 필요는 없고, 층 후보 점을 임의의 범위에 대해 추적할 때마다 휘도 신호의 통계량을 산출해도 된다. In step S640, in the area determined as the artifact area, the average, variance, or maximum value of the luminance values of the areas on the positive direction side of the z-axis of each candidate point is calculated. However, the spatial range for calculating the statistics associated with the luminance value is not limited to that particular range. For example, the artifact region may be divided into arbitrary local regions, and statistics may be calculated for each local region. In this case, the tracking process of the layer candidate point and the calculation process of the statistics associated with the luminance signal are not necessarily executed as separate steps, and the statistics of the luminance signal may be calculated whenever the layer candidate point is tracked for an arbitrary range. do.

전술한 처리에 의해, 비연결 부분을 단부로서 갖는 아티팩트 영역의 범위와, 아티팩트 영역에서의 휘도값의 통계량이 산출된다. 아티팩트 영역의 판정 방법은 전술한 방법에 한정되지 않는다는 것을 유의한다. 예를 들어, B-스캔 화상(y축에 수직인 단층상)에 대하여 뿐만 아니라 x축에 수직인 단층 상에 대하여도 마찬가지로 아티팩트 영역 판정 처리를 행할 수 있고, 그 둘 모두의 판정 처리에서 판정된 아티팩트 영역을 아티팩트 영역으로서 판정할 수 있다. 대안적으로, 판정 처리는 3D 단층상에 3차원적으로 적용해도 된다. By the above-described processing, the statistics of the range of the artifact region having the non-connected portion as an end portion and the luminance value in the artifact region are calculated. Note that the determination method of the artifact area is not limited to the above-described method. For example, the artifact area determination process can be similarly performed not only on the B-scan image (tomographically perpendicular to the y-axis) but also on tomographicly perpendicular to the x-axis, and determined in both determination processings. The artifact region can be determined as the artifact region. Alternatively, the determination process may be applied three-dimensionally on the 3D tomography.

도 7을 참조하여, 단계 S450에서 실행되는 처리의 수순을 하기에서 설명한다.Referring to Fig. 7, the procedure of the processing executed in step S450 will be described below.

단계 S710에 있어서, 화상 보정 유닛(333)은 아티팩트 영역 판정 유닛(332)에 의해 산출된 아티팩트 영역에서의 휘도값에 연관된 통계량에 기초하여 각 아티팩트 영역에서의 휘도값을 보정한다. 휘도값의 보정 방법으로서, 아티팩트 영역에서의 히스토그램의 변환에 기초한 방법에 대해서 설명한다. 더 구체적으로는, 아티팩트 영역 내의 휘도 평균과 분산을 트루 화상 영역에서의 휘도 평균 및 분산과 각각 동일하게 조정한다. 즉, 보정 전의 신호를 x라고 하고, 보정 후의 신호를 y라고 하고, 아티팩트 영역에서의 휘도값의 표준 편차와 평균값을 각각 Sf와 Af라고 하고, 아티팩트 영역을 제외한 화상 전체에 있어서의 휘도값의 표준 편차와 평균값을 각각 St와 At라고 하면, 다음과 같이 보정을 행한다.In step S710, the image correction unit 333 corrects the luminance value in each artifact region based on the statistics associated with the luminance value in the artifact region calculated by the artifact region determination unit 332. As a method of correcting the luminance value, a method based on the conversion of the histogram in the artifact region will be described. More specifically, the luminance average and the dispersion in the artifact region are adjusted to be the same as the luminance average and the dispersion in the true image region, respectively. In other words, the signal before correction is x, the signal after correction is y, and the standard deviation and average value of the luminance value in the artifact region are S f and A f , respectively, and the luminance value in the entire image except the artifact region. If the standard deviation and average value as S t a and t, respectively, and performs the calibration, as follows:

Figure pct00003
Figure pct00003

화상 보정 방법은 이것에 한정되지 않는다는 것을 유의한다. 예를 들어, 하기의 (i) 내지 (iii)에 기술하는 방법에 의해 화상 보정 방법을 달성해도 된다. Note that the image correction method is not limited to this. For example, the image correction method may be achieved by the method described in (i) to (iii) below.

대안적으로, 아티팩트 영역에서의 보정 전의 휘도값과 보정 후의 휘도값 사이에 증가 함수의 관계를 성립시킬 수 있는 보정인 한, 임의의 화상 보정을 적용해도 된다. Alternatively, any image correction may be applied as long as it is a correction capable of establishing a relationship of the increment function between the luminance value before correction and the luminance value after correction in the artifact region.

(i) 예를 들어, 아티팩트 영역 내의 최대 휘도를 트루 화상 영역의 최대 휘도에 일치하도록, 휘도를 선형 변환한다. 이 경우, 화상 보정 후의 아티팩트 영역의 휘도값을 y라고 하고, 화상 보정 전의 아티팩트 영역의 휘도값을 x라고 하고, 아티팩트 영역 내의 최대 휘도를 ImaxF라고 하고, 그 영역 내의 최소 휘도를 IminF라고 하고, 트루 화상 영역 내의 최대 휘도를 ImaxT라고 하면, 다음과 같이 보정을 행한다.(i) For example, the luminance is linearly transformed so that the maximum luminance in the artifact region matches the maximum luminance of the true image region. In this case, the luminance value of the artifact region after image correction is y, the luminance value of the artifact region before image correction is x, the maximum luminance in the artifact region is called I maxF , and the minimum luminance in the region is called I minF . If the maximum luminance in the true image area is I maxT , correction is performed as follows.

Figure pct00004
Figure pct00004

(ii) 예를 들어, 소벨(Sobel) 필터 또는 라플라시안(Laplacian) 필터 등과 같은 에지 강조 처리나, 또는 고주파 성분만을 통과시키는 공간 주파수 필터 처리를 행한다. (ii) For example, edge enhancement processing such as Sobel filter or Laplacian filter, or spatial frequency filter processing for passing only high frequency components are performed.

(iii) 층 구조를 강조하는 헤세 행렬(Hessian matrix)의 고유값에 기초한 층 구조 강조 필터 처리를 행한다. 이 필터는, 헤세 행렬의 3개의 고유값(λ1, λ2, λ3) 간의 관계에 기초하여, 3D 농도 분포의 2차 국소 구조를 강조한다. 헤세 행렬은 화상의 농도값 I의 2차 편미분에 의해 구성되는 정사각 행렬이며, 다음과 같이 주어진다. (iii) A layer structure enhancement filter process is performed based on the eigenvalues of a Hessian matrix that emphasizes the layer structure. This filter emphasizes the secondary local structure of the 3D concentration distribution based on the relationship between the three eigenvalues λ 1 , λ 2 , λ 3 of the Hesse matrix. The Hesse matrix is a square matrix constituted by the second partial derivative of the density value I of the image, and is given as follows.

Figure pct00005
Figure pct00005

헤세 행렬의 고유값 간의 관계는 다음과 같이 표현된다.The relationship between the eigenvalues of the Hesse matrix is expressed as

Figure pct00006
Figure pct00006

층 구조를 강조하기 위해 필요한 고유값의 조건식은 다음과 같이 표현된다.The conditional expression of the eigenvalues necessary to emphasize the layer structure is expressed as follows.

Figure pct00007
Figure pct00007

이 수학식들에 기초하여 산출한 3개의 고유값으로부터 다음의 식을 산출함으로써, 망막의 층 구조를 강조할 수 있으며, By calculating the following equation from the three eigenvalues calculated on the basis of these equations, the layer structure of the retina can be emphasized,

Figure pct00008
Figure pct00008

여기서, ω(λst)는 가중 함수이며, 그것은 다음과 같이 주어진다.Where ω (λ s ; λ t ) is a weighting function, which is given by

Figure pct00009
Figure pct00009

여기에서, γ와 α는 가중치이다. Here, γ and α are weights.

전술한 화상 처리 방법들을 반드시 단독으로 실행할 필요는 없고, 조합해서 실행해도 된다는 것을 유의한다. 단계 S640에서 아티팩트 영역을 복수의 국소 영역으로 분할하고 각 영역마다 휘도값에 연관된 통계량을 산출하는 경우, 화상 보정도 국소 영역마다 적용해도 된다. Note that the above-described image processing methods are not necessarily executed alone, but may be executed in combination. In step S640, when the artifact area is divided into a plurality of local areas and a statistical value associated with the luminance value is calculated for each area, image correction may also be applied for each local area.

단계 S720에 있어서, 표시 유닛(340)은 단계 S710에 있어서의 화상의 보정 결과를 단층상에 중첩시킨다. 각 아티팩트 영역의 경계를 선으로 나타내는 경우, 각각의 경계에 대하여 미리 정한 색의 선을 사용해도 되며, 또는 경계를 명시적으로 나타내지 않고 층을 반투명 색으로 나타내도 된다. 또한, 예를 들면, GUI를 이용하여 지정한 영역에 대해서, 보정 전의 화상과 보정 후의 화상을 선택적으로 표시해도 되며, 단계 S640에서 산출한 각 아티팩트 영역 내의 휘도값에 연관된 통계량의 정보를 표시해도 된다. 전술한 바와 같이, 단계 S450의 처리가 실행된다. In step S720, the display unit 340 superimposes the result of the correction of the image in step S710 on the tomography layer. When the boundary of each artifact region is represented by a line, a line of a predetermined color may be used for each boundary, or the layer may be represented by a translucent color without explicitly indicating the boundary. For example, the image before correction | amendment and the image after correction | amendment may be selectively displayed with respect to the area | region specified using GUI, and the information of the statistics associated with the luminance value in each artifact area computed in step S640 may be displayed. As described above, the process of step S450 is executed.

전술한 구성에 따르면, 화상 처리 장치(10)는 아티팩트 영역을 특정하고, 그 영역에서의 휘도값에 연관된 예를 들면, 통계량 등에 기초하여 화상 보정을 행함으로써, 아티팩트 영역에 포함되는 층을 쉽게 검출할 수 있는 화상을 얻을 수 있다. According to the above-described configuration, the image processing apparatus 10 easily detects a layer included in the artifact region by specifying an artifact region and performing image correction based on, for example, a statistic or the like associated with a luminance value in the region. A picture can be obtained.

[제2 실시예]Second Embodiment

본 실시예에서는, 제1 실시예와 같이 아티팩트 영역에서 화상 보정을 행할 뿐만 아니라, 보정된 화상으로부터 소정의 층의 검출도 행한다. 본 실시예는, 아티팩트가 발생하여 휘도가 감쇠되는 영역에도, 잔존하는 에지 정보가 검출되기 쉬워지도록 화상 보정을 실시하고, 그 에지 정보를 검출함으로써, 더 정확한 층 위치를 산출하게 한다. In this embodiment, not only image correction is performed in the artifact region as in the first embodiment, but also a predetermined layer is detected from the corrected image. In this embodiment, even in an area where artifacts are generated and luminance is attenuated, image correction is performed so that the remaining edge information is easily detected, and the edge information is detected, thereby calculating a more accurate layer position.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은, 제1 실시예의 경우와 마찬가지이기 때문에, 그 설명을 생략한다. 도 8은 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 도 8을 참조하면, 본 실시예의 화상 처리 유닛(801)은, 층 결정 유닛(334)이 추가되어 있다는 점에서, 제1 실시예의 화상 처리 장치(10)의 화상 처리 유닛(330)의 구성과 상이하다. Since the configuration of the device connected to the image processing apparatus 10 according to the present embodiment is the same as that of the first embodiment, the description thereof is omitted. 8 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. Referring to FIG. 8, the image processing unit 801 of the present embodiment has a structure of the image processing unit 330 of the image processing apparatus 10 of the first embodiment in that the layer determination unit 334 is added. It is different.

하기에서는, 본 실시예의 화상 처리 수순을 설명한다. 본 실시예의 처리 수순은, 단계 S450과 단계 S455를 제외하고는, 도 4의 흐름도에 도시된 바와 같다. 따라서, 본 실시예에서는, 단계 S450과 단계 S455만을 설명하고, 다른 단계들의 설명은 생략한다. In the following, the image processing procedure of the present embodiment will be described. The processing procedure of this embodiment is as shown in the flowchart of FIG. 4, except for step S450 and step S455. Therefore, in this embodiment, only steps S450 and S455 are described, and description of other steps is omitted.

단계 S450에서는, 아티팩트 영역에서의 화상 처리를 행한다. 하기에서는, 이 단계에 있어서의 처리의 상세를 도 9를 사용해서 설명한다.In step S450, image processing in the artifact region is performed. Below, the detail of the process in this step is demonstrated using FIG.

단계 S1010에서, 화상 보정 유닛(333)은 아티팩트 영역 판정 유닛(332)에 의해 산출된 아티팩트 영역에서의 휘도값에 연관된 통계량에 기초하여, 그 영역에서의 휘도값의 보정을 행한다. 이 처리는 단계 S710에 있어서의 화상 보정의 처리와 마찬가지이기 때문에, 그 상세한 설명은 생략한다는 것을 유의한다. 단계 S1020에서, 층 결정 유닛(334)은 화상 보정 유닛(333)에 의해 화상 보정된 영역의 휘도 정보에 기초하여, 추출 대상인 층의 화상 특징을 취득하고, 이 특징 점들을 연결해서 층 위치로 한다. In step S1010, the image correction unit 333 corrects the luminance value in the area based on the statistics associated with the luminance value in the artifact area calculated by the artifact area determination unit 332. Note that since this processing is the same as the image correction processing in step S710, the detailed description thereof is omitted. In step S1020, the layer determination unit 334 acquires the image feature of the layer to be extracted based on the luminance information of the region corrected by the image correction unit 333, and connects these feature points to the layer position. .

예를 들어, 망막 색소 상피층은 원래 각 A-스캔 선 위에서 가장 휘도가 높은 영역이며, 아티팩트 영역 내에서도 휘도가 높아지기 쉽다. 따라서, 화상 보정된 영역의 각 A-스캔 선에 있어서, 층 후보 점의 z축의 양의 방향 측에 있는 최대 휘도의 화소를 x축 방향에서 연결함으로써 층 위치를 결정한다. 그러나, 화상 보정 결과로부터 층을 검출하는 방법은 이러한 특정 방법에 한정되지 않는다. For example, the retinal pigment epithelial layer is originally the region with the highest luminance on each A-scan line, and the luminance is likely to increase even within the artifact region. Therefore, in each A-scan line of the image-corrected area, the layer position is determined by connecting pixels of maximum luminance on the positive direction side of the z-axis of the layer candidate point in the x-axis direction. However, the method of detecting a layer from the image correction result is not limited to this specific method.

예를 들어, 각 A-스캔 선에 있어서, 층 후보 점의 z축의 양의 방향 측에 있는 소정값 이상의 휘도값을 갖고 최대 z 좌표를 갖는 화소들을 x축 방향에서 연결하여 층을 추출해도 된다. 대안적으로, 아티팩트 영역의 각 A-스캔 선 위의 각 화소에 있어서, 화상 보정 전후의 휘도값들의 선형 합을 산출하고, 최대의 합에 대응하는 화소들을 x축 방향에서 연결하여, 층을 추출해도 된다.For example, in each A-scan line, the layer may be extracted by connecting pixels having a luminance value equal to or greater than a predetermined value on the positive direction side of the z-axis of the layer candidate point and having the maximum z coordinate in the x-axis direction. Alternatively, for each pixel on each A-scan line in the artifact region, a linear sum of the luminance values before and after image correction is calculated, and the pixels corresponding to the maximum sum are connected in the x-axis direction to extract the layer. You may also

대안적으로, 아티팩트 영역의 각 A-스캔 선에 있어서 망막 색소 상피층의 복수의 후보 점을 선택하고, 상기의 층 후보 점 전부를 아티팩트 영역에서 설정된 층 후보 점 집합으로서 정의한다. 층 후보 점 집합 중에서 얻어지는 층 후보 점 시퀀스의 각 조합에 대하여, Alternatively, a plurality of candidate points of the retinal pigment epithelial layer are selected in each A-scan line of the artifact region, and all of the above layer candidate points are defined as a set of layer candidate points set in the artifact region. For each combination of the layer candidate point sequences obtained from the set of layer candidate points,

(i) 층 후보 점 시퀀스의 휘도값의 합의 크기, 및(i) the magnitude of the sum of the luminance values of the layer candidate point sequences, and

(ii) 층 후보 점 시퀀스 형상의 매끄러움(ii) the smoothness of the layer candidate point sequence shape

에 연관된 평가 함수들을 설정할 수 있고, 2개의 평가 함수값의 선형 합이 최대가 되는 층 후보 점들의 조합을 층 위치로서 결정해도 된다. 층 후보 점들의 조합을 선택할 때에는, 아티팩트 영역 내의 층 후보 점 시퀀스뿐만 아니라, 그 영역 근방의 층 후보 점도 포함하는 층 후보 점 시퀀스를 이용해서 평가 함수값을 계산해도 된다는 것을 유의한다. The evaluation functions associated with may be set, and a combination of the layer candidate points at which the linear sum of the two evaluation function values is maximum may be determined as the floor position. Note that when selecting a combination of the layer candidate points, the evaluation function value may be calculated using not only the layer candidate point sequence in the artifact region but also the layer candidate point sequence including the layer candidate viscosity in the vicinity of the region.

단계 S1030에서는, 산출된 망막 색소 상피층에 상당하는 층 후보 점 시퀀스와, 단계 S420에서 산출된 내부 경계막(1) 사이의 거리를 각 x, y 좌표에 있어서 산출함으로써, 망막 층 두께를 계측한다. 그러나, 계측 내용은 이것에 한정되지 않는다. 예를 들어, 층 형상의 요철을 조사하기 위해서 층 후보 점들 간의 각도 분포를 산출해도 된다. 계측할 층 두께는 망막 층 두께에 한정되지 않는다. 예를 들어, 광수용체 세포 층 등 다른 층 형상을 해석해도 된다. 산출된 층 두께 및 층 형상을 포함하는 정보는 저장 유닛(320)에 출력된다. In step S1030, the retinal layer thickness is measured by calculating, in each x and y coordinate, the distance between the layer candidate point sequence corresponding to the calculated retinal pigment epithelial layer and the internal boundary film 1 calculated in step S420. However, the measurement content is not limited to this. For example, in order to investigate layer-shaped unevenness, you may calculate angle distribution between layer candidate points. The layer thickness to be measured is not limited to the retinal layer thickness. For example, you may analyze another layer shape, such as a photoreceptor cell layer. Information including the calculated layer thickness and layer shape is output to the storage unit 320.

단계 S1040에서, 표시 유닛(340)은,In step S1040, the display unit 340,

(i) 층의 결정 결과(i) Result of Determination of Layers

(ii) 층 형상의 계측 결과, 및(ii) the measurement result of the layer shape, and

(iii) 아티팩트 영역의 범위 및 그 영역에서의 화상 보정 결과(iii) the range of the artifact area and the result of image correction in that area

를 단층상에 중첩시킨다. Superimpose on the fault.

(i)에 대해서, 표시 유닛(340)은 단계 S1020에 있어서의 층 결정 결과를 단층상에 중첩시킨다. 층의 경계를 선으로 나타내는 경우, 각각의 경계에 대하여 미리 정한 색의 선을 사용해도 되며, 또는 경계를 명시적으로 나타내지 않고 층의 영역을 반투명 색으로 제시해도 된다. 이러한 표시를 행할 때, 주목하는 단면을 예를 들면, GUI 등을 이용하여 선택하게 하는 구성이 바람직하게 채택된다는 것을 유의한다. 또한, 공지의 체적 렌더링 기술을 사용하여, 그 결과를 3차원적으로 표시해도 된다. For (i), the display unit 340 superimposes the layer determination result in step S1020 on the single layer. When the boundary of the layer is represented by a line, a line of a predetermined color may be used for each boundary, or the region of the layer may be presented in a translucent color without explicitly indicating the boundary. Note that when performing such a display, a configuration in which a section to be selected is selected using, for example, a GUI or the like is preferably adopted. Moreover, you may display the result three-dimensionally using a well-known volume rendering technique.

(ii)에 대해, 표시 유닛(340)은 층 형상의 계측 결과로서, 3D 단층상 전체(x-y 평면)에 대한 층 두께의 분포 맵을 표시한다. 그러나, 본 발명은 그러한 표시 방법에 한정되지 않고, 주목 단면에 있어서의 각 층의 면적을 표시해도 되며, 또는 소정의 층 전체의 체적을 표시해도 된다. 대안적으로, 조작자가 x-y 평면 위에서 지정한 영역에서의 체적을 산출해서 표시해도 된다.For (ii), the display unit 340 displays the distribution map of the layer thickness with respect to the entire 3D tomographic layer (x-y plane) as the measurement result of the layer shape. However, the present invention is not limited to such a display method, and may display the area of each layer in the cross section of interest, or may display the volume of the entire predetermined layer. Alternatively, the operator may calculate and display the volume in the area designated by the operator on the x-y plane.

(iii)에 대해서는, 단계 S1020에 있어서, 검출된 층의 신뢰성이 낮은 경우(예를 들면, 검출된 층의 신호가 약한 경우), 층을 검출하지 않고, 화상 보정 결과를 단층상에 중첩시킨다. 그러나, 본 발명은 화상 보정 결과의 그러한 특정 표시 방법에 한정되지 않고, 층 검출 결과가 양호할 경우에도, 화상 보정 결과를 표시 유닛(340)에 표시해도 된다.For (iii), in step S1020, when the reliability of the detected layer is low (for example, when the signal of the detected layer is weak), the image correction result is superimposed on the single layer without detecting the layer. However, the present invention is not limited to such a specific display method of the image correction result, and even when the layer detection result is good, the image correction result may be displayed on the display unit 340.

전술한 바와 같이, 단계 S450에서 아티팩트 영역용 화상 처리가 실행된다. 단계 S455에 있어서의 트루 화상 영역용 화상 처리에 대해 하기에서 설명한다. 단계 S455에서는, 트루 화상 영역에서의 처리로서,As described above, the image processing for the artifact area is executed in step S450. The image processing for the true image area in step S455 will be described below. In step S455, as the processing in the true image area,

(i) 단계 S420에 있어서 취득된 층 후보 점 시퀀스를 층 위치로서 정의하고, 층 위치로부터 층 형상을 계측하고,(i) the layer candidate point sequence obtained in step S420 is defined as the layer position, and the layer shape is measured from the layer position;

(ii) 층 위치 및 층 형상의 계측 결과를 표시 유닛(340)에 표시한다.(ii) The measurement result of the layer position and the layer shape is displayed on the display unit 340.

따라서, 하기에서는 이 단계에 있어서의 처리의 상세를 설명한다. Therefore, below, the detail of the process in this step is demonstrated.

도 9의 단계 S1030와 마찬가지로 층 형상을 계측한다. 그러나, 트루 화상 영역용 화상 처리의 경우, 해석 대상이 보정되지 않은 화상인 것이 단계 S1030의 경우와 상이하다. 그런 다음, 도 10의 단계 S1040과 마찬가지로, 표시 유닛(340)이 결과를 표시한다. 그러나, 트루 화상 영역용 화상 처리의 경우, 화상 보정 결과를 표시하지 않는 것이 단계 S1040의 경우와 상이하다. The layer shape is measured similarly to step S1030 of FIG. However, in the case of the image processing for the true image region, it is different from the case of step S1030 that the image to be analyzed is not corrected. Then, similarly to step S1040 of FIG. 10, the display unit 340 displays the result. However, in the case of the image processing for the true image region, not displaying the image correction result is different from the case of step S1040.

전술한 구성에 따르면, 화상 처리 장치(10)는, 특정한 아티팩트 영역의 화상 보정을 행하고, 그 보정 결과로부터 층 위치에 상당하는 화상 특징을 검출함으로써, 아티팩트 영역 내의 층 위치를 더 정확하게 산출할 수 있다. According to the above-described configuration, the image processing apparatus 10 can more accurately calculate the layer position in the artifact region by performing image correction on a specific artifact region and detecting an image feature corresponding to the layer position from the correction result. .

[제3 실시예]Third Embodiment

본 실시예에서는, 제1 및 제2 실시예와 같이 단층상만을 사용해서 아티팩트 영역을 판정하는 것 대신, 피검안의 단층상으로부터 투영 화상을 작성하고, 투영 화상으로부터 추출한 조직이나 병변 부위의 위치 정보를 단층상 위에 역투영하여, 미리 아티팩트 후보 영역을 좁힌다. 일반적으로, 예를 들어, 혈관(또는 출혈)에 기인하여 발생하는 아티팩트 영역의 위치 정보는, 단층상만으로부터보다 투영 화상으로부터 산출하는 것이 더 용이하다. 따라서, 본 실시예에서는, 투영 화상으로부터 혈관(출혈) 영역을 추출해서 그 위치 정보를 단층상 위에 맵핑하고, 맵핑된 영역의 주변에서 아티팩트 영역의 단부를 탐색 및 특정함으로써, 높은 정밀도로 아티팩트 영역의 범위를 산출하는 경우를 설명한다. In the present embodiment, instead of determining the artifact region using only the tomographic image as in the first and second embodiments, the projection image is created from the tomographic image of the eye to be examined, and the positional information of the tissue or lesion site extracted from the projection image is obtained. Backprojection onto the tomogram narrows the artifact candidate region in advance. In general, it is easier to calculate the positional information of the artifact area caused by, for example, blood vessels (or bleeding) from the projected image than from the tomographic image alone. Therefore, in the present embodiment, the blood vessel (bleeding) region is extracted from the projected image, the positional information is mapped onto the tomographic image, and the end of the artifact region is searched and specified around the mapped region, thereby providing high accuracy of the artifact region. The case of calculating a range is demonstrated.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은 제1 실시예와 마찬가지이기 때문에, 그 설명을 생략한다. 도 10은 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 도 10을 참조하면, 화상 처리 유닛(1001)은 투영 화상 생성 유닛(335) 및 특징 추출 유닛(336)을 포함한다는 점에서, 제1 실시예의 화상 처리 장치(10)의 화상 처리 유닛(330)과 상이하다. 나머지의 유닛들에 관해서는 도 3의 유닛들과 동일하기 때문에, 그 설명을 생략한다. Since the configuration of the apparatus connected to the image processing apparatus 10 according to the present embodiment is the same as that of the first embodiment, the description thereof is omitted. 10 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. Referring to FIG. 10, the image processing unit 1001 includes the projection image generating unit 335 and the feature extraction unit 336, so that the image processing unit 330 of the image processing apparatus 10 of the first embodiment is provided. Is different. Since the remaining units are the same as the units of FIG. 3, the description thereof is omitted.

도 11에 도시된 흐름도를 참조하여, 본 실시예에 따른 화상 처리의 내용을 설명한다. 이 흐름도의 단계들의 대부분은 도 4의 흐름도와 공통되고, 공통되는 처리에는 동일한 단계 번호를 병기한다. 공통되는 처리에 대해서는 그 설명을 생략한다. 본 실시예에서는, 단계 S420의 층 후보 검출 처리와 단계 S430의 아티팩트 영역 판정 처리 사이에, 투영 화상 생성 처리 S1110과 특징 추출 처리 S1120이 행해진다는 점에서 제1 실시예와는 상이하다.With reference to the flowchart shown in FIG. 11, the content of the image processing which concerns on this embodiment is demonstrated. Most of the steps of this flowchart are common to the flowchart of Fig. 4, and common processing includes the same step number. The description of the common processing is omitted. This embodiment differs from the first embodiment in that projection image generation processing S1110 and feature extraction processing S1120 are performed between the layer candidate detection process in step S420 and the artifact region determination process in step S430.

단계 S1110에서, 투영 화상 생성 유닛(335)은 단층상을 투영함으로써 화상을 생성한다. 더 구체적으로, 단층상의 각 화소에 있어서의 휘도값을 z축의 양의 방향에서 단순히 가산하여 구한 값으로서 투영 화상의 화소값으로 하여 투영 화상을 정의한다. 그러나, 투영 화상의 각 화소값은 이러한 값에 한정되지 않고, 휘도값의 합을 가산된 화소 수로 나누어도 된다. 대안적으로, 각 심도 위치에 있어서의 휘도값의 최대값이나 최소값을 투영 화상의 각 화소값으로서 사용해도 된다. 또한, z축 방향에서 모든 화소의 휘도값을 가산할 필요는 없고, 임의의 범위에서만, 또는 특정한 층들 사이에서만 가산해도 된다. In step S1110, the projection image generating unit 335 generates an image by projecting a tomographic image. More specifically, the projection image is defined as a pixel value of the projection image as a value obtained by simply adding the luminance value in each pixel on the tomography in the positive direction of the z-axis. However, the pixel values of the projection image are not limited to these values, and the sum of the luminance values may be divided by the added number of pixels. Alternatively, the maximum or minimum value of the luminance value at each depth position may be used as each pixel value of the projection image. In addition, it is not necessary to add the luminance values of all the pixels in the z-axis direction, and may add only in an arbitrary range or only between specific layers.

단계 S1120에서는, 투영 화상 생성 유닛(335)에 의해 생성된 투영 화상으로부터 망막 혈관 등의 피검안 내의 생체 조직 또는 병변 부위 등이 존재하는 특징 영역을 추출한다. 망막 혈관은 가는 선형 구조를 갖고 있기 때문에, 선형 구조를 강조하는 필터를 사용해서 망막 혈관을 추출한다. 이 경우, 예를 들면, 구조 요소로서 정의된 선분 내에서의 화상 농도값들의 평균값과, 구조 요소를 둘러싸는 국소 영역 내에서의 평균값 간의 차분을 계산하는 필터 등의 콘트라스트에 기초한 선분 강조 필터를 사용한다. 필터의 처리 결과로서 얻은 다치 영역을 혈관 추출 결과로서 이용해도 되며, 또는 특정 임계값을 사용하여 2치화한 영역을 추출 결과로서 이용해도 된다는 것을 유의한다. In step S1120, the feature region in which the biological tissue, the lesion site, etc. in the eye to be examined, such as the retinal blood vessel, is extracted from the projection image generated by the projection image generating unit 335. Since the retinal vessels have a thin linear structure, the retinal vessels are extracted using a filter that emphasizes the linear structure. In this case, for example, using a line segment enhancement filter based on contrast, such as a filter for calculating a difference between an average value of image density values in a line segment defined as a structural element and an average value in a local area surrounding the structural element, for example. do. Note that the multi-valued region obtained as a result of the filter treatment may be used as the blood vessel extraction result, or the region binarized using a specific threshold value may be used as the extraction result.

그러나, 선형 구조를 강조하는 방법은 이것에 한정되지 않는다. 예를 들어, 소벨 필터나 라플라시안 필터와 같은 차분형 필터를 사용해도 된다. 농도값 화상의 화소마다 헤세 행렬의 고유값을 계산할 수 있으며, 그 결과로서 얻은 2개의 고유값의 조합으로부터 선형의 영역을 추출해도 된다. 또한, 단순하게 선분을 구조요소로서 이용하는 톱해트(tophat) 연산 등, 임의의 공지의 혈관 추출 방법을 이용해도 된다. However, the method of emphasizing the linear structure is not limited to this. For example, a differential filter such as a Sobel filter or a Laplacian filter may be used. The eigenvalue of the Hesse matrix can be calculated for each pixel of the density value image, and the linear region may be extracted from the combination of the two eigenvalues obtained as a result. Moreover, you may use arbitrary well-known blood vessel extraction methods, such as the top hat calculation which uses a line segment simply as a structural element.

이와 같이, 단계 S1120에 있어서 산출된 투영 화상 위의 특징 영역(x, y)을 단층상 위에 역투영하면, 도 12의 점선 영역(8)에 도시된 바와 같은 역투영 영역이 얻어진다. 일반적으로, 망막 혈관의 z축의 양의 방향 측에서는 휘도의 감쇠가 발생하기 쉽다. 따라서, 추출된 특징의 (x-y 방향의) 위치를 단층상 위에 역투영하는 경우, 역투영된 점선 영역(8)은 아티팩트 영역(5)을 포함할 가능성이 더 높다. 그러나, 잘못 추출된 영역이 역투영되는 경우에는, 역투영 영역 내에서 휘도의 감쇠가 발생하지 않는다. 정확하게 추출된 망막 혈관 영역을 역투영하는 경우에도, 역투영 영역 아래의 휘도 감쇠가 경미해서, 층 추출에 거의 영향을 주지 않을 경우도 있다. In this way, if the feature regions (x, y) on the projected image calculated in step S1120 are back projected on the tomogram, a back projection region as shown in the dotted line region 8 in Fig. 12 is obtained. In general, attenuation of luminance tends to occur on the positive side of the z axis of the retinal blood vessel. Thus, when backprojecting the position (in the x-y direction) of the extracted feature onto a tomogram, the backprojected dotted area 8 is more likely to include the artifact area 5. However, in the case where the wrongly extracted region is back projected, the luminance attenuation does not occur in the back projected region. Even in the case of backprojecting the correctly extracted retinal vascular region, the luminance attenuation under the backprojection region is slight, so that there is little effect on layer extraction.

따라서, 역투영 영역 내에서 그리고 그 영역의 경계 근방에서 아티팩트가 발생하는지의 여부를 판정한다. 아티팩트 영역이 발생하는 경우, 그 영역 내에서의 휘도값에 연관된 통계량을 산출한다. 따라서, 단계 S430에서의 아티팩트 영역의 판정 방법은, 연결도의 산출 대상으로서의 층 후보 점의 범위를 제외하고는, 기본적으로 제1 실시예의 단계 S610 내지 S640의 경우와 같다. 더 구체적으로, 연결도 산출 처리는, 모든 층 후보 점에 대해서 실행되는 것이 아니고, 역투영 영역의 내부 및 그 영역의 x-y 방향의 근방에서 실행된다.Thus, it is determined whether artifacts occur in the reverse projection area and near the boundary of the area. When an artifact region occurs, a statistic associated with a luminance value within that region is calculated. Therefore, the determination method of the artifact area in step S430 is basically the same as in the case of steps S610 to S640 of the first embodiment except for the range of the layer candidate point as the calculation target of the connection degree. More specifically, the linkage calculation processing is not performed for all the layer candidate points, but is performed inside the reverse projection area and in the vicinity of the x-y direction of the area.

전술한 구성에 따르면, 본 실시예의 화상 처리 장치(10)는, 단층상과 투영 화상으로부터 아티팩트 영역을 특정하고, 그 영역에서의, 예를 들면, 휘도 통계량 등에 기초하여 화상 보정을 행함으로써, 아티팩트 영역에 포함된 층 영역을 더 쉽게 검출할 수 있는 화상을 얻을 수 있다. According to the above-described configuration, the image processing apparatus 10 of the present embodiment specifies an artifact region from a tomographic image and a projected image, and performs artifact correction by performing image correction in the region based on, for example, a luminance statistic or the like. It is possible to obtain an image that can more easily detect the layer region included in the region.

[제4 실시예][Example 4]

본 실시예는, 제3 실시예와는 달리, 아티팩트 영역을 판정한 후, 아티팩트 영역에서의 화상 보정을 행할 뿐만 아니라, 보정된 화상으로부터 소정의 층의 검출도 행한다. 본 실시예에서는, 다음의 사항들을 처리한다.Unlike the third embodiment, this embodiment not only performs image correction in the artifact area after determining the artifact area, but also detects a predetermined layer from the corrected image. In this embodiment, the following matters are processed.

(i) 혈관(또는 출혈) 등에 기인하여 아티팩트가 발생하는 경우, 투영 화상으로부터 산출한 혈관(출혈) 영역의 위치 정보를 단층상 위에 맵핑하고, 맵핑된 영역의 주변 영역에서 아티팩트 영역의 에지 부분을 탐색 및 특정함으로써, 더 높은 정밀도로 아티팩트 영역의 범위를 산출할 수 있다.(i) When an artifact occurs due to blood vessel (or bleeding) or the like, the position information of the blood vessel (bleeding) region calculated from the projection image is mapped onto the tomogram, and the edge portion of the artifact region in the peripheral region of the mapped region is By searching and specifying, a range of artifact regions can be calculated with higher precision.

(ii) 아티팩트가 발생해서 휘도가 감쇠한 영역이더라도, 잔존하는 에지 정보를 검출하기 쉽도록 하기 위해, 그 영역을 화상 보정하고, 보정 영역으로부터 에지 정보를 검출함으로써, 더 정확한 층 위치를 산출할 수 있다.(ii) Even in an area where artifacts occur and the luminance is attenuated, in order to make it easier to detect the remaining edge information, image correction is performed on the area, and edge information is detected from the correction area, so that more accurate floor positions can be calculated. have.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은, 제3 실시예와 마찬가지이기 때문에, 그 설명을 생략한다. 도 13은 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 본 실시예의 화상 처리 유닛(1301)은, 층 결정 유닛(334)을 포함한다는 점에서, 제3 실시예의 화상 처리 유닛(1001)과는 상이하다. 본 실시예에서의 화상 처리의 내용은, 단계 S450과 단계 S455에 있어서의 처리를 제외하면, 도 13의 화상 처리 내용과 같다. 따라서, 본 실시예의 단계 S450과 단계 S455에 있어서의 처리만을 설명하고, 다른 단계의 설명을 생략한다.Since the configuration of the device connected to the image processing apparatus 10 according to the present embodiment is the same as that of the third embodiment, the description thereof is omitted. 13 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. The image processing unit 1301 of the present embodiment differs from the image processing unit 1001 of the third embodiment in that it includes the layer determination unit 334. The contents of the image processing in this embodiment are the same as the image processing contents in FIG. 13 except for the processing in steps S450 and S455. Therefore, only the processing in steps S450 and S455 of the present embodiment is described, and description of other steps is omitted.

단계 S450에서는, 아티팩트 영역에서의 화상 처리로서, 화상 보정, 층 결정, 층 형상 계측, 및 결과 표시 처리들을 행한다. 이 단계의 처리는, 제2 실시예에 있어서의 단계 S1010 내지 S1040의 경우와 마찬가지이기 때문에, 그 상세한 설명은 생략한다. 단계 S455에서는, 아티팩트가 발생하지 않는 경우 행해지는 처리로서, 단계 S420에서 취득된 층 위치로부터 층 형상을 계측하고, 층 위치 및 층 형상 계측 결과를 단층상에 중첩시킨다. 중첩 방법에 관한 상세한 내용은, 제2 실시예에 있어서의 단계 S1110 내지 S1120의 경우와 마찬가지이기 때문에, 그 상세한 설명은 생략한다.In step S450, image correction, layer determination, layer shape measurement, and result display processes are performed as image processing in the artifact region. Since the processing of this step is the same as in the case of steps S1010 to S1040 in the second embodiment, detailed description thereof is omitted. In step S455, as the processing performed when no artifacts occur, the layer shape is measured from the layer position acquired in step S420, and the layer position and the layer shape measurement result are superimposed on the single layer. Details of the superimposition method are the same as those in the steps S1110 to S1120 in the second embodiment, and thus detailed description thereof is omitted.

전술한 구성에 따르면, 본 실시예의 화상 처리 장치(10)는, 단층상과 투영 화상으로부터 아티팩트 영역을 특정하고, 그 영역에서 화상 보정을 행한다. 상기의 보정 결과로부터 층의 화상 특징을 검출함으로써, 그 영역 내의 층 위치를 더 정확하게 산출할 수 있다.According to the above-described configuration, the image processing apparatus 10 of the present embodiment specifies an artifact region from a tomographic image and a projected image, and performs image correction in that region. By detecting the image characteristic of the layer from the above correction result, the position of the layer in the area can be calculated more accurately.

[제5 실시예][Fifth Embodiment]

본 실시예에서는, 제3 실시예에 추가하여, 피검안의 표면 화상 및 투영 화상 중 적어도 하나로부터 추출한 조직이나 병변 부위의 위치 정보를 단층상 위에 역투영하여, 미리 아티팩트 후보 영역을 좁힌다. 이것은, 백반과 같이, 특히 표면 화상으로부터 추출하기 쉬운 병변 부위가 발생하는 경우, 표면 화상을 이용해서 백반 영역을 산출하고, 추출된 병변 부위의 주변 영역에서 아티팩트 영역의 에지 부분을 탐색 및 특정함으로써, 높은 정밀도로 아티팩트 영역의 범위를 산출할 수 있기 때문이다.In the present embodiment, in addition to the third embodiment, the positional information of the tissue or the lesion site extracted from at least one of the surface image and the projection image of the eye to be examined is reversely projected on a tomogram to narrow the artifact candidate region in advance. This can be achieved by calculating the alum area using surface images and searching for and specifying the edge portion of the artifact area in the peripheral area of the extracted lesion site, especially when a lesion site such as alum appears to be easily extracted from the surface image. This is because the range of the artifact region can be calculated with high precision.

도 14는 본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성을 도시한다. 본 실시예에서는, 단층상 촬상 장치(20) 외에도, 표면 화상 촬상 장치(50)도 구성에 포함되는 점에서, 제3 실시예와 상이하다. 표면 화상 촬상 장치(50)는 눈 부위의 표면 화상을 촬상하며, 예를 들어, 안저 카메라 또는 주사형 레이저 검안경(SLO: Scanning Laser Ophthalmoscope)을 포함한다. 도 15는 본 실시예의 화상 처리 장치(10)의 기능 블록도이다. 본 실시예의 화상 처리 장치(10)는 표면 화상 취득 유닛(315)을 포함하고, 화상 처리 유닛(1501)은 레지스트레이션 유닛(337)을 포함한다는 점에서, 제3 실시예의 화상 처리 장치(10)의 구성과 상이하다. 14 shows the configuration of an apparatus connected to the image processing apparatus 10 according to the present embodiment. In the present embodiment, in addition to the tomographic imaging device 20, the surface image imaging device 50 is also included in the configuration, which is different from the third embodiment. The surface image pickup device 50 picks up a surface image of an eye portion and includes, for example, a fundus camera or a scanning laser ophthalmoscope (SLO). 15 is a functional block diagram of the image processing apparatus 10 of this embodiment. The image processing apparatus 10 of the present embodiment includes a surface image acquisition unit 315, and the image processing unit 1501 includes a registration unit 337. It is different from the configuration.

본 실시예의 화상 처리 유닛(1501)에 있어서의 화상 처리를 도 16에 도시된 흐름도를 참조하여 하기에서 설명한다. 본 실시예의 화상 처리 수순은, 단계 S1610 내지 S1650의 처리를 제외하고는, 도 11에 도시된 바와 거의 마찬가지이다. 따라서, 하기에서는, 이 단계들에 있어서의 처리를 설명한다.Image processing in the image processing unit 1501 of this embodiment will be described below with reference to the flowchart shown in FIG. The image processing procedure of this embodiment is almost the same as that shown in FIG. 11 except for the processing of steps S1610 to S1650. Therefore, the following describes the processing in these steps.

단계 S1610에서는, 단층상 취득 유닛(310)에 의한 단층상의 취득 외에도, 표면 화상 취득 유닛(315)이 표면 화상 촬상 장치(50)에 표면 화상의 송신을 요구하고, 표면 화상 촬상 장치(50)로부터 송신되는 표면 화상을 취득한다. 표면 화상으로서 안저 카메라 화상이 입력된다고 가정한다. 유닛(315)은 취득한 정보를 저장 유닛(320)에 송신한다.In step S1610, in addition to the tomographic image acquisition by the tomographic image acquisition unit 310, the surface image acquisition unit 315 requests the surface image image pickup device 50 to transmit the surface image, and from the surface image image pickup device 50. Acquire a surface image to be sent. Assume that a fundus camera image is input as the surface image. The unit 315 transmits the acquired information to the storage unit 320.

단계 S1110의 투영 화상 생성 처리에 이어지는 단계 S1620에서는, 표면 화상 취득 유닛(315)에 의해 취득된 표면 화상으로부터, 특징 추출 유닛(336)이 혈관 등의 조직이나 백반 등의 병변 영역을 추출한다. 망막 혈관은 선형 구조를 갖기 때문에, 선형 구조를 강조하는 필터를 사용하여 추출한다. 선형 구조의 추출 방법은 단계 S1120과 마찬가지이기 때문에, 그 설명을 생략한다. 백반은 입상의 고휘도 영역으로서 존재하기 때문에, 톱해트 변환 등의 모폴로지 연산에 의해 산출된다. 이 경우, 백반 영역은 모폴로지 연산에 의해 고휘도의 다치 영역으로서 얻어지고, 다치 영역 자체를 추출 결과로서 이용해도 되고, 또는 특정 임계값을 이용하여 2치화한 영역을 추출 결과로서 이용해도 된다. 그러나, 백반의 추출 방법은 이에 한정되지 않고, 표면 화상의 휘도값, 및 콘트라스트를 강조하는 공지된 필터의 출력 결과를 특징량으로서 이용하는, 서포트 벡터 머신(Support Vector Machine) 등의 식별기, 또는 에이다 부스트(Ada Boost) 등의 식별기 앙상블에 의해 백반을 식별해도 된다. In step S1620 subsequent to the projection image generation processing in step S1110, the feature extraction unit 336 extracts tissue such as blood vessels or lesion area such as alum from the surface image acquired by the surface image acquisition unit 315. Since the retinal vessels have a linear structure, they are extracted using a filter that emphasizes the linear structure. Since the extraction method of the linear structure is the same as that of step S1120, the description is abbreviate | omitted. Since alum exists as a granular high brightness area | region, it is computed by morphology calculations, such as a top hatch | transformation. In this case, the alum region may be obtained as a multi-value region of high brightness by morphology calculation, and the multi-value region itself may be used as an extraction result, or a region binarized using a specific threshold value may be used as an extraction result. However, the extraction method of alum is not limited to this, and an identifier such as a Support Vector Machine or Ada Boost, which uses, as a feature amount, the luminance value of the surface image and the output result of a known filter that emphasizes contrast, is used. You may identify alum by an identifier ensemble such as Ada Boost.

단계 S1630에서, 투영 화상의 좌표와 표면 화상의 좌표를 연관시키기 위해, 레지스트레이션 유닛(337)은 투영 화상과 표면 화상 간의 레지스트레이션을 행한다. 레지스트레이션 때에는, 2개의 화상 간의 유사도를 표현하는 평가 함수를 사전에 정의하고, 최적의 평가값을 얻도록 화상의 변형을 행한다. 유사도 평가 방법으로서, 상호 정보량을 사용해서 화소값에 기초하여 유사도를 평가하는 방법을 사용한다. 그러나, 본 발명은 그러한 특정 방법에 한정되지 않고, 평균 제곱 오차, 상관 계수, 또는 특징 추출 유닛(336)에 의해 표면 화상 및 투영 화상으로부터 추출된 혈관 영역끼리의 중첩 면적, 또는 혈관의 분기 부분들 사이의 거리 등을 사용해도 된다. 화상 변형은, 아핀(affine) 변환을 상정해서 화상을 병진 또는 회전시키거나, 또는 확대율을 변화시킴으로써 실현된다.In step S1630, in order to associate the coordinates of the projected image with the coordinates of the surface image, the registration unit 337 performs registration between the projected image and the surface image. In registration, an evaluation function expressing the similarity between two images is defined in advance, and the image is modified to obtain an optimum evaluation value. As a similarity evaluation method, a method of evaluating similarity based on pixel values using mutual information amounts is used. However, the present invention is not limited to such a specific method, and the mean square error, correlation coefficient, or overlapping area between blood vessel regions extracted from the surface image and the projection image by the feature extraction unit 336, or branched portions of the vessel You may use the distance between them. Image deformation is realized by translating or rotating an image by assuming an affine transformation, or by changing an enlargement ratio.

단계 S1640에서는, 단계 S1620에서 산출된 표면 화상으로부터의 혈관 또는 백반 추출 결과를, 단계 S1630에서 산출된 레지스트레이션 파라미터를 사용해서 단층상 위에 역투영한다. 역투영 영역으로서, 도 17a의 점선 영역(8)으로 나타낸 영역이 얻어진다. 일반적으로, 망막 혈관의 z축의 양의 방향 측에는 휘도의 감쇠가 종종 발생하기 때문에, 특징이 추출된 영역의 (x-y 방향의) 좌표 및 휘도를 단층상 위에 역투영하면, 각 역투영된 점선 영역(8)은 아티팩트를 포함할 가능성이 더 높아진다. 그러나, 본 실시예와 같이 표면 화상으로부터 백반을 추출하는 경우에는, 백반 후보 영역들 중에 드루제(druse) 등의 입상의 고휘도 영역이 잘못 추출될 가능성이 있다. 이 경우에는, 도 17b에 도시된 바와 같이, 층 영역에 휘도 감쇠가 발생하지 않는다. 정확하게 추출된 망막 혈관 영역을 역투영하더라도, 역투영 영역 아래에서 휘도 감쇠가 경미해서, 층 추출에 거의 영향을 주지 않을 경우도 있다. 따라서, 역투영 영역 내에 그리고 그 영역의 경계 근방에 있어서 아티팩트가 발생하는지의 여부를 판정한다. 아티팩트가 발생하는 경우에는, 그 영역 내의 휘도값의 통계량을 산출한다.In step S1640, the blood vessel or alum extraction result from the surface image calculated in step S1620 is back projected onto the tomographic phase using the registration parameter calculated in step S1630. As the reverse projection area, the area shown by the dotted line area 8 in Fig. 17A is obtained. In general, since attenuation of luminance often occurs on the positive side of the z-axis of the retinal blood vessels, if the (xy direction) coordinates and luminance of the region from which the features are extracted are backprojected onto a tomogram, each backprojected dotted region ( 8) is more likely to include artifacts. However, when the alum is extracted from the surface image as in the present embodiment, there is a possibility that a high-brightness region of a granular particle such as druse is extracted out of the alum candidates. In this case, as shown in Fig. 17B, luminance attenuation does not occur in the layer region. Even reverse projection of the correctly extracted retinal blood vessel region may result in a slight luminance attenuation below the reverse projection region, thus having little effect on layer extraction. Thus, it is determined whether artifacts occur in the reverse projection area and near the boundary of the area. When an artifact occurs, a statistical amount of luminance values in the area is calculated.

아티팩트 영역의 판정 방법은 기본적으로 제1 실시예의 단계 S610 내지 S640의 경우와 같지만, 연결도의 산출 대상으로서의 층 후보 점들의 범위가 제1 실시예와 상이하다. 더 구체적으로는, 연결도의 산출 처리를 모든 층 후보 점에 대해서 실행하는 것이 아니고, 역투영 영역의 내부 및 그 영역의 x-y 방향의 근방에 있어서 실행한다. 단층상만으로부터 얻어지는 정보 외에, 투영 화상 및 안저 화상으로부터 얻어지는 정보도 참조하여 아티팩트 영역을 결정해도 된다는 것을 유의한다. 예를 들어, 투영 화상으로부터 얻어진 망막 혈관 영역과 안저 화상으로부터 얻어진 망막 혈관 영역이 중첩되는 경우, 그 영역이 혈관일 가능성이 더 크다고 생각될 수 있고, 그 영역의 에지 부분을 비연결된 것으로서 판정해도 된다. 대안적으로, 단층상으로부터 산출한 연결도의 값과, 혈관 영역의 중첩도의 값의 선형 합을 계산할 수 있고, 임계값을 이용하여 2치화할 수 있으므로, 연결도를 판정할 수 있다. The determination method of the artifact region is basically the same as in the case of steps S610 to S640 of the first embodiment, but the range of the layer candidate points as the calculation target of the connection degree is different from that of the first embodiment. More specifically, the calculation of the degree of connection is not performed for all the layer candidate points, but in the inside of the reverse projection area and in the vicinity of the x-y direction of the area. Note that, in addition to the information obtained only from the tomographic image, the artifact region may be determined with reference to the information obtained from the projection image and the fundus image. For example, when the retinal vascular area obtained from the projection image and the retinal vascular area obtained from the fundus image overlap, it may be considered that the area is more likely to be a blood vessel, and the edge portion of the area may be determined as unconnected. . Alternatively, the linear sum of the value of the degree of connection calculated from the tomographic layer and the value of the overlapping degree of the blood vessel region can be calculated and binarized using a threshold value, so that the degree of connection can be determined.

단계 S1650의 아티팩트 영역용 화상 처리에서는, 화상 보정 후의 보정 결과를 표시하는, 즉 제1 실시예와 기본적으로 마찬가지의 수순을 채택하기 때문에, 그 상세한 설명을 생략한다. 그러나, 본 실시예에서는, 아티팩트 영역의 화상 보정 시에, 안저 화상으로부터 얻어지는 정보도 참조할 수 있다. 예를 들어, 안저 화상 위에 백반의 휘도가 매우 높은 경우, 단층상 위에서도 층 후보 점의 z축의 양의 방향 측에서 휘도가 더 감쇠할 가능성이 높아지기 때문에, 백반 영역의 휘도 신호값에 비례해서 휘도값을 증폭 또는 강조한다. 이 경우, 백반 영역의 휘도값으로서, 안저 화상 위의 그 영역의 화소값을 직접 참조한다. 그러나, 백반 영역의 휘도값은 이 값들에 한정되지 않고, 예를 들면, 모폴로지 연산 등에 의해 얻어지는 처리 결과의 값(다치 데이터)을 참조해도 된다.In the image processing for artifact area in step S1650, since the correction result after image correction is displayed, i.e., basically the same procedure as in the first embodiment is adopted, the detailed description thereof is omitted. However, in this embodiment, the information obtained from the fundus image can also be referred to at the time of image correction of the artifact region. For example, when the luminance of the alum is very high on the fundus image, the luminance is more likely to be attenuated on the positive side of the z-axis of the layer candidate point even on the tomogram, so that the luminance value is proportional to the luminance signal value of the alum region. Amplify or highlight. In this case, the pixel value of the area on the fundus image is directly referred to as the luminance value of the alum area. However, the luminance value of the alum area is not limited to these values, and may refer to, for example, the value (value data) of the processing result obtained by morphology calculation or the like.

전술한 구성에 따르면, 본 실시예의 화상 처리 장치(10)는, 표면 화상 및 투영 화상을 사용해서 특정된 아티팩트 영역에서, 휘도값의 통계량에 기초하여 화상 보정을 행함으로써, 그 영역에 존재하는 층 영역을 더 쉽게 검출할 수 있는 화상을 얻을 수 있다. According to the above-described configuration, the image processing apparatus 10 of the present embodiment, in the artifact region specified by using the surface image and the projection image, corrects the image based on the statistical value of the luminance value, thereby presenting the layer present in the region. It is possible to obtain an image in which the area can be detected more easily.

[제6 실시예][Sixth Embodiment]

본 실시예에서는 제5 실시예의 아티팩트 영역의 화상 보정을 행할 뿐만 아니라, 보정된 화상으로부터 소정의 층의 검출도 행한다. 이 실시예는, 특히 백반에 기인하여 아티팩트가 발생하는 경우에 있어서, 다음의 사항을 이용한다.In this embodiment, not only the image correction of the artifact region of the fifth embodiment is performed, but also the detection of a predetermined layer from the corrected image is performed. This embodiment uses the following matters, especially when artifacts occur due to alum.

(i) 표면 화상으로부터 산출한 백반 영역의 위치 정보를 단층상 위에 맵핑하고, 그 영역의 주변 영역에서 아티팩트 영역의 에지 부분을 탐색 및 특정함으로써, 더 높은 정밀도로 아티팩트 영역의 범위를 산출한다.(i) The position information of the alum area calculated from the surface image is mapped onto the tomogram, and the range of the artifact area is calculated with higher precision by searching and specifying the edge portion of the artifact area in the peripheral area of the area.

(ii) 아티팩트가 발생해서 휘도가 감쇠하는 영역이더라도, 잔존하는 에지 정보가 검출하기 쉬워지도록 그 영역을 화상 보정해서 보정된 영역으로부터 에지 정보를 검출함으로써, 더 정확한 층 위치를 산출한다. (ii) Even in an area where artifacts occur and the luminance decays, the more accurate layer position is calculated by image correcting the area so that the remaining edge information is easier to detect and detecting the edge information from the corrected area.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은 제5 실시예의 경우와 같다. 도 18은 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 본 실시예의 화상 처리 유닛(1801)은, 층 결정 유닛(334)을 포함한다는 점에서 제5 실시예의 화상 처리 유닛(1501)과는 상이하다. 본 실시예에서의 화상 처리 수순은, 단계 S1650과 단계 S455에 있어서의 처리를 제외하고는, 도 16에 도시된 화상 처리 수순과 같다. 따라서, 단계 S1650과 단계 S455에 있어서의 처리만을 설명하고, 다른 단계의 설명을 생략한다. The configuration of the device connected to the image processing apparatus 10 according to the present embodiment is the same as that of the fifth embodiment. 18 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. The image processing unit 1801 of the present embodiment is different from the image processing unit 1501 of the fifth embodiment in that it includes the layer determination unit 334. The image processing procedure in this embodiment is the same as the image processing procedure shown in FIG. 16 except for the processing in steps S1650 and S455. Therefore, only the processing in steps S1650 and S455 is described, and description of other steps is omitted.

단계 S1650에서는, 아티팩트 영역에서의 화상 처리로서, 화상 보정, 층 결정, 층 형상 계측, 및 결과 표시 처리들을 행한다. 이 단계에 있어서의 처리는, 제2 실시예에 있어서의 단계 S1010 내지 S1040의 경우와 마찬가지이기 때문에, 그 상세한 설명은 생략한다. 그러나, 본 실시예에서는, 단계 S1010에 있어서, 안저 화상으로부터 얻어지는 정보도 사용해서 화상 보정을 행할 수 있다. 화상 보정 시에 안저 화상으로부터 얻어지는 정보를 참조하는 구체적인 수순은, 제5 실시예에 있어서의 단계 S1650의 경우와 마찬가지이기 때문에, 그 설명을 생략한다. In step S1650, image correction, layer determination, layer shape measurement, and result display processes are performed as image processing in the artifact region. Since the processing in this step is the same as in the case of steps S1010 to S1040 in the second embodiment, detailed description thereof is omitted. However, in this embodiment, in step S1010, image correction can also be performed using information obtained from the fundus image. Since the specific procedure which references the information obtained from a fundus image at the time of image correction is the same as that of the case of step S1650 in 5th Example, the description is abbreviate | omitted.

단계 S455에서는, 아티팩트가 발생하지 않는 경우 행해지는 처리로서, 단계 S420에 있어서 취득된 층 위치로부터 층 형상을 계측하고, 층 위치 및 층 형상 계측 결과를 단층상에 중첩시킨다. 이 경우의 중첩 방법은, 제2 실시예에 있어서의 경우와 마찬가지이기 때문에, 그 상세한 설명을 생략한다.In step S455, as a process performed when artifacts do not occur, the layer shape is measured from the layer position acquired in step S420, and the layer position and the layer shape measurement result are superimposed on the single layer. Since the superposition method in this case is the same as that in the second embodiment, detailed description thereof is omitted.

전술한 구성에 따르면, 화상 처리 장치(10)는, 표면 화상과 투영 화상으로부터 특정된 아티팩트 영역에서의 화상 보정을 행한다. 그 보정 결과로부터 층의 화상 특징을 검출함으로써, 그 영역 내의 층 위치를 더 정확하게 산출할 수 있다.According to the above-described configuration, the image processing apparatus 10 performs image correction in the artifact region specified from the surface image and the projection image. By detecting the image characteristic of the layer from the correction result, the position of the layer in the area can be calculated more accurately.

[제7 실시예][Example 7]

본 실시예에서는, 피검안의 단층상으로부터 아티팩트 영역을 판정하고, 아티팩트 영역 내의 휘도값 및 그 영역 주변의 층 형상을 고려하여 양쪽의 정보를 사용해서 아티팩트 영역 내의 층 위치를 산출한다. In the present embodiment, the artifact region is determined from the tomogram of the eye to be examined, and the layer position in the artifact region is calculated by using both information in consideration of the luminance value in the artifact region and the layer shape around the region.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은, 제1 실시예의 도 2에 도시된 바와 마찬가지이기 때문에, 그 설명을 생략한다. 도 19는 본 실시예에 따른 화상 처리 장치(10)의 기능 블록이다. 도 19를 참조하면, 본 실시예의 화상 처리 유닛(1901)은, 화상 보정 유닛(333) 대신 화상 처리 방법 결정 유닛(1910)을 포함하고, 또한 층 결정 유닛(334)을 추가로 포함한다는 점에서 제1 실시예의 화상 처리 장치(10)의 화상 처리 유닛(330)의 구성과 상이하다. 화상 처리 방법 결정 유닛(1910)은, 휘도 이용 판단 유닛(1911)과 평가 함수 설정 유닛(1912)을 포함한다. 화상 처리 장치(10)를 구성하는 각 블록의 기능에 대해서는, 도 20에 도시된 흐름도를 참조하여 본 실시예의 화상 처리 장치(10)가 실행하는 구체적인 처리의 수순과 연관지어서 설명한다. Since the configuration of the device connected to the image processing apparatus 10 according to the present embodiment is the same as that shown in FIG. 2 of the first embodiment, the description thereof is omitted. 19 is a functional block of the image processing apparatus 10 according to the present embodiment. Referring to FIG. 19, the image processing unit 1901 of the present embodiment includes an image processing method determination unit 1910 instead of the image correction unit 333, and further includes a layer determination unit 334. The configuration of the image processing unit 330 of the image processing apparatus 10 of the first embodiment is different. The image processing method determination unit 1910 includes a luminance use determination unit 1911 and an evaluation function setting unit 1912. The function of each block constituting the image processing apparatus 10 will be described with reference to the flowchart shown in FIG. 20 in association with the procedure of specific processing executed by the image processing apparatus 10 of the present embodiment.

이하에, 본 실시예의 화상 처리 수순을 설명한다. 본 실시예의 처리 수순은, 단계 S2010 내지 S2030에 있어서의 처리를 제외하고는, 도 4에 도시된 흐름도와 같다는 것을 유의한다. 따라서, 하기에서는 S2010 내지 S2030의 설명만을 행하고, 다른 단계의 설명을 생략한다. The image processing procedure of this embodiment will be described below. Note that the processing procedure of this embodiment is the same as the flowchart shown in FIG. 4 except for the processing in steps S2010 to S2030. Therefore, only the descriptions of S2010 to S2030 will be described below, and the description of other steps will be omitted.

단계 S2010에 있어서, 아티팩트 영역 판정 유닛(332)은, 단계 S430에서 얻은 판정 결과에 따라 처리를 분기시킨다. 즉, 아티팩트가 발생한다고 판정된 층 후보 점에 대하여, 유닛(332)은 화상 처리 방법 결정 유닛(1910)에 소정의 처리의 실행을 지시하는 신호를 송신한다. 한편, 유닛(332)은, 아티팩트가 발생하지 않는 트루 화상 영역이라고 판정하는 경우, 표시 유닛(340)에 소정의 처리의 실행을 지시하는 신호를 송신한다.In step S2010, the artifact area determination unit 332 branches the processing in accordance with the determination result obtained in step S430. That is, the unit 332 transmits a signal instructing the image processing method determination unit 1910 to execute a predetermined process with respect to the layer candidate point determined that the artifact occurs. On the other hand, when it determines with the true image area | region where an artifact does not generate | occur | produce, the unit 332 transmits the signal which instruct | indicates execution of a predetermined process to the display unit 340. As shown in FIG.

단계 S2020에 있어서, 화상 처리 유닛(1901)은, 소정의 층의 후보 점 부근에서 아티팩트가 발생할 경우, 해석 처리를 실행한다. 이 단계의 처리에 대해서는, 도 21에 도시된 흐름도를 사용해서 상세하게 후술한다. 단계 S2030에 있어서, 표시 유닛(340)은, 층의 결정 결과를 단층상에 중첩시킨다. 층의 경계를 선으로 나타내는 경우, 각각의 경계에 대하여 미리 정한 색의 선을 사용해도 되며, 또는 경계를 명시적으로 나타내지 않고 층의 영역을 반투명 색으로 제시해도 된다. 이러한 표시를 행할 때, 주목하는 단면을, 예를 들면, GUI 등을 이용하여 선택 가능한 구성을 채택하는 것이 바람직하다는 것을 유의한다. 또한, 공지의 체적 렌더링 기술을 사용하여, 이 결과들을 3차원적으로 표시해도 된다. In step S2020, the image processing unit 1901 executes an analysis process when artifacts occur in the vicinity of candidate points of the predetermined layer. The processing of this step will be described later in detail using the flowchart shown in FIG. In step S2030, the display unit 340 superimposes the determination result of the layer on the single layer. When the boundary of the layer is represented by a line, a line of a predetermined color may be used for each boundary, or the region of the layer may be presented in a translucent color without explicitly indicating the boundary. When performing such display, it is noted that it is preferable to adopt a configuration in which the cross section of interest is selectable using, for example, a GUI or the like. In addition, these results may be displayed three-dimensionally using a known volume rendering technique.

또한, 망막 색소 상피층에 상당하는 산출된 층 후보 점 시퀀스와, 단계 S420에서 산출한 내부 경계막(1) 사이의 거리를 각 좌표(x, y)에 있어서 계측함으로써, 망막 층 두께를 계측할 수 있다. 이 경우, 표시 유닛(340)은 계측된 층 형상에 연관되는 정보를, 3D 단층상 전체(x-y 평면)에 대한 층 두께의 분포 맵으로서 제시한다. 그러나, 본 발명은 이러한 특정 표시 방법에 한정되지 않는다. 예를 들면, 표시 유닛(340)은 검출 결과의 표시 처리와 동기시켜서 주목 단면에 있어서의 각 층의 면적을 표시해도 된다. 대안적으로, 표시 유닛(340)은 전체의 체적을 표시해도 되며, 또는 조작자가 x-y 평면 위에서 지정한 영역에서의 체적을 산출해서 표시해도 된다.The retinal layer thickness can be measured by measuring the distance between the calculated layer candidate point sequence corresponding to the retinal pigment epithelial layer and the internal boundary film 1 calculated in step S420 in each coordinate (x, y). have. In this case, the display unit 340 presents the information related to the measured layer shape as a distribution map of the layer thickness with respect to the whole 3D tomogram (x-y plane). However, the present invention is not limited to this specific display method. For example, the display unit 340 may display the area of each layer in the cross section of interest in synchronization with the display processing of the detection result. Alternatively, the display unit 340 may display the entire volume, or may calculate and display the volume in the area designated by the operator on the x-y plane.

하기에서는, 본 실시예의 단계 S2020에 있어서의 아티팩트 영역용 화상 처리에 대해서 설명한다. 본 실시예에서는, 노이즈를 포함한 단층상에 대하여도 층 위치가 산출될 수 있도록 하기 위해, 가변 형상 모델(Deformable Model)을 층 위치에 적용시킨다. 이하에서는, 가변 형상 모델로서 Snakes를 사용하는 예에 대해서 설명한다. 이 경우, 모델의 형상에 연관된 평가 함수값과, 모델을 구성하는 제어 점 부근의 휘도값에 연관된 평가 함수값의 선형 합을 최소화함으로써, 층 위치를 결정한다. In the following, the image processing for the artifact area in step S2020 of the present embodiment will be described. In this embodiment, a deformable model is applied to the floor position so that the floor position can be calculated even for a tomographic layer containing noise. Hereinafter, an example of using Snakes as the variable shape model will be described. In this case, the floor position is determined by minimizing the linear sum of the evaluation function values associated with the shape of the model and the evaluation function values associated with the luminance values near the control points constituting the model.

형상에 연관된 평가 함수로서는, 모델을 구성하는 제어 점 위치들의 차분값과 2차 미분 값의 선형 합이 사용된다. 선형 합이 감소할수록, 모델 형상이 매끄러워진다. 휘도값에 연관된 평가 함수로서는, 모델을 구성하는 제어 점 근방의 휘도값 기울기에 음의 부호를 할당해서 구한 값이 사용된다. 이것은, 에지에의 거리가 감소할수록, 평가 함수값이 작아지도록 하기 위해서이다. 가변 형상 모델을 변형하기 위해 사용하는 평가 함수의 가중치에 대해서는, 모델을 구성하는 각 제어 점이 아티팩트 영역에 포함되는지의 여부에 상관없이, 고정 값으로 설정하는 것이 보통이다. 이 경우, 아티팩트 영역 내에서는 휘도값이 감쇠하고, 그 영역 내에서는 휘도값의 변화가 작기 때문에, 실질적으로 모델 형상에 연관된 평가 함수값의 크기에 기초하여 층 위치가 정해져 버린다. 아티팩트 영역 내에, 예를 들어, 에지 등의 정보가 잔존하고 있는 경우, 휘도에 연관된 정보를 중시해서 층 위치를 결정함으로써(모델 형상의 매끄러움에 기초하여 층 위치를 산출하는 경우에 비해) 더 정확하게 층 형상을 검출할 수 있다. 이 때문에, 아티팩트 영역 내의 제어 점에 있어서는 휘도값의 감쇠의 정도에 따라 휘도에 연관된 평가 함수의 가중치가 트루 화상 영역에서의 경우보다 커지도록 설정한다. As the evaluation function associated with the shape, a linear sum of the difference value and the second derivative value of the control point positions constituting the model is used. As the linear sum decreases, the model shape becomes smoother. As an evaluation function associated with the luminance value, a value obtained by assigning a negative sign to the luminance value gradient near the control point constituting the model is used. This is so that as the distance to the edge decreases, the evaluation function value becomes smaller. Regarding the weight of the evaluation function used to deform the variable shape model, it is common to set the fixed value regardless of whether each control point constituting the model is included in the artifact area. In this case, the luminance value is attenuated in the artifact region, and since the change in the luminance value is small in the region, the layer position is determined based on the magnitude of the evaluation function value substantially associated with the model shape. In the artifact area, for example, if information such as an edge remains, the layer position is determined by focusing on the information related to the luminance (compared to calculating the layer position based on the smoothness of the model shape). The shape can be detected. For this reason, the control point in the artifact region is set so that the weight of the evaluation function associated with the luminance becomes larger than that in the true image region in accordance with the degree of attenuation of the luminance value.

그러나, 아티팩트 영역 내의 휘도값이 낮고, 예를 들면, 에지 등의 정보가 대부분 잔존하지 않는 경우에는, 층 위치를 결정할 때, 예를 들면, 에지 등의 휘도 정보를 이용할 수 없다. 따라서, 휘도값에 연관된 평가 함수의 가중치는 증가시키지 않고, 모델 형상에 연관된 평가 함수값의 크기에 기초하여 층 위치가 정해지도록 한다. However, when the luminance value in the artifact area is low and, for example, most of the information such as the edge does not remain, when determining the layer position, for example, the luminance information such as the edge cannot be used. Thus, the floor position is determined based on the magnitude of the evaluation function value associated with the model shape without increasing the weight of the evaluation function associated with the luminance value.

하기에서는, 가변 형상 모델의 각 평가 함수의 가중치를 구체적으로 설정하는 방법을 도 21에 도시된 흐름도를 참조하여 설명한다. In the following, a method of specifically setting the weight of each evaluation function of the variable shape model will be described with reference to the flowchart shown in FIG. 21.

단계 S2110에서, 단계 S430의 아티팩트 영역 판정 처리의 상세를 도시하는 도 6의 흐름도의 단계 S640에 있어서 산출된 아티팩트 영역 내의 휘도값에 연관된 통계량을, 저장 유닛(320)으로부터 화상 처리 방법 결정 유닛(1910)이 판독한다. 유닛(1910)은 통계량에 기초하여, 그 영역에서 (감쇠된) 에지가 잔존하고 있기 때문에 층 검출 시에 휘도 정보를 이용하는 것인지, 또는 휘도값이 결손되어 있기 때문에 예를 들면, 에지 등의 휘도 정보를 이용하지 않는 것인지를 판단한다. In step S2110, the statistical value associated with the luminance value in the artifact area calculated in step S640 of the flowchart of FIG. 6 showing the details of the artifact area determination processing of step S430, from the storage unit 320, the image processing method determination unit 1910 ) Reads. Based on the statistics, the unit 1910 uses the luminance information at the time of layer detection because the (damped) edges remain in the area, or the luminance information such as the edge, for example, because the luminance value is missing. Determine whether or not to use.

더 구체적으로는, 지표 E(i)를 산출하고, E(i)=1이라면, 층 위치를 결정할 때, 휘도 정보를 이용한다고 판단하고, E(i)=0이라면, 휘도 정보를 이용하지 않는다고 판단한다. 지표 E(i)는 다음과 같이 주어진다.More specifically, the index E (i) is calculated, and if E (i) = 1, it is determined that the luminance information is used when determining the floor position, and if E (i) = 0, the luminance information is not used. To judge. The index E (i) is given by

Figure pct00010
Figure pct00010

여기서, i는 가변 형상 모델의 제어 점 번호이고, B는 배경 영역(예를 들어, 내부 경계막(1)의 z축의 음의 방향 측의 영역)에 있어서의 휘도값에 연관된 통계량이고, Fi는 제어 점 i가 속하는 아티팩트 영역 내의 휘도값에 연관된 통계량이다. 휘도값에 연관된 통계량으로서, 최대값을 사용한다. 또한, Ts는 임계값이다. Here, i is a control point number of the variable shape model, B is a statistic associated with a luminance value in the background region (for example, the region on the negative direction side of the z-axis of the inner boundary film 1), and F i Is a statistic associated with a luminance value in the artifact region to which the control point i belongs. As the statistic associated with the luminance value, the maximum value is used. In addition, T s is a threshold value.

휘도값에 연관된 통계량은 이것에 한정되는 것이 아니라는 것을 유의한다. 예를 들어, 평균값, 분산, 또는 표준 편차를 사용해도 된다. 또한, 아티팩트 영역을 임의의 국소 영역들로 분할해도 되고, 각 제어 점이 속하는 국소 영역들에서의 휘도값의 통계량을 Fi로서 사용해도 된다. Note that the statistic associated with the luminance value is not limited to this. For example, you may use an average value, a variance, or a standard deviation. In addition, the artifact region may be divided into arbitrary local regions, and a statistical value of luminance values in the local regions to which each control point belongs may be used as F i .

단계 S2120에서는, 화상 처리 방법 결정 유닛(1910)이 아티팩트 영역의 주위에 있어서의 층 후보 점 시퀀스의 요철에 연관된 정보를 취득한다. 이것은, 아티팩트 영역의 주변에서의 층 형상에 요철이 있는 경우, 그 영역 내에서도 요철이 발생할 가능성이 있고, 형상의 매끄러움의 평가에 연관된 가중치를 낮게 하여 층 위치를 산출할 필요가 있기 때문이다. 구체적인 층 형상의 요철을 산출하는 방법으로서는, 아티팩트 영역 주변에 있어서의 층 후보 점들 간의 각도에 연관된 통계량을 산출한다. 이 경우, 통계량으로서 최대값을 사용한다.In step S2120, the image processing method determination unit 1910 acquires information associated with the unevenness of the layer candidate point sequence around the artifact area. This is because when there are irregularities in the layer shape around the artifact region, irregularities may occur even within the region, and it is necessary to calculate the layer position by lowering the weight associated with the evaluation of the smoothness of the shape. As a method of calculating the concrete layer-shaped unevenness | corrugation, the statistics related to the angle between layer candidate points around an artifact area are computed. In this case, the maximum value is used as a statistic.

층 후보 점 i에 있어서의 층 후보 점들 간의 각도는, 도 22에 도시된 바와 같이 선분 Qi -1 - Qi를 Qi +1 측으로 연장해서 얻어지는 선분과, 선분 Qi - Qi +1 간의 사이의 각도 θi로서 산출한다. θi가 클수록 요철이 크다. 이러한 각도의 계산을 아티팩트 영역 주변의 각 층 후보 점에 대해서 실행하고, 계산된 각도의 최대값을 층 후보 점 시퀀스의 요철의 정도를 나타내는 지표로서 사용한다. 요철의 정도에 연관된 지표는, 층 후보 점들 간의 각도에 한정되지 않고, 층 후보 점 위치들(Qi -1 - 2Qi + Qi +1)에 있어서의 2차 미분값의 통계량(평균, 분산, 최대값 등)을 구해도 된다는 것을 유의한다. 대안적으로, 아티팩트 영역 주변의 층 후보를 곡선으로 간주할 경우의 극값 또는 변곡점의 수를 산출해도 된다. 층 후보 점의 요철의 정도에 연관된 통계량은 최대값에 한정되지 않는다. 예를 들어, 평균값, 분산, 또는 표준 편차를 사용해도 된다. The angle between the layer candidate points in the layer candidate point i is between the line segment obtained by extending the line segment Q i -1 -Q i to the Q i +1 side as shown in FIG. 22, and the line segment Q i -Q i +1 . It calculates as angle (theta) i between them. The larger the i , the greater the unevenness. This angle calculation is performed for each layer candidate point around the artifact region, and the maximum value of the calculated angle is used as an index indicating the degree of irregularities of the layer candidate point sequence. Indicator associated with a degree of unevenness is not limited to the angle between the floor candidate points, the candidate point where the layers (Q i -1 - 2Q i + Q i +1) 2 of the differentials of the order statistics in the (mean, variance , The maximum value, etc.). Alternatively, the number of extremes or inflection points may be calculated when the layer candidate around the artifact region is regarded as a curve. The statistics related to the degree of irregularities of the layer candidate points are not limited to the maximum value. For example, you may use an average value, a variance, or a standard deviation.

단계 S2130에서, 화상 처리 방법 결정 유닛(1910)은, 단계 S2110에서의 판단 결과 및 단계 S2120에서 산출한 층 형상의 요철의 정도에 연관된 지표를 사용하여 가변 형상 모델의 평가 함수의 가중치를 설정한다. 형상에 연관된 평가 함수의 가중치로서는, 단계 S2120에서 산출한 층 형상 모델의 요철의 정도를 표현하는 지표에 반비례한 값을 설정한다. 휘도값에 연관된 평가 함수의 가중치는, 단계 S2110에서 산출한 아티팩트 영역 내에서의 휘도 정보의 이용에 연관된 판단 결과에 따라 다음과 같이 설정된다. In step S2130, the image processing method determination unit 1910 sets the weight of the evaluation function of the variable shape model by using an indicator associated with the determination result in step S2110 and the degree of unevenness of the layer shape calculated in step S2120. As the weight of the evaluation function associated with the shape, a value inversely proportional to an index representing the degree of irregularities of the layered model calculated in step S2120 is set. The weight of the evaluation function associated with the luminance value is set as follows according to the determination result associated with the use of the luminance information in the artifact area calculated in step S2110.

(i) 층 위치를 결정할 때, 아티팩트 영역 내의 휘도 정보를 이용하는 경우(i) When using the luminance information in the artifact region when determining the layer position

아티팩트 영역에서의 휘도값의 감쇠 정도에 따라 휘도에 연관된 평가 함수의 가중치를 증가시킨다. 그런 다음, 단계 S640에서 산출한 영역 내의 휘도 통계량 Fs와, 트루 화상 영역 내의 휘도 통계량 Ts 간의 비율 Ts/Fs에 비례한 값을, 휘도에 연관된 평가 함수의 가중치로서 설정한다. 그러나, 휘도에 연관된 평가 함수의 가중치의 설정 방법은 이것에 한정되는 것이 아니다. Fs와, 휘도에 연관된 평가 함수의 가중치 사이에 감소 함수의 관계가 성립되는 한, 임의의 가중 함수를 설정해도 된다. The weight of the evaluation function associated with luminance is increased according to the degree of attenuation of the luminance value in the artifact region. Then, a value proportional to the ratio T s / F s between the luminance statistics F s in the area calculated in step S640 and the luminance statistics T s in the true image area is set as the weight of the evaluation function associated with luminance. However, the method of setting the weight of the evaluation function associated with the luminance is not limited to this. Arbitrary weighting functions may be set as long as the relationship of the reduction function is established between F s and the weight of the evaluation function associated with the luminance.

(ii) 층 위치를 결정할 때, 아티팩트 영역 내의 휘도 정보를 이용하지 않을 경우 (ii) When determining the position of the layer, when not using the luminance information in the artifact region

아티팩트 영역에서는, 형상 모델의 휘도값에 연관된 평가 함수의 가중치를 트루 화상 영역에서의 경우와 같은 값으로 설정한다. (ii)에 있어서, 휘도값에 연관된 평가 함수의 가중치의 설정 방법은 이것에 제한되지 않는다는 것을 유의한다. 예를 들어, 휘도값에 연관된 평가 함수의 가중치를 작게 해도 되며, 또는 제로로 설정해도 된다. In the artifact region, the weight of the evaluation function associated with the luminance value of the shape model is set to the same value as that in the true image region. Note that in (ii), the method of setting the weight of the evaluation function associated with the luminance value is not limited to this. For example, the weight of the evaluation function associated with the luminance value may be reduced or may be set to zero.

단계 S2140에서는, 층 결정 유닛(334)이, 단계 S2130에서 설정된 평가 함수의 가중에 따라 평가값을 산출하고, Greedy 알고리즘 등의 최적화 방법을 사용해서 반복 계산을 행하고, 평가 함수값을 최소화한다. 평가값의 변화량이 소정값 미만인 경우, 또는 반복 계산 횟수가 소정 횟수를 초과한 경우, 유닛(334)은 층 형상 모델의 변형을 종료하고, 종료 시의 층 형상 모델의 위치를 층 위치로 결정한다. In step S2140, the floor determination unit 334 calculates an evaluation value according to the weight of the evaluation function set in step S2130, performs iteration calculation using an optimization method such as a Greedy algorithm, and minimizes the evaluation function value. When the amount of change in the evaluation value is less than the predetermined value or when the number of iteration calculations exceeds the predetermined number of times, the unit 334 terminates the deformation of the layered model and determines the position of the layered model at the end as the layer position. .

이 형상 모델들은 2D 또는 3D 곡면 모델로서 계산해도 된다는 것을 유의한다. 본 실시예에서는 가변 형상 모델로서 Snakes를 사용하는 예에 대해 설명했지만, 레벨 세트를 사용해도 된다. 또한, 모델의 변형 시에, 휘도값을 참조하는 모델 기반의 분할 방법에 있어서, 휘도값에 연관된 평가 함수의 가중치를 설정하는 한, 임의의 방법을 사용해도 된다.Note that these shape models may be calculated as 2D or 3D curved models. In the present embodiment, an example of using Snakes as the variable shape model has been described, but a level set may be used. Further, in the model-based division method for referring to the luminance value at the time of deformation of the model, any method may be used as long as the weight of the evaluation function associated with the luminance value is set.

전술한 구성에 따르면, 화상 처리 장치(10)는 아티팩트 영역을 특정하고, 그 영역 주변의 층 형상의 요철, 및 그 영역 내의 에지 정보도 고려하여 화상 처리를 행함으로써, 종래 방법보다 더 높은 정밀도로 층 위치를 산출할 수 있다.According to the above-described configuration, the image processing apparatus 10 specifies an artifact region and performs image processing in consideration of the layer-shaped unevenness around the region and the edge information in the region, thereby providing higher accuracy than the conventional method. The floor location can be calculated.

[제8 실시예]  [Example 8]

본 실시예에서는, 아티팩트 영역 내의 층 위치를 산출할 때, 그 영역 내의 예를 들면, 에지 등의 휘도 정보를 이용할지 여부를 판단한다. 휘도 정보를 이용하는 경우, 그 영역의 휘도값을 보정한 후 층 위치를 산출한다. 휘도 정보를 이용하지 않을 경우, 보간에 의해 층 위치를 산출한다. 본 실시예에서는, 다음의 사항을 포괄한다.In the present embodiment, when calculating the position of the layer in the artifact region, it is determined whether or not luminance information such as an edge in the region is used. In the case of using the luminance information, the layer position is calculated after correcting the luminance value of the region. When the luminance information is not used, the layer position is calculated by interpolation. In this embodiment, the following matters are covered.

(i) 혈관이나 작은 백반 등 휘도값이 감쇠하지만 결손되지 않는 영역에서는, 예를 들면, 잔존하는 에지 등의 정보를 이용하기 쉬워지도록 휘도값을 변환한 후에 층 위치를 검출함으로써, 더 정확한 층 위치를 산출한다.(i) In an area where luminance values, such as blood vessels and small alum, are attenuated but not missing, for example, the position of the layer is detected after converting the luminance value so that information such as remaining edges is easier to use, thereby making the layer position more accurate. Calculate

(ii) 큰 백반이나 격렬하게 출혈하는 영역 등 휘도가 결손되어 에지 정보를 이용할 수 없는 영역에서는, 아티팩트 영역의 발생 위치 및 주위의 층 형상을 고려하여 주위의 층 위치들을 보간함으로써, 더 정확한 층 위치를 산출한다.(ii) In an area where edge information is not available due to lack of luminance such as a large alum or a severely bleeding area, by interpolating surrounding layer positions in consideration of the occurrence position of the artifact region and the surrounding layer shape, a more accurate layer position is obtained. To calculate.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은, 제7 실시예와 마찬가지이기 때문에, 그 상세한 설명을 생략한다. 도 23은 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 본 실시예에서, 화상 처리 유닛(2301)은 화상 보정 유닛(333)을 포함하고, 화상 처리 방법 결정 유닛(1910)은 화상 보정 방법 설정 유닛(1913) 및 보간 함수 설정 유닛(1914)을 포함한다는 점이 제7 실시예의 경우와 상이하다. Since the configuration of the device connected to the image processing apparatus 10 according to the present embodiment is the same as that of the seventh embodiment, the detailed description thereof is omitted. 23 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. In the present embodiment, the image processing unit 2301 includes an image correction unit 333, and the image processing method determination unit 1910 includes an image correction method setting unit 1913 and an interpolation function setting unit 1914. The point is different from the case of the seventh embodiment.

도 20에 도시된 화상 처리 수순을 참조하여 본 실시예에서의 화상 처리의 내용을 설명한다. 본 실시예에서의 화상 처리 수순은, 단계 S2020에 있어서의 처리를 제외하고는, 제7 실시예의 경우와 마찬가지라는 것을 유의한다. 따라서, 하기에서는, 단계 S2020에 있어서의 처리의 변경 사항을 도 24를 참조하여 설명하고, 다른 단계의 설명은 생략한다. The contents of the image processing in this embodiment will be described with reference to the image processing procedure shown in FIG. Note that the image processing procedure in this embodiment is the same as in the seventh embodiment except for the processing in step S2020. Therefore, below, the change of the process in step S2020 is demonstrated with reference to FIG. 24, and description of another step is abbreviate | omitted.

단계 S2410에서는, 아티팩트 영역에 약한 에지가 잔존하기 때문에, 층 위치를 산출할 때, 휘도 정보를 이용할지, 또는 휘도가 결손되기 때문에 예를 들면, 에지 등의 휘도 정보를 이용하지 않을지를 판단한다. 구체적인 판단 수순에 대해서는, 제7 실시예의 단계 S2110에 있어서의 경우와 마찬가지이기 때문에, 그 설명을 생략한다. In step S2410, since weak edges remain in the artifact region, it is determined whether luminance information such as edges or the like is not used when calculating the position of the layer, or because luminance is lost. Since the concrete judgment procedure is the same as that in the case of step S2110 of the seventh embodiment, the description thereof is omitted.

단계 S2420에서, 휘도 이용 판단 유닛(1911)은, 단계 S2410에 있어서의 판단 결과에 따라 처리의 분기를 행한다. 즉, 층 위치를 결정할 때, 아티팩트 영역 내의 휘도 정보를 이용한다고 판단한 경우, 유닛(1911)은 화상 보정 방법 설정 유닛(1913)에 소정의 처리의 실행을 지시하는 신호를 송신한다. 한편, 유닛(1911)은, 그 영역 내의 휘도 정보를 이용하지 않는다고 판단한 경우, 보간 함수 설정 유닛(1914)에 소정의 처리의 실행을 지시하는 신호를 송신한다. In step S2420, the brightness utilization determining unit 1911 branches the processing according to the determination result in step S2410. That is, when determining that the luminance information in the artifact area is to be used when determining the floor position, the unit 1911 transmits a signal instructing the image correction method setting unit 1913 to execute a predetermined process. On the other hand, when it is determined that the luminance information in the area is not used, the unit 1911 transmits a signal instructing the interpolation function setting unit 1914 to execute the predetermined process.

단계 S2430에 있어서, 아티팩트 영역에서의 휘도값의 변환(화상 보정)을 행하기 위해 필요한 파라미터를 설정한다. 화상 보정 방법으로서는 여러가지 것이 가능하다. 본 실시예에서는, 하기의 화상 보정 방법에 있어서의 파라미터의 설정 수순을 설명한다.In step S2430, parameters necessary for performing conversion (image correction) of luminance values in the artifact region are set. As an image correction method, various things are possible. In the present embodiment, the procedure for setting parameters in the following image correction method will be described.

(i) 선형 변환에 기초한 방법(i) method based on linear transformation

(ii) 히스토그램 변환에 기초한 방법(ii) method based on histogram conversion

(iii) 층 구조를 강조하는 방법(iii) how to emphasize the layer structure

(i)의 선형 변환에 기초한 화상 보정을 행하는 경우, 아티팩트 영역 내의 최대 휘도 ImaxF, 그 영역 내의 최소 휘도 IminF, 및 트루 화상 영역 내의 최대 휘도 ImaxT를 사용해서, 선형 변환의 파라미터를 다음과 같이 설정한다.When performing image correction based on the linear transformation of (i), the parameters of the linear transformation are as follows using the maximum luminance I maxF in the artifact region, the minimum luminance I minF in the region, and the maximum luminance I maxT in the true image region. Set it up together.

Figure pct00011
Figure pct00011

여기서, y는 화상 보정 후의 아티팩트 영역의 휘도값이며, x는 화상 보정 전의 아티팩트 영역의 휘도값이다. 이 경우, 아티팩트 영역 내의 최대 휘도를 트루 화상 영역의 최대 휘도에 맞추는 화상 보정이 행해진다.Here, y is the luminance value of the artifact region after image correction, and x is the luminance value of the artifact region before image correction. In this case, image correction is performed to match the maximum luminance in the artifact region with the maximum luminance of the true image region.

(ii)의 방법에서는, 아티팩트 영역 내의 히스토그램의 특성을 트루 화상 영역의 특성에 근접시키기 위해 여러 가지 히스토그램 변환이 행해진다. 이 방법에서는, 아티팩트 영역 내의 휘도 평균 및 분산을 트루 화상 영역에서의 휘도 평균 및 분산과 각각 동일하게 되도록 조정한다. 이 경우, 아티팩트 영역에서의 휘도값의 표준 편차 Sf 및 평균값 Af, 그리고 아티팩트 영역을 제외한 화상 전체에 있어서의 휘도값의 표준 편차 St 및 평균값 At를 사용해서, 다음과 같이 화상 보정 함수의 파라미터를 설정할 수 있다.In the method of (ii), various histogram transformations are performed in order to approximate the characteristics of the histogram in the artifact region to the characteristics of the true image region. In this method, the luminance average and dispersion in the artifact area are adjusted to be the same as the luminance average and dispersion in the true image area, respectively. In this case, using the standard deviation S f and the average value A f of the luminance value in the artifact region, and the standard deviation S t and the average value A t of the luminance value in the entire image excluding the artifact region, the image correction function is as follows. You can set the parameters.

Figure pct00012
Figure pct00012

여기서, x는 보정 전의 신호이고, y는 보정 후의 신호이다.Here, x is a signal before correction and y is a signal after correction.

또한, (iii)의 방법에서는, 헤세 행렬의 고유값을 사용해서 층 구조의 강조 처리를 행하는 경우, 고유값 λ1, λ2, 및 λ31≥λ2≥λ3)에 연관된 조건식은 전술한 수학식 5에 표현된 바와 같다. 헤세 행렬은 수학식 3에 주어진 바와 같이, 다변수 함수의 2차 편미분 전체가 만드는 정사각 행렬이며, I는 화상의 농도값이다. 이 3개의 고유값으로부터 상기의 수학식 6을 사용해서 층 구조를 강조할 수 있다. ω(λst)는 층 구조 강조 처리를 위해 사용되는 가중치이며, 상기의 수학식 7과 같이 설정한다는 것을 유의한다. 그러나, 수학식 7에 있어서, 구체적인 s와 t의 값의 조합은 (s, t) = (1, 3) 또는 (2, 3)이며, γ와 α는 각각 고정값으로 설정한다.In addition, in the method of (iii), when the layer structure enhancement process is performed using the eigenvalues of the Hesse matrix, the conditional expressions associated with the eigenvalues λ 1 , λ 2 , and λ 31 ≧ λ 2 ≧ λ 3 ) Is as expressed in Equation 5 described above. The Hesse matrix is a square matrix made by the entire quadratic partial derivative of the multivariate function, as given in equation (3), where I is the density value of the image. From these three eigenvalues, Equation 6 above can be used to emphasize the layer structure. Note that ω (λ s ; λ t ) is a weight used for the layer structure enhancement process, and is set as shown in Equation 7 above. In Equation 7, however, the specific combination of values of s and t is (s, t) = (1, 3) or (2, 3), and gamma and alpha are set to fixed values, respectively.

검출 대상인 층의 두께에 따른 층 구조의 강조 처리를 행하기 위해, 층 구조 강조 처리의 전처리로서 실행되는 가우스 함수에 기초한 평활화의 파라미터 s를 다음과 같이 설정한다.In order to perform the layer structure enhancement process according to the thickness of the layer to be detected, the parameter s of smoothing based on a Gaussian function executed as a preprocess of the layer structure enhancement process is set as follows.

(i) 아티팩트 영역 주변의 층 위치에 있어서의 A-스캔 선 위의 휘도 프로파일로부터, 그 층 위치에 있어서의 층 두께를 산출한다. 이 경우, 층 위치에 있어서의 휘도값과의 차분이 소정값 이내인 선들 위의 범위를 산출하고, 그 길이를 층 두께로서 사용한다.(i) The layer thickness at the layer position is calculated from the luminance profile on the A-scan line at the layer position around the artifact region. In this case, the range over the lines whose difference with the luminance value in the layer position is within a predetermined value is calculated, and the length is used as the layer thickness.

(ii) 평활화 시에 사용되는 가우스 필터의 해상도 s의 값을 아티팩트 영역 주변의 층 두께의 값에 비례해서 설정한다.(ii) The value of the resolution s of the Gaussian filter used at the time of smoothing is set in proportion to the value of the layer thickness around the artifact region.

본 실시예에 있어서의 화상 보정의 방법은 이 방법들에 한정되지 않는다는 것을 유의한다. 예를 들면, 아티팩트 영역에서의 보정 전의 휘도값과 보정 후의 휘도값 사이에 증가 함수의 관계가 성립되고, 조절 가능한 파라미터를 포함하는 화상 보정 방법인 한, 임의의 화상 보정 방법을 사용해도 된다는 것을 유의한다. Note that the method of image correction in the present embodiment is not limited to these methods. For example, note that any image correction method may be used as long as the relationship of the increment function is established between the luminance value before correction and the luminance value after correction in the artifact region and includes an adjustable parameter. do.

단계 S2440에서는, 단계 S2430에서 설정된 화상 보정 방법에 기초하여, 화상 보정 유닛(333)은 아티팩트 영역에서의 휘도값의 변환(화상 보정)을 행하여, 층 위치를 검출하기 쉽게 한다. 또한, 단계 S2450에서, 층 결정 유닛(334)은 화상 보정 유닛(333)에 의해 화상 보정된 영역의 휘도 정보에 기초하여, 추출 대상인 층의 화상 특징을 취득하고, 이 특징점들을 연결해서 층 위치를 정의한다. 예를 들어, 망막 색소 상피층은 원래 각 A-스캔 선들 위에서 가장 휘도가 높은 영역이며, 아티팩트 영역 내에서도 휘도가 높아지기 쉽다. 따라서, 화상 보정된 영역의 각 A-스캔 선들에 있어서, 층 후보 점의 z축의 양의 방향 측에 있는 최대 휘도의 화소들을 x축 방향에서 연결함으로써 층 위치를 결정한다. In step S2440, based on the image correction method set in step S2430, the image correction unit 333 performs conversion (image correction) of the luminance value in the artifact region to make it easier to detect the layer position. Further, in step S2450, the layer determination unit 334 acquires the image feature of the layer to be extracted based on the luminance information of the region corrected by the image correction unit 333, and connects these feature points to set the layer position. define. For example, the retinal pigment epithelial layer is originally the region with the highest brightness on each of the A-scan lines, and the luminance is likely to increase even within the artifact region. Thus, in each A-scan line of the image corrected region, the layer position is determined by connecting pixels of maximum luminance on the positive direction side of the z axis of the layer candidate point in the x axis direction.

전술한 수순에 의해, 휘도 이용 판단 유닛(1911)이 아티팩트 영역 내의 휘도 정보를 이용한다고 판단한 경우의 층 위치가 결정된다. 휘도 이용 판단 유닛(1911)이 아티팩트 영역 내의 휘도 정보를 이용하지 않는다고 판단한 경우의 화상 처리 방법 결정 유닛(1910)의 처리 내용을 하기에서 설명한다. By the above-described procedure, the floor position when the luminance use determining unit 1911 determines that the luminance information in the artifact area is used is determined. The processing contents of the image processing method determination unit 1910 when the luminance use determination unit 1911 determines that the luminance information in the artifact area is not used will be described below.

단계 S2460에 있어서, 화상 처리 방법 결정 유닛(1910)은 아티팩트 영역 판정 유닛(332)에 의해 산출된 아티팩트 영역의 범위에 연관된 정보를 취득한다. 더 구체적으로는, 도 25에 있어서 아티팩트 영역의 라벨을 i라고 하면, 유닛(1910)은 아티팩트의 발생 위치 (xi, yi)와 아티팩트의 폭 Wi, 및 그 영역 근방에 있어서의 트루 화상 영역 ni에 속하는 층 후보 점의 수 di에 연관된 정보를 취득한다. 단계 S2470에서, 유닛(1910)은 아티팩트 영역 주위에 존재하는 층 후보 점 시퀀스의 요철 정도를 표현하는 지표를 산출한다. 이러한 지표는, 단계 S2120에 있어서 산출한 것과 마찬가지이기 때문에, 그 상세한 설명을 생략한다. In step S2460, the image processing method determination unit 1910 acquires information associated with the range of the artifact area calculated by the artifact area determination unit 332. More specifically, if the label of the artifact region is i in FIG. 25, the unit 1910 displays the occurrence position (x i , y i ) of the artifact, the width W i of the artifact, and a true image in the vicinity of the region. Information associated with the number d i of layer candidate points belonging to the area n i is obtained. In step S2470, the unit 1910 calculates an index representing the degree of irregularities of the layer candidate point sequence existing around the artifact area. Since such an index is the same as that computed in step S2120, the detailed description is abbreviate | omitted.

또한, 단계 S2480에서, 화상 처리 방법 결정 유닛(1910)은, 단계 S2460 및 단계 S2470에 있어서 취득된 정보로부터, 아티팩트 영역들 간의 층 후보 점 시퀀스들을 보간할 때 사용하는 보간 함수의 종류나 차수의 선택 및 보간에 사용할 층 후보 점들의 선택을 행한다.In addition, in step S2480, the image processing method determination unit 1910 selects the type or order of the interpolation function used when interpolating the layer candidate point sequences between the artifact regions from the information obtained in steps S2460 and S2470. And selection of layer candidate points to be used for interpolation.

(i) 먼저, 각 아티팩트 영역에서, 아티팩트 영역의 폭 Wi, 및 단계 S2470에서 산출된 그 영역 근방의 층 형상에 연관된 지표의 값(예를 들면, 층 후보 점들 간의 각도 θi의 통계량 등)으로부터, 보간 함수의 종류 또는 차수를 선택한다. 예를 들어, Wi가 소정값 미만이면, 선형 보간을 선택하고, 소정값 이상이면, B 스플라인 보간을 선택한다. 대안적으로, 다음의 선택 방법을 사용할 수 있다. 즉, 층 형상의 요철이 큰(θi의 평균 또는 최대값이 소정값 이상인) 경우, 보간 곡선이 제어 점들을 통과하고, B 스플라인 보간보다 더 정확한 층 위치를 산출할 수 있는 자연 스플라인 보간을 사용한다. 또한, 다음의 선택 방법을 사용할 수도 있다. 즉, 동일한 종류의 보간 함수에 대하여도, 아티팩트 영역 주변의 층 후보 점들 간의 각도 θi의 통계량(평균값, 최대값 등)의 크기에 비례해서 보간 함수의 차수를 설정한다.(i) First, in each artifact region, the width W i of the artifact region, and the value of the index associated with the layer shape in the vicinity of the region calculated in step S2470 (for example, the statistic of the angle θ i between the layer candidate points, etc.) From, select the type or order of interpolation functions. For example, if W i is less than a predetermined value, linear interpolation is selected. If W i is greater than or equal to a predetermined value, B spline interpolation is selected. Alternatively, the following selection method can be used. That is, if the layer-shaped irregularities are large (average or maximum of θ i is greater than or equal to a predetermined value), the interpolation curve passes through the control points and uses natural spline interpolation, which can yield a more accurate layer position than the B spline interpolation. do. Moreover, the following selection method can also be used. That is, for the same kind of interpolation function, the order of the interpolation function is set in proportion to the size of the statistics (average value, maximum value, etc.) of the angle θ i between the layer candidate points around the artifact region.

(ii) 그런 다음, 아티팩트 영역 내의 층 위치의 보간에 사용하는 층 후보 점들을 선택한다. 더 구체적으로는, 아티팩트 영역 i의 근방에 있어서의 트루 화상 영역 ni -1 및 ni에 속하는 층 후보 점의 수 di -1 및 di가 선택된 보간 함수에 의해 보간을 행하는데 필요한 최소 필요 수를 충족시키는지를 조사한다. 이 수들이 최소 필요 수를 충족시키면, 이 트루 화상 영역들에 속하는 층 후보 점들 중 아티팩트 영역에 가까운 층 후보 점들을 보간에 필요한 수만큼 선택한다. 한편, 이 수들이 최소 필요 수를 충족시키지 않으면, 다른 트루 화상 영역에 속하는 층 후보 점들을 선택한다. 예를 들어, 트루 화상 영역(예를 들면, 도 25의 트루 화상 영역 ni +1)에 존재하는 층 후보 점들의 수가 보간에 사용하기에 충분하지 않은 경우, 이웃 영역 ni+2의 층 후보 점들을 더 선택한다. (ii) Then, select the layer candidate points to be used for interpolation of the layer position in the artifact area. More specifically, the required minimum needed to perform the interpolation by the true image area n i -1 and n the number of candidate points belonging to the layer i d i d i -1, and the selected interpolation function in the vicinity of the artifact region i Check if the number is met. If these numbers satisfy the minimum required number, the number of layer candidate points close to the artifact area among the layer candidate points belonging to these true picture areas is selected as necessary for interpolation. On the other hand, if these numbers do not meet the minimum required number, the layer candidate points belonging to other true picture areas are selected. For example, if the number of layer candidate points present in the true picture area (eg, the true picture area n i +1 in FIG. 25) is not sufficient for interpolation, the layer candidates in the neighbor area n i + 2 . Select more points.

현재 보간하는 방향에 충분한 층 후보 점들의 수를 갖는 트루 화상 영역이 존재하지 않는 경우(예를 들면, 화상 영역의 에지에 아티팩트 영역이 존재하는 경우), 다음과 같이 층 후보 점들을 선택한다. 즉, 보간하는 방향을 보간에 이용 가능한 층 후보 점들이 충분히 존재하는 방향으로 변경하고, 그 방향에 있어서의 근방의 트루 화상 영역들에 속하는 층 후보 점들을 선택한다. 예를 들어, 도 25에 도시된 바와 같이, 아티팩트 영역이 화상의 에지에 존재하고, x 방향에 관해서 보간에 사용하는 층 후보 점의 수가 부족할 경우, 아티팩트 영역을 통과하는 y-z 평면 위의 아티팩트 영역 근방에 존재하는 트루 화상 영역의 층 후보 점들을 선택할 수 있다. 보간하는 방향의 종류로서 반드시 x축이나 y축에 평행한 방향에 한정될 필요는 없고, 보간에 이용 가능한 층 후보 점들이 충분히 존재하는 임의의 방향으로 변경해도 된다. 예를 들어, 황반부나 시신경 유두부 등에서 층 형상이 동심원 형상에 유사한 화상 특징을 갖는 경향이 있다는 사실을 고려하여, 도 25와 같이 원형 주사에 의해 생성되는 평면 위의 아티팩트 영역 근방에 존재하는 트루 화상 영역의 층 후보 점들을 선택해도 된다. 이 단계에 있어서 결정된 화상 처리 방법에 연관된 정보는 층 결정 유닛(334)에 송신된다. If there is no true image area with a sufficient number of layer candidate points in the current interpolation direction (for example, if there is an artifact area at the edge of the image area), the layer candidate points are selected as follows. That is, the interpolation direction is changed to a direction in which there are enough layer candidate points available for interpolation, and the layer candidate points belonging to the near true image regions in that direction are selected. For example, as shown in FIG. 25, when an artifact region exists at an edge of an image and the number of layer candidate points used for interpolation in the x direction is insufficient, near the artifact region on the yz plane passing through the artifact region. It is possible to select layer candidate points of the true picture area present in the. The type of the interpolation direction is not necessarily limited to the direction parallel to the x-axis or the y-axis, and may be changed to any direction in which there are sufficient layer candidate points available for interpolation. For example, in view of the fact that the layer shape tends to have image characteristics similar to concentric shapes in the macula, optic nerve head, and the like, a true image existing near the artifact area on the plane generated by circular scanning as shown in FIG. 25. The layer candidate points of the area may be selected. Information related to the image processing method determined in this step is transmitted to the floor determination unit 334.

단계 S2450에 있어서, 층 결정 유닛(334)은, 단계 S2480에서 선택된 층 후보 점들 사이를, 그 단계에서 선택된 종류의 보간 함수를 사용해서 보간함으로써, 아티팩트 영역에서의 층 위치를 결정한다. 그리고, 산출한 층 위치의 정보는 저장 유닛(320)에 출력된다. In step S2450, the layer determination unit 334 determines the floor position in the artifact region by interpolating between the layer candidate points selected in step S2480 using an interpolation function of the kind selected in that step. The calculated floor position information is then output to the storage unit 320.

전술한 수순에 의해, 본 실시예에 대응하는 아티팩트 영역용 화상 처리가 실행된다. 본 실시예에서는, 화상 처리 방법의 결정 후에 화상 보정을 실행한다는 것을 유의한다. 그러나, 화상 보정을 행하는 타이밍은 이것에 제한되지 않는다. 예를 들어, 아티팩트 영역 판정 유닛(332)에 의한 처리 후에 화상 보정 유닛(333)이 그 영역 내의 휘도의 감쇠 정도로 따라 화상 보정을 행해도 된다. 이 경우, 화상 처리 방법 결정 유닛은 화상 보정 결과를 수신하고, 휘도 이용 판단 유닛에 의한 판단 결과에 응답하여 보간 처리에 연관된 설정을 행한다. 또한, 화상 보정 방법 설정 유닛(1913)은 화상 보정 유닛(333) 내에 포함된다. By the above-described procedure, image processing for the artifact area corresponding to the present embodiment is executed. Note that in this embodiment, image correction is executed after the determination of the image processing method. However, the timing for performing image correction is not limited to this. For example, after the processing by the artifact area determining unit 332, the image correction unit 333 may perform image correction according to the degree of attenuation of the luminance in the area. In this case, the image processing method determination unit receives the image correction result and sets the setting related to the interpolation processing in response to the determination result by the luminance use determination unit. In addition, the image correction method setting unit 1913 is included in the image correction unit 333.

전술한 구성에 따르면, 화상 처리 장치(10)는 아티팩트 영역을 특정하고, 예를 들면, 아티팩트 영역 내의 에지 등의 휘도 정보를 이용할 지의 여부를 판단한다. 예를 들어, 에지 등의 휘도 정보를 이용하는 경우, 그 영역의 휘도값을 보정한 후에 층 결정 처리를 행한다. 그 정보를 이용하지 않을 경우, 아티팩트 영역의 범위 및 그 영역 주변의 층 형상에 따라 보간 처리를 행함으로써, 높은 정밀도로 층 위치를 산출할 수 있다. According to the above-described configuration, the image processing apparatus 10 specifies the artifact region and determines whether to use luminance information such as an edge in the artifact region, for example. For example, when luminance information such as an edge is used, the layer determination process is performed after correcting the luminance value of the area. When the information is not used, the layer position can be calculated with high accuracy by performing interpolation processing in accordance with the range of the artifact region and the layer shape around the region.

[제9 실시예][Example 9]

본 실시예에서는, 제7 실시예와 같이 단층상만을 사용해서 아티팩트 영역 내의 층 위치를 구하는 것 대신에, 피검안의 단층상으로부터 투영 화상을 작성하고, 투영 화상으로부터 추출한 조직이나 병변 부위의 위치 정보를 단층상 위에 역투영하여, 아티팩트 후보 영역을 좁힌다. In the present embodiment, instead of obtaining the position of the layer in the artifact region using only the tomogram as in the seventh embodiment, the projection image is created from the tomogram of the eye to be examined, and the positional information of the tissue or lesion site extracted from the projection image is obtained. Backprojection on the tomogram narrows the artifact candidate region.

본 실시예에서는, 다음의 사항들을 포괄한다.In this embodiment, the following matters are covered.

(i) 투영 화상으로부터 산출한 혈관(출혈) 영역의 위치 정보를 단층상 위에 맵핑하고, 맵핑된 영역의 주변 영역에서 아티팩트 영역의 이지 부분을 탐색 및 특정함으로써, 더 높은 정밀도로 아티팩트 영역의 범위를 산출한다.(i) Mapping the position information of the blood vessel (bleeding) region calculated from the projection image onto the tomogram, and searching and specifying the easy portion of the artifact region in the peripheral region of the mapped region, thereby increasing the range of the artifact region with higher precision. Calculate.

(ii) 아티팩트 영역 내에 잔존하는 에지 정보, 및 아티팩트 영역 주변의 층 형상의 요철도 고려하여 평가 함수에 가중치 부여를 행하여 층 모델을 적용하기 때문에, 더 정확한 층 위치를 산출할 수 있다.(ii) The layer model is applied by weighting the evaluation function in consideration of the edge information remaining in the artifact region and the unevenness of the layer shape around the artifact region, so that a more accurate floor position can be calculated.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은, 제7 실시예와 마찬가지이기 때문에, 그 설명을 생략한다. 도 26은 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 본 실시예의 화상 처리 유닛(2601)은 투영 화상 생성 유닛(335) 및 특징 추출 유닛(336)을 포함한다는 점에서, 제7 실시예의 도 19에 도시된 화상 처리 유닛(1901)과 상이하다. 나머지의 유닛들에 관해서는 도 19와 동일하기 때문에, 그 설명을 생략한다.Since the configuration of the apparatus connected to the image processing apparatus 10 according to the present embodiment is the same as that of the seventh embodiment, the description thereof is omitted. 26 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. The image processing unit 2601 of this embodiment is different from the image processing unit 1901 shown in FIG. 19 of the seventh embodiment in that it includes a projection image generating unit 335 and a feature extraction unit 336. Since the rest of the units are the same as in Fig. 19, the description thereof is omitted.

도 27에 도시된 화상 처리 수순을 참조하여, 하기에서 본 실시예의 화상 처리의 내용을 설명한다. 본 실시예의 처리는 단계 S2710, 단계 S2720, 및 단계 S2730에 있어서의 처리를 제외하고는, 제7 실시예의 도 20에 도시된 처리와 마찬가지라는 것을 유의한다. 따라서, 하기에서는, 단계 S2710, 단계 S2720, 및 단계 S2730에 있어서의 처리를 설명한다. With reference to the image processing procedure shown in FIG. 27, the contents of the image processing of the present embodiment will be described below. Note that the processing of this embodiment is the same as the processing shown in Fig. 20 of the seventh embodiment except for the processing in steps S2710, S2720, and S2730. Therefore, below, the process in step S2710, step S2720, and step S2730 is demonstrated.

단계 S2710에서, 투영 화상 생성 유닛(335)은 단층상을 투영함으로써 화상을 생성한다. 구체적인 생성 방법은, 제3 실시예의 도 11의 단계 S1110에 있어서 설명한 것과 마찬가지이기 때문에, 그 설명을 생략한다. 단계 S2720에서는, 투영 화상 생성 유닛(335)이 생성한 투영 화상으로부터 망막 혈관 등의 조직 또는 병변 부위 등의 특징을 추출한다. 구체적인 생성 방법은, 제3 실시예의 도 11의 단계 S1120에 있어서 설명한 것과 마찬가지이기 때문에, 그 설명을 생략한다. In step S2710, the projection image generating unit 335 generates an image by projecting a tomographic image. Since the specific generating method is the same as that described in step S1110 of FIG. 11 of the third embodiment, the description thereof is omitted. In step S2720, features such as tissues or lesions such as retinal blood vessels are extracted from the projected image generated by the projection image generating unit 335. Since the specific generating method is the same as that described in step S1120 of FIG. 11 of the third embodiment, the description thereof is omitted.

단계 S2730에서는, 단계 S2720에서 산출된 투영 화상 위의 혈관 영역 (x, y)를 단층상 위에 역투영하면, 도 28의 점선 영역(2801)으로 도시된 바와 같은 영역(하기에서는 역투영 영역이라고 칭함)이 얻어진다. 일반적으로, 망막 혈관의 z축의 양의 방향 측에서는 휘도값의 감쇠가 발생하기 쉽다. 따라서, 추출된 특징의 (x-y 방향의) 위치를 단층상 위에 역투영한 경우, 역투영된 점선 영역(2801)은 아티팩트 영역(5)을 포함할 가능성이 더 높다. 그러나, 잘못 추출된 영역이 역투영되는 경우에는, 역투영 영역 내에서의 휘도의 감쇠는 발생하지 않는다. 정확하게 추출된 망막 혈관 영역을 역투영한 경우이더라도, 역투영 영역 아래의 휘도 감쇠가 경미해서 층 추출에 거의 영향을 주지 않을 경우도 있다. 따라서, 역투영 영역 내에 그리고 그 영역의 경계 근방에 아티팩트가 발생하는지 여부를 판정한다. 아티팩트 영역이 발생하는 경우, 그 영역 내에서의 휘도값에 연관된 통계량을 산출한다.In step S2730, if the blood vessel area (x, y) on the projection image calculated in step S2720 is back projected on a tomogram, an area as shown by the dotted area 2801 in Fig. 28 (hereinafter referred to as a reverse projection area). ) Is obtained. In general, attenuation of the luminance value tends to occur on the positive side of the z axis of the retinal blood vessel. Therefore, when the projected position (in the x-y direction) of the extracted feature is back projected onto the tomogram, the back projected dotted area 2801 is more likely to include the artifact area 5. However, when the wrongly extracted region is back projected, the attenuation of the luminance in the back projected region does not occur. Even in the case of retroprojection of the correctly extracted retinal blood vessel region, there is a case that the luminance attenuation under the reverse projection region is slight and thus hardly affects layer extraction. Thus, it is determined whether artifacts occur in the reverse projection area and near the boundary of the area. When an artifact region occurs, a statistic associated with a luminance value within that region is calculated.

아티팩트 영역의 판정 방법은, 연결도의 산출 대상이 되는 층 후보 점들의 범위를 제외하고는, 기본적으로 제1 실시예의 단계 S610 내지 S640에 있어서의 방법과 같다. 더 구체적으로, 연결도의 산출 처리를 모든 층 후보 점에 대해서 실행하는 것이 아니고, 역투영 영역 내부 및 그 영역의 x-y 방향에 관한 근방에 있어서 실행한다. The determination method of the artifact region is basically the same as the method in steps S610 to S640 of the first embodiment except for the range of the layer candidate points to be calculated for the connection degree. More specifically, the calculation of the degree of connection is not performed for all the layer candidate points, but in the vicinity of the reverse projection area and the x-y direction of the area.

전술한 구성에 따르면, 단층상과 투영 화상을 사용해서 아티팩트 영역을 특정하고, 그 영역 주변의 층 형상뿐만 아니라, 그 영역 내의 에지 정보도 고려하여 평가 함수에 가중치 부여를 행하여 층 모델을 적용함으로써, 높은 정밀도로 층 위치를 산출할 수 있다. According to the above-described configuration, by specifying an artifact region using a tomographic image and a projected image, and applying a layer model by weighting the evaluation function in consideration of not only the layer shape around the region but also the edge information in the region, The floor position can be calculated with high precision.

[제10 실시예][Example 10]

본 실시예는, 제9 실시예에 있어서, 휘도 이용 판단 유닛에 의한 판단 후, 예를 들면, 에지 등의 휘도 정보를 이용하는 경우, 아티팩트 영역의 화상 보정을 행한 후에 층 위치를 산출하고, 그 정보를 이용하지 않는 경우, 보간 처리에 의해 층 위치를 산출한다. In the ninth embodiment, after determining by the luminance use determining unit, in the case of using luminance information such as an edge, for example, the layer position is calculated after image correction of the artifact region is performed, and the information. If not used, the floor position is calculated by interpolation.

본 실시예는 다음의 사항들을 포괄한다.This embodiment encompasses the following.

(i) 투영 화상으로부터 산출한 혈관(출혈) 영역의 위치 정보를 단층상 위에 맵핑하고, 맵핑된 영역의 주변 영역에서 아티팩트 영역의 에지 부분을 탐색 및 특정함으로써, 더 높은 정밀도로 아티팩트 영역의 범위를 산출한다.(i) Mapping the position information of the blood vessel (bleeding) region calculated from the projection image onto the tomogram, and searching and specifying the edge portion of the artifact region in the peripheral region of the mapped region, thereby increasing the range of the artifact region with higher precision. Calculate.

(ii) 예를 들면, 혈관 등 감쇠된 에지 등의 정보가 잔존하는 영역에서는, 휘도값을 변환한 후에 층 위치를 검출함으로써, 더 정확하게 층 위치를 산출한다.(ii) For example, in an area where information such as attenuated edges such as blood vessels remains, the floor position is more accurately calculated by detecting the floor position after converting the luminance value.

(iii) 휘도가 결손되어, 예를 들면, 에지 등의 휘도 정보를 이용할 수 없는 영역에서는, 아티팩트 영역의 발생 위치 및 주위의 층 형상 등을 고려하여 주위의 층 위치들을 보간함으로써, 더 정확하게 층 위치를 산출한다. (iii) In an area where luminance is missing and no luminance information such as an edge is available, for example, the position of the layer is more accurately determined by interpolating the surrounding layer positions in consideration of the occurrence position of the artifact region and the shape of the surrounding layer. Calculate

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은 제9 실시예와 마찬가지이기 때문에, 그 설명을 생략한다. 도 29는 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 본 실시예의 화상 처리 유닛(2901)은 레지스트레이션 유닛(337)을 더 포함하고, 화상 처리 방법 결정 유닛(1910)은, 평가 함수 설정 유닛(1912) 대신 화상 보정 방법 설정 유닛(1913) 및 보간 함수 설정 유닛(1914)을 포함한다는 점에서, 제9 실시예와 상이하다. 하기에서는, 도 24 및 도 27에 도시된 화상 처리 수순을 참조하여, 본 실시예에서의 화상 처리의 내용을 설명한다. 단계 S2020 이외의 처리는 제9 실시예의 경우와 마찬가지라는 것을 유의한다. 그러므로, 하기에서는 단계 S2020의 처리만 설명하고, 다른 단계의 설명을 생략한다. Since the configuration of the apparatus connected to the image processing apparatus 10 according to the present embodiment is the same as that of the ninth embodiment, the description thereof is omitted. 29 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. The image processing unit 2901 of the present embodiment further includes a registration unit 337, and the image processing method determination unit 1910 sets the image correction method setting unit 1913 and the interpolation function instead of the evaluation function setting unit 1912. It differs from the ninth embodiment in that it includes a unit 1914. In the following, the contents of the image processing in the present embodiment will be described with reference to the image processing procedures shown in FIGS. 24 and 27. Note that processing other than step S2020 is the same as that in the ninth embodiment. Therefore, only the process of step S2020 is described below, and description of other steps is omitted.

단계 S2020에 있어서, 아티팩트 영역의 화상 처리를 행한다. 이 단계에 있어서의 처리는, 제8 실시예의 도 24의 단계 S2410 내지 S2480의 경우와 마찬가지이기 때문에, 그 상세한 설명을 생략한다. In step S2020, the image processing of the artifact area is performed. Since the processing in this step is the same as in the case of steps S2410 to S2480 in Fig. 24 of the eighth embodiment, detailed description thereof is omitted.

전술한 구성에 따르면, 화상 처리 장치(10)는 단층상 및 투영 화상을 사용해서 아티팩트 영역을 특정하고, 그 영역 내의, 예를 들면, 에지 등의 휘도 정보를 이용할 지의 여부를 판단한다. 그 정보를 이용하는 경우에는 그 영역의 휘도값을 보정한 후에 층 결정 처리를 행한다. 그 정보를 이용하지 않을 경우, 아티팩트 영역의 범위 및 그 영역 주변의 층 형상에 따라 보간 처리를 행함으로써, 높은 정밀도로 층 위치를 산출할 수 있다. According to the above-described configuration, the image processing apparatus 10 specifies an artifact region by using tomographic images and a projected image, and determines whether to use luminance information such as an edge in the region. When the information is used, the layer determination process is performed after correcting the luminance value of the area. When the information is not used, the layer position can be calculated with high accuracy by performing interpolation processing in accordance with the range of the artifact region and the layer shape around the region.

[제11 실시예][Example 11]

본 실시예는, 제9 실시예에 대하여, 피검안의 표면 화상 및 투영 화상 중 적어도 한쪽으로부터 추출한 조직이나 병변 부위의 위치 정보를 단층상 위에 역투영하여, 미리 아티팩트 후보 영역을 좁히는 처리를 추가한 것이다. This embodiment adds a process of narrowing the artifact candidate region in advance by backprojecting on a tomogram the position information of a tissue or a lesion site extracted from at least one of the surface image and the projected image of the eye to be examined in relation to the ninth embodiment. .

본 실시예는, 다음의 사항들을 포괄한다.This embodiment encompasses the following matters.

(i) 백반과 같이 표면 화상으로부터 추출하기 쉬운 병변 부위가 발생하는 경우, 표면 화상으로부터 백반 영역을 추출하고, 그 위치 정보를 단층상 위에 맵핑하고, 그 영역의 주변 영역에서 아티팩트 영역의 에지 부분을 탐색 및 특정함으로써, 더 높은 정밀도로 아티팩트 영역의 범위를 산출할 수 있다.(i) When a lesion site occurs that is easy to extract from the surface image, such as alum, the alum region is extracted from the surface image, the positional information is mapped onto the tomogram, and the edge portion of the artifact region in the peripheral region of the region is extracted. By searching and specifying, a range of artifact regions can be calculated with higher precision.

(ii) 아티팩트 영역 내에 잔존하는 에지 정보 및 아티팩트 영역 주변의 층 형상의 요철을 고려하여 평가 함수의 가중치 부여를 행하여 층 모델을 적용함으로써, 더 정확한 층 위치를 산출할 수 있다.(ii) A more accurate floor position can be calculated by applying a layer model by weighting an evaluation function in consideration of the edge information remaining in the artifact region and the irregularities of the layer shape around the artifact region.

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은, 도 14에 도시된 표면 화상 촬상 장치(50)를 추가로 포함한다는 점에서, 제9 실시예와 상이하다. 또한, 본 실시예에 따른 화상 처리 장치(10)는, 도 30에 도시된 바와 같이, 화상 처리 유닛(3001)이 표면 화상 취득 유닛(315)을 포함한다는 점에서, 제9 실시예와 상이하다.  The configuration of the device connected to the image processing apparatus 10 according to the present embodiment is different from that of the ninth embodiment in that the apparatus further includes the surface image pickup device 50 shown in FIG. 14. The image processing apparatus 10 according to the present embodiment is different from the ninth embodiment in that the image processing unit 3001 includes the surface image acquisition unit 315 as shown in FIG. 30. .

하기에서는, 도 31에 도시된 화상 처리 수순을 참조하여, 본 실시예에서의 화상 처리의 내용을 설명한다. 단계 S3110 내지 S3150 이외의 처리는 제9 실시예의 경우와 마찬가지이기 때문에, 그 설명을 생략한다는 것을 유의한다. 또한, 단계 S3110 내지 S3140에 대해서는, 전술한 제5 실시예의 단계 S1610 내지 S1640과 마찬가지이기 때문에, 그 설명을 생략한다. In the following, the contents of the image processing in the present embodiment will be described with reference to the image processing procedure shown in FIG. Note that processing other than steps S3110 to S3150 is the same as that in the ninth embodiment, and therefore description thereof is omitted. Incidentally, the steps S3110 to S3140 are the same as those of the steps S1610 to S1640 of the fifth embodiment described above, and thus description thereof is omitted.

또한, 단계 S3150에서는 아티팩트 영역에서의 화상 처리를 행한다. 이 단계에 있어서의 처리는, 기본적으로 제7 실시예의 단계 S2110 내지 S2140의 경우와 마찬가지이다. 그러나, 본 실시예에서는, 단계 S2130에 있어서, 안저 화상으로부터 얻어지는 정보도 사용해서 화상 처리 파라미터의 설정을 행해도 된다. 예를 들어, 안저 화상 위에서 백반의 휘도가 매우 높은 경우, 단층상 위에서도 백반 영역의 z축의 양의 방향 측에서 휘도가 더 감쇠할 가능성이 높아지기 때문에, 백반 영역의 휘도 신호값에 비례해서 형상에 연관된 평가 함수의 가중치를 증가시킨다. 백반 영역의 휘도 신호값으로서, 안저 화상 위의 그 영역의 화소값을 직접 참조해도 되고, 또는 모폴로지 연산 등의 처리 결과로서 얻어지는 영역의 값들(다치 데이터)을 참조해도 된다.In step S3150, image processing is performed in the artifact region. The processing in this step is basically the same as in the case of steps S2110 to S2140 of the seventh embodiment. However, in this embodiment, in step S2130, the image processing parameters may be set using information obtained from the fundus image. For example, when the brightness of the alum is very high on the fundus image, the possibility of attenuation is further increased in the positive direction of the z-axis of the alum area even on a tomogram, so that the shape is proportional to the luminance signal value of the alum area. Increase the weight of the evaluation function. As the luminance signal value of the alum area, the pixel value of the area on the fundus image may be directly referred to, or values of the area (multi-value data) obtained as a result of processing such as morphology calculation may be referred.

전술한 구성에 따르면, 표면 화상 및 투영 화상을 사용해서 특정된 아티팩트 영역에서, 그 영역 주변의 층 형상뿐만 아니라, 그 영역 내의 휘도 정보도 고려하여 평가 함수에 가중치 부여를 행하여 층 모델을 적용함으로써, 높은 정밀도로 층 위치를 산출할 수 있다. According to the above-described configuration, in the artifact region specified by using the surface image and the projection image, by applying the layer model by weighting the evaluation function in consideration of not only the layer shape around the region but also the luminance information in the region, The floor position can be calculated with high precision.

[제12 실시예][Twelfth Example]

본 실시예에서는, 제11 실시예에 있어서, 휘도 이용 판단 유닛에 의한 판단 후에, 예를 들면, 에지 등의 휘도 정보를 이용하는 경우, 아티팩트 영역의 화상 보정을 행한 다음 층 위치를 결정하고, 그 정보를 이용하지 않을 경우, 보간 처리에 의해 층 위치를 산출한다. In the present embodiment, in the eleventh embodiment, after determining by the luminance use determining unit, in the case of using luminance information such as an edge, for example, the layer position is determined after image correction of the artifact region is performed, and the information is determined. If not used, the floor position is calculated by interpolation.

본 실시예에서는, 특히 백반에 의해 아티팩트가 발생하는 경우에 있어서, 다음의 사항들을 포괄한다. In the present embodiment, the following items are included, especially when artifacts are caused by alum.

(i) 표면 화상으로부터 산출한 백반 영역의 위치 정보를 단층상 위에 맵핑하고, 그 맵핑된 영역의 주변에서 아티팩트 영역의 에지 부분을 탐색 및 특정함으로써, 더 높은 정밀도로 아티팩트 영역의 범위를 산출한다.(i) By mapping the positional information of the alum area calculated from the surface image onto the tomogram and searching and specifying the edge portion of the artifact area in the periphery of the mapped area, the range of the artifact area is calculated with higher precision.

(ii) 예를 들면, 혈관 등, 감쇠된 에지의 정보가 잔존하는 영역에서는, 휘도값을 변환한 후에 층 위치를 검출함으로써, 더 정확하게 층 위치를 산출한다.(ii) For example, in a region where information of the attenuated edge, such as a blood vessel, remains, the floor position is more accurately calculated by detecting the floor position after converting the luminance value.

(iii) 휘도가 결손되어, 예를 들면, 에지 등의 휘도 정보를 이용할 수 없는 영역에서는, 아티팩트 영역의 발생 위치 및 주위의 층 형상 등을 고려하여 주위의 층 위치들을 보간함으로써, 더 정확하게 층 위치를 산출한다. (iii) In an area where luminance is missing and no luminance information such as an edge is available, for example, the position of the layer is more accurately determined by interpolating the surrounding layer positions in consideration of the occurrence position of the artifact region and the shape of the surrounding layer. Calculate

본 실시예에 따른 화상 처리 장치(10)에 접속되는 장치의 구성은, 제11 실시예와 마찬가지이기 때문에, 그 설명을 생략한다. 도 32는 본 실시예에 따른 화상 처리 장치(10)의 기능 블록도이다. 본 실시예에서는, 화상 처리 방법 결정 유닛(1910)이, 평가 함수 설정 유닛(1912) 대신 화상 보정 방법 설정 유닛(1913) 및 보간 함수 설정 유닛(1914)을 포함한다는 점에서, 제5 실시예와 상이하다. 또한, 본 실시예에 있어서의 화상 처리 수순도 기본적으로는 제11 실시예와 마찬가지이다. 그러나, 단계 S3150의 처리는 다음과 같이 실행된다. Since the configuration of the apparatus connected to the image processing apparatus 10 according to the present embodiment is the same as that of the eleventh embodiment, the description thereof is omitted. 32 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. In the present embodiment, the image processing method determination unit 1910 includes the image correction method setting unit 1913 and the interpolation function setting unit 1914 instead of the evaluation function setting unit 1912. It is different. In addition, the image processing procedure in this embodiment is basically the same as that of the eleventh embodiment. However, the process of step S3150 is executed as follows.

그러나, 단계 S3150에서 실행되는 처리도 제10 실시예와 마찬가지의 수순을 갖는다. 즉, 도 24에 도시된 바와 같이, 예를 들면, 아티팩트 영역 내의 에지 등의 휘도 정보를 이용할 지의 여부를 판단한다. 그 정보를 이용하는 경우, 그 영역의 휘도값을 보정한 후에 층 결정 처리를 행한다. 그 정보를 이용하지 않을 경우, 그 영역의 범위 및 그 영역 주변의 층 형상에 따라 보간 함수의 종류 및 파라미터를 설정하고, 보간 처리를 행한다.However, the processing executed in step S3150 also has the same procedure as in the tenth embodiment. That is, as shown in Fig. 24, for example, it is determined whether or not luminance information such as an edge in the artifact area is used. In the case of using this information, the layer determination process is performed after correcting the luminance value of the area. When the information is not used, the type and parameters of the interpolation function are set according to the range of the area and the layer shape around the area, and the interpolation process is performed.

전술한 구성에 따르면, 표면 화상 및 투영 화상을 사용해서 특정된 아티팩트 영역에서, 그 영역 내의, 예를 들면, 에지 등의 휘도 정보를 이용할지 여부를 판단한다. 그 정보를 이용하는 경우, 그 영역의 휘도값을 보정한 후 층 결정 처리를 행한다. 그 정보를 이용하지 않을 경우, 아티팩트 영역의 범위 및 그 영역 주변의 층 형상에 따라 보간 처리를 행한다. 이에 의해, 높은 정밀도로 층 위치를 산출할 수 있다. According to the above-described configuration, it is determined whether or not luminance information in the area, for example, an edge, is used in the artifact area specified using the surface image and the projection image. When the information is used, the layer determination process is performed after correcting the luminance value of the area. When the information is not used, interpolation is performed in accordance with the range of the artifact area and the layer shape around the area. Thereby, a layer position can be calculated with high precision.

[다른 실시예] [Other Embodiments]

전술한 실시예는 본 발명을 화상 처리 장치로서 실현한다. 그러나, 본 발명의 실시예는 화상 처리 장치만에 한정되는 것이 아니라, 컴퓨터의 CPU에 의해 실행될 때 그 기능을 실현하는 소프트웨어로서 실현해도 된다. The above embodiment realizes the present invention as an image processing apparatus. However, the embodiment of the present invention is not limited to the image processing apparatus but may be implemented as software for realizing the function when executed by the CPU of the computer.

도 33은 화상 처리 장치(10)의 각 유닛들의 기능을 소프트웨어로서 실현하기 위해 이용되는 컴퓨터의 기본 구성을 도시하는 블록도이다. CPU(3301)는, RAM(3302) 및 ROM(3303)에 저장된 프로그램 및 데이터를 사용해서 컴퓨터 전체의 제어를 행한다. 또한, CPU(3301)는 화상 처리 장치(10)의 각 유닛들에 대응하는 소프트웨어 프로그램의 실행을 제어하여, 각 유닛들의 기능을 실현한다. RAM(3302)은, 외부 저장 디바이스(3304)로부터 로드된 컴퓨터 프로그램 및 데이터를 일시적으로 저장하는 에리어를 포함하고, 또한 CPU(3301)가 각종 처리를 행하기 위해 필요한 워크 에리어를 포함한다. 저장 유닛(320)의 기능은 RAM(3302)에 의해 실현된다.33 is a block diagram showing the basic configuration of a computer used for realizing the functions of the units of the image processing apparatus 10 as software. The CPU 3301 uses the programs and data stored in the RAM 3302 and the ROM 3303 to control the entire computer. In addition, the CPU 3301 controls the execution of a software program corresponding to each unit of the image processing apparatus 10 to realize the functions of the respective units. The RAM 3302 includes an area for temporarily storing computer programs and data loaded from the external storage device 3304, and also includes a work area necessary for the CPU 3301 to perform various processes. The function of the storage unit 320 is realized by the RAM 3302.

ROM(3303)은 일반적으로 컴퓨터의 BIOS 및 설정 데이터 등을 저장한다. 외부 저장 디바이스(3304)는 하드디스크 드라이브 등의 대용량 정보 저장 장치로서 기능하며, 오퍼레이팅 시스템 및 CPU(3301)가 실행하는 프로그램 등을 저장한다. 외부 저장 디바이스(3304)는 본 실시예의 설명에 있어서 주어지는 정보를 저장하고, 그러한 정보는 필요에 따라 RAM(3302)에 로드된다. 모니터(3305)는, 예를 들면, 액정 디스플레이 등에 의해 구성된다. 예를 들어, 모니터(3305)는 표시 유닛(340)이 출력하는 내용을 표시할 수 있다. The ROM 3303 generally stores the computer's BIOS, setting data, and the like. The external storage device 3304 functions as a mass information storage device such as a hard disk drive, and stores an operating system, a program executed by the CPU 3301, and the like. The external storage device 3304 stores information given in the description of this embodiment, and such information is loaded into the RAM 3302 as needed. The monitor 3305 is comprised by a liquid crystal display etc., for example. For example, the monitor 3305 may display the content output from the display unit 340.

키보드(3306) 및 마우스(3307)는 입력 디바이스이다. 조작자는 이 입력 디바이스들을 사용하여, 각종 지시를 화상 처리 장치(10)에 입력할 수 있다. 인터페이스(3308)는, 화상 처리 장치(10)와 외부 장치 사이에서 각종 데이터의 교환을 행하기 위해 사용되고, 예를 들면, IEEE1394, USB, 또는 Ethernet? 포트 등으로 구성된다. 인터페이스(3308)를 통해 취득된 데이터는 RAM(3302)에 페치된다. 단층상 취득 유닛(310) 및 결과 출력 유닛(350)의 기능은 인터페이스(3308)를 통해 실현된다. 전술한 각 구성 요소들은 버스(3309)에 의해 상호 접속된다. The keyboard 3306 and mouse 3307 are input devices. The operator can input various instructions to the image processing apparatus 10 using these input devices. The interface 3308 is used to exchange various data between the image processing apparatus 10 and an external device, and is composed of, for example, an IEEE1394, USB, or Ethernet? Port. Data obtained via the interface 3308 is fetched into the RAM 3302. The functions of the tomographic acquisition unit 310 and the result output unit 350 are realized via the interface 3308. Each of the above-described components are interconnected by a bus 3309.

본 발명의 특징들은, 전술한 실시예(들)의 기능들을 수행하기 위해 메모리 디바이스에 기록된 프로그램을 판독하여 실행하는 시스템 또는 장치의 컴퓨터(또는 CPU 또는 MPU 등과 같은 디바이스들)에 의해 구현될 수도 있고, 또한 전술한 실시예(들)의 기능들을 수행하기 위해 메모리 디바이스에 기록된 프로그램을 판독하여 실행하는, 예를 들면, 시스템 또는 장치의 컴퓨터에 의해 수행되는 단계들을 포함하는 방법에 의해 구현될 수도 있다. 이를 위해, 프로그램은, 예를 들면, 네트워크를 통해 또는 메모리 디바이스로서 기능하는 다양한 종류의 인쇄 매체(예를 들면, 컴퓨터 판독가능 매체)로부터 컴퓨터에 제공된다. Features of the present invention may be implemented by a computer (or devices such as a CPU or MPU, etc.) of a system or apparatus that reads and executes a program recorded in a memory device to perform the functions of the above-described embodiment (s). And to be implemented by a method comprising, for example, steps performed by a computer of a system or apparatus, for reading and executing a program recorded in a memory device to perform the functions of the above-described embodiment (s). It may be. To this end, the program is provided to the computer from various kinds of print media (eg, computer readable media), for example, functioning via a network or as a memory device.

본 발명은 예시적인 실시예들을 참조하여 설명되었지만, 본 발명은 개시된 예시적인 실시예들로 한정되지 않는다는 것을 이해할 것이다. 하기의 청구항들의 범위는 그러한 변경 및 등가의 구조와 기능을 모두 포괄하도록 최광의의 해석에 따라야 한다. While the invention has been described with reference to exemplary embodiments, it will be understood that the invention is not limited to the disclosed exemplary embodiments. The scope of the following claims is to be accorded the broadest interpretation so as to encompass all such modifications and equivalent structures and functions.

본 출원은 2009년 6월 2일자로 출원된 일본 특허 출원 제2009-133455호의 우선권을 주장하며, 그 전체 내용이 본 명세서에 참조로 포괄된다.This application claims the priority of Japanese Patent Application No. 2009-133455, filed June 2, 2009, the entire contents of which are incorporated herein by reference.

Claims (13)

피검안(eye to be examined)을 단층상 촬상 장치에 의해 촬상해서 얻어진 단층상(tomogram)의 화상을 처리하는 화상 처리 장치로서,
상기 단층상으로부터 상기 피검안의 망막의 층 후보들을 검출하는 층 후보 검출 수단,
상기 층 후보들을 이용해서 얻어진 화상 특징에 기초하여 상기 단층상에 있어서의 아티팩트(artifact) 영역을 판정하는 아티팩트 영역 판정 수단, 및
상기 아티팩트 영역 판정 수단의 판정 결과와 상기 영역에서의 화상 특징에 기초하여 상기 아티팩트 영역에서의 휘도값을 보정하는 화상 보정 수단을 포함하는, 화상 처리 장치.
An image processing apparatus for processing a tomogram image obtained by imaging an eye to be examined with a tomography imaging device,
Layer candidate detection means for detecting layer candidates of the retina of the eye to be examined from the tomogram,
Artifact area determination means for determining an artifact area on the tomographic layer based on an image characteristic obtained by using the layer candidates, and
And image correction means for correcting the luminance value in the artifact region based on the determination result of the artifact region determination means and the image characteristic in the region.
제1항에 있어서,
상기 화상 보정 수단에 의해 보정된 상기 아티팩트 영역에서의 휘도값에 기초하여 상기 아티팩트 영역에서 상기 망막의 층의 위치를 결정하는 층 결정 수단을 더 포함하는, 화상 처리 장치.
The method of claim 1,
And layer determination means for determining the position of the layer of the retina in the artifact region based on the luminance value in the artifact region corrected by the image correction means.
제2항에 있어서,
상기 층의 위치의 결정에 있어서, 상기 아티팩트 영역에서의 휘도값을 이용할지 여부를, 휘도값의 크기에 기초하여 판단하는 휘도 이용 판단 수단을 더 포함하고,
상기 휘도 이용 판단 수단이 휘도값을 이용한다고 판단한 경우, 상기 층 결정 수단은 휘도값을 이용하여 상기 층의 위치의 결정 처리를 행하고,
상기 휘도 이용 판단 수단이 휘도값을 이용하지 않는다고 판단한 경우, 상기 층 결정 수단은, 상기 아티팩트 영역의 근방의 층 후보들을 이용해서 보간 처리를 행하여 상기 층의 위치를 결정하는, 화상 처리 장치.
The method of claim 2,
Further comprising luminance use determining means for determining whether to use the luminance value in the artifact region based on the magnitude of the luminance value in determining the position of the layer,
If it is determined that the luminance use determining means uses the luminance value, the layer determination means performs the determination processing of the position of the layer using the luminance value,
And the layer determining means determines the position of the layer by performing interpolation using the layer candidates in the vicinity of the artifact area when it is determined that the luminance use determining means does not use the luminance value.
피검안을 단층상 촬상 장치에 의해 촬상해서 얻어진 단층상의 화상을 처리하는 화상 처리 장치로서,
상기 단층상으로부터 상기 피검안의 망막의 층 후보들을 검출하는 층 후보 검출 수단,
상기 층 후보들을 이용해서 얻어진 화상 특징에 기초하여 상기 단층상에 있어서의 아티팩트 영역을 판정하는 아티팩트 영역 판정 수단, 및
상기 아티팩트 영역 판정 수단의 판정 결과에 기초하여 상기 아티팩트 영역에서 상기 망막의 층의 위치를 결정하는 층 결정 수단을 포함하고,
상기 층 결정 수단은, 상기 아티팩트 영역에 포함된 층 형상을 특정하기 위해 이용되며 복수의 제어 점에 의해 정의되는 형상 모델을 이용하고, 상기 형상 모델의 형상에 연관된 평가 함수와, 상기 제어 점의 근방에 있어서의 휘도값에 연관된 평가 함수에 기초하여 상기 층의 위치를 결정하는, 화상 처리 장치.
As an image processing apparatus which processes a tomographic image obtained by imaging an eye to be examined by a tomographic imaging device,
Layer candidate detection means for detecting layer candidates of the retina of the eye to be examined from the tomogram,
Artifact region determination means for determining an artifact region on the tomographic layer based on an image characteristic obtained by using the layer candidates, and
Layer determination means for determining the position of the layer of the retina in the artifact region based on the determination result of the artifact region determination means,
The layer determining means uses a shape model that is used to specify a layer shape included in the artifact region and is defined by a plurality of control points, and an evaluation function associated with the shape of the shape model, and the vicinity of the control point. And determine the position of the layer based on an evaluation function associated with a luminance value in.
제4항에 있어서,
상기 층 결정 수단은, 상기 아티팩트 영역 내의 화소의 휘도값이 낮아질수록 상기 휘도값에 연관된 평가 함수의 가중치가 커지도록 상기 휘도값에 연관된 평가 함수의 가중치를 결정하거나, 상기 아티팩트 영역 내의 화소의 휘도값과, 상기 단층상에 있어서의 상기 아티팩트 영역 이외의 화소의 휘도값 간의 비율에 따라 상기 평가 함수의 가중치를 결정하고,
상기 층 결정 수단은, 상기 아티팩트 영역의 근방에 있어서의 층 후보들에 의해 특정되는 층의 형상의 요철의 정도에 따라, 상기 요철의 정도가 커질수록 가중치를 작게 하도록 상기 형상에 연관된 평가 함수의 가중치를 결정하는, 화상 처리 장치.
The method of claim 4, wherein
The layer determining means determines the weight of the evaluation function associated with the brightness value so that the weight of the evaluation function associated with the brightness value increases as the brightness value of the pixel in the artifact area becomes lower, or the brightness value of the pixel in the artifact area. And a weight of the evaluation function according to a ratio between luminance values of pixels other than the artifact region on the tomography layer,
The layer determining means determines the weight of the evaluation function associated with the shape so that the weight decreases as the degree of the unevenness increases as the degree of the unevenness of the shape of the layer specified by the layer candidates in the vicinity of the artifact region increases. The image processing apparatus to determine.
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 층 후보들을 이용해서 얻어진 화상 특징은 상기 층 후보들 사이의 연결도(continuity)를 포함하고,
상기 아티팩트 영역 판정 수단은, 상기 연결도가 낮고 비연결된 것으로 판정되는 층 후보를 상기 아티팩트 영역의 에지 점으로서 가지도록, 상기 단층상에 있어서의 아티팩트 영역을 판정하는, 화상 처리 장치.
The method according to any one of claims 1 to 5,
A picture characteristic obtained using the layer candidates includes a continuity between the layer candidates,
And the artifact region determining means determines an artifact region on the tomographic layer so as to have, as an edge point of the artifact region, a layer candidate determined to be low in connection and unconnected.
제6항에 있어서,
상기 아티팩트 영역 판정 수단은, 비연결된 것으로서 판정되는 2개의 층 후보 중에서, 각각의 층 후보보다 심도가 더 깊은 영역에서의 휘도값이 낮은 층 후보를 상기 아티팩트 영역의 에지 점으로서 이용하는, 화상 처리 장치.
The method of claim 6,
And the artifact region determining means uses, as an edge point of the artifact region, a layer candidate having a lower luminance value in an area deeper than each layer candidate among two layer candidates determined as unconnected.
제1항 내지 제7항 중 어느 한 항에 있어서,
상기 층 후보들을 이용해서 얻어진 화상 특징은, 2개의 층 후보에 의해 특정되는 영역들 내의 화소들의 휘도값들 간의, 상기 단층상의 A-스캔 방향에 직교하는 방향에 있어서의 차분을 포함하고,
상기 아티팩트 영역 판정 수단은, A-스캔 방향에 있어서의 복수의 휘도 프로파일 간의 차이의 정도에 기초하여 상기 단층상에 있어서의 상기 아티팩트 영역을 판정하는, 화상 처리 장치.
The method according to any one of claims 1 to 7,
An image characteristic obtained using the layer candidates includes a difference in the direction orthogonal to the A-scan direction on the tomography between the luminance values of the pixels in the regions specified by the two layer candidates,
And the artifact region determining means determines the artifact region on the tomographic layer based on the degree of difference between the plurality of luminance profiles in the A-scan direction.
제1항 내지 제8항 중 어느 한 항에 있어서,
상기 단층상의 각 화소를 상기 망막의 심도 방향에 대응하는 상기 단층상의 A-스캔 방향에서 가산하여 투영 화상을 생성하는 투영 화상 생성 수단, 및
상기 투영 화상으로부터, 상기 피검안 내의 생체 조직 및 병변 부위 중 하나 이상을 포함하는 특징 영역을 추출하는 특징 추출 수단을 더 포함하고,
상기 아티팩트 영역 판정 수단은 상기 특징 영역 및 상기 특징 영역의 근방에서 상기 아티팩트 영역을 판정하는, 화상 처리 장치.
The method according to any one of claims 1 to 8,
Projection image generating means for adding the respective pixels on the tomography in the A-scan direction on the tomography corresponding to the depth direction of the retina to generate a projection image, and
Further comprising feature extracting means for extracting from said projected image a feature region comprising at least one of biological tissue and a lesion site in said eye,
And the artifact area determining means determines the artifact area in the vicinity of the feature area and the feature area.
제9항에 있어서,
상기 특징 추출 수단은, 상기 피검안을 촬상해서 얻어진 표면 화상으로부터 특징 영역을 또한 추출하고,
상기 아티팩트 영역 판정 수단은, 상기 표면 화상으로부터 추출된 특징 영역을 또한 이용해서 상기 아티팩트 영역을 판정하는, 화상 처리 장치.
10. The method of claim 9,
The feature extraction means further extracts a feature region from the surface image obtained by imaging the eye to be examined,
And the artifact region determining means determines the artifact region further using the feature region extracted from the surface image.
피검안을 단층상 촬상 장치에 의해 촬상해서 얻어진 단층상의 화상을 처리하는 화상 처리 장치의 제어 방법으로서,
상기 단층상으로부터 상기 피검안의 망막의 층 후보들을 검출하도록 층 후보 검출 수단을 제어하는 층 후보 검출 단계,
상기 층 후보들을 이용해서 얻어진 화상 특징에 기초하여 상기 단층상에 있어서의 아티팩트 영역을 판정하도록 아티팩트 영역 판정 수단을 제어하는 아티팩트 영역 판정 단계, 및
상기 아티팩트 영역 판정 단계의 판정 결과와 그 영역에서의 화상 특징에 기초하여 상기 아티팩트 영역에서의 휘도값을 보정하도록 화상 보정 수단을 제어하는 화상 보정 단계를 포함하는, 화상 처리 장치의 제어 방법.
As a control method of the image processing apparatus which processes the tomographic image obtained by image | photographing the to-be-tested eye with a tomographic imaging device,
A layer candidate detecting step of controlling layer candidate detecting means to detect layer candidates of the retina of the eye to be examined from the tomography,
An artifact area determining step of controlling an artifact area determining means to determine an artifact area on the tomographic layer based on an image feature obtained by using the layer candidates, and
And an image correction step of controlling the image correction means to correct the luminance value in the artifact area based on the determination result of the artifact area determination step and the image characteristic in the area.
피검안을 단층상 촬상 장치에 의해 촬상해서 얻어진 단층상의 화상을 처리하는 화상 처리 장치의 제어 방법으로서,
상기 단층상으로부터 상기 피검안의 망막의 층 후보들을 검출하도록 층 후보 검출 수단을 제어하는 층 후보 검출 단계,
상기 층 후보들을 이용해서 얻어진 화상 특징에 기초하여 상기 단층상에 있어서의 아티팩트 영역을 판정하도록 아티팩트 영역 판정 수단을 제어하는 아티팩트 영역 판정 단계, 및
상기 아티팩트 영역 판정 단계의 판정 결과에 기초하여 상기 아티팩트 영역에서 상기 망막의 층의 위치를 결정하도록 층 결정 수단을 제어하는 층 결정 단계를 포함하고,
상기 층 결정 단계에서는, 상기 아티팩트 영역에 포함된 층의 형상을 특정하기 위해 이용되며 복수의 제어 점에 의해 정의되는 형상 모델을 이용하고, 상기 형상 모델의 형상에 연관된 평가 함수 및 상기 제어 점의 근방에서의 휘도값에 연관된 평가 함수에 기초하여 상기 층의 위치를 결정하는, 화상 처리 장치의 제어 방법.
As a control method of the image processing apparatus which processes the tomographic image obtained by image | photographing the to-be-tested eye with a tomographic imaging device,
A layer candidate detecting step of controlling layer candidate detecting means to detect layer candidates of the retina of the eye to be examined from the tomography,
An artifact area determining step of controlling an artifact area determining means to determine an artifact area on the tomographic layer based on an image feature obtained by using the layer candidates, and
A layer determination step of controlling layer determination means to determine the position of the layer of the retina in the artifact region based on the determination result of the artifact region determination step,
In the layer determination step, a shape model, which is used to specify the shape of the layer included in the artifact region and is defined by a plurality of control points, is used, and an evaluation function associated with the shape of the shape model and the vicinity of the control point. And determine the position of the layer based on an evaluation function associated with a luminance value in.
컴퓨터를, 제1항 내지 제10항 중 어느 한 항에 따른 화상 처리 장치의 각 수단으로서 기능시키는, 컴퓨터 프로그램.A computer program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 10.
KR1020117030891A 2009-06-02 2010-05-26 Image processing apparatus, control method thereof, image processing method, tomography system, and storage medium KR101318685B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009133455A JP4909378B2 (en) 2009-06-02 2009-06-02 Image processing apparatus, control method therefor, and computer program
JPJP-P-2009-133455 2009-06-02
PCT/JP2010/059302 WO2010140601A1 (en) 2009-06-02 2010-05-26 Image processing apparatus, control method thereof, and computer program

Publications (2)

Publication Number Publication Date
KR20120024842A true KR20120024842A (en) 2012-03-14
KR101318685B1 KR101318685B1 (en) 2013-10-16

Family

ID=43297734

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117030891A KR101318685B1 (en) 2009-06-02 2010-05-26 Image processing apparatus, control method thereof, image processing method, tomography system, and storage medium

Country Status (6)

Country Link
US (1) US8861817B2 (en)
EP (1) EP2437648B1 (en)
JP (1) JP4909378B2 (en)
KR (1) KR101318685B1 (en)
CN (1) CN102458221B (en)
WO (1) WO2010140601A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150119860A (en) * 2013-02-19 2015-10-26 옵토스 피엘씨 Improvements in or relating to image processing
KR20200005409A (en) * 2018-07-06 2020-01-15 연세대학교 산학협력단 Fundus image management device and method for determining suitability of fundus image
US11164313B2 (en) 2017-12-20 2021-11-02 Medi Whale Inc. Method and device for assisting heart disease diagnosis

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4850927B2 (en) * 2009-06-02 2012-01-11 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP5436076B2 (en) 2009-07-14 2014-03-05 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5645432B2 (en) * 2010-03-19 2014-12-24 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program for causing computer to execute image processing
JP5657941B2 (en) * 2010-07-30 2015-01-21 株式会社トプコン Optical tomographic imaging apparatus and operating method thereof
US9361667B2 (en) * 2010-08-27 2016-06-07 Sony Corporation Image processing apparatus and method
JP5702991B2 (en) 2010-11-19 2015-04-15 キヤノン株式会社 Image processing apparatus and image processing method
JP5701024B2 (en) * 2010-11-26 2015-04-15 キヤノン株式会社 Image processing apparatus and method
JP5242667B2 (en) 2010-12-22 2013-07-24 株式会社東芝 Map conversion method, map conversion apparatus, and map conversion program
JP5904711B2 (en) 2011-02-01 2016-04-20 キヤノン株式会社 Image processing apparatus, image processing method, and program
CN102136135B (en) * 2011-03-16 2012-12-19 清华大学 Method for extracting inner outline of cornea from optical coherence tomography image of anterior segment of eye and method for extracting inner outline of anterior chamber from optical coherence tomography image of anterior segment of eye
JP5836634B2 (en) 2011-05-10 2015-12-24 キヤノン株式会社 Image processing apparatus and method
JP6025311B2 (en) 2011-08-01 2016-11-16 キヤノン株式会社 Ophthalmic diagnosis support apparatus and method
JP5955163B2 (en) 2011-09-06 2016-07-20 キヤノン株式会社 Image processing apparatus and image processing method
JP5912358B2 (en) * 2011-09-14 2016-04-27 株式会社トプコン Fundus observation device
EP2790570B1 (en) 2011-12-05 2019-09-04 Bioptigen, Inc. Optical imaging systems having input beam shape control and path length control
JP6114495B2 (en) 2012-02-20 2017-04-12 キヤノン株式会社 Image display device, image display method, and imaging system
JP5979904B2 (en) 2012-02-20 2016-08-31 キヤノン株式会社 Image processing apparatus, ophthalmic imaging system, and image processing method
JP5947561B2 (en) 2012-02-20 2016-07-06 キヤノン株式会社 Image forming apparatus and image forming method
JP6101048B2 (en) 2012-02-20 2017-03-22 キヤノン株式会社 Image processing apparatus and image processing method
US8777412B2 (en) 2012-04-05 2014-07-15 Bioptigen, Inc. Surgical microscopes using optical coherence tomography and related methods
JP2014045869A (en) * 2012-08-30 2014-03-17 Canon Inc Imaging apparatus, image processing device, and image processing method
JP6099903B2 (en) * 2012-08-30 2017-03-22 キヤノン株式会社 Image processing apparatus and image processing method
JP6075844B2 (en) * 2012-10-18 2017-02-08 キヤノン株式会社 Ophthalmic apparatus, ophthalmic method, and storage medium
JP2014110883A (en) * 2012-10-30 2014-06-19 Canon Inc Image processor and image processing method
JP6198410B2 (en) 2013-02-28 2017-09-20 キヤノン株式会社 Image processing apparatus and image processing method
JP6200168B2 (en) 2013-02-28 2017-09-20 キヤノン株式会社 Image processing apparatus and image processing method
JP6092659B2 (en) 2013-02-28 2017-03-08 キヤノン株式会社 Image processing apparatus and image processing method
CN104036472A (en) * 2013-03-06 2014-09-10 北京三星通信技术研究有限公司 Method and device for enhancing quality of 3D image
US9401009B2 (en) 2013-03-06 2016-07-26 Samsung Electronics Co., Ltd. Method and apparatus for enhancing quality of 3D image
US10497124B2 (en) * 2013-03-15 2019-12-03 Kabushiki Kaisha Topcon Optic disc image segmentation method and apparatus
EP3003123B1 (en) 2013-06-04 2020-08-19 Bioptigen, Inc. Optical coherence tomography imaging system and optical laser scanning system comprising a beam shaping optical system with a +-+ lens triplet, where second and third lens are movable, and method
CN105592829B (en) 2013-07-29 2018-11-16 拜尔普泰戈恩公司 Surgical optical coherence tomography (OCT) and its related system and method for surgical operation
EP3039474A1 (en) 2013-08-28 2016-07-06 Bioptigen, Inc. Heads up displays for optical coherence tomography integrated surgical microscopes
JP6512738B2 (en) * 2014-02-28 2019-05-15 キヤノン株式会社 Image processing apparatus, image processing method and program
DE102014113901A1 (en) * 2014-09-25 2016-03-31 Carl Zeiss Meditec Ag Method for correcting an OCT image and combination microscope
US9675247B2 (en) * 2014-12-05 2017-06-13 Ricoh Co., Ltd. Alpha-matting based retinal vessel extraction
JP6470604B2 (en) 2015-03-25 2019-02-13 キヤノン株式会社 Image processing apparatus, image processing method, and program
US9639917B2 (en) * 2015-05-19 2017-05-02 Novartis Ag OCT image modification
US9508127B1 (en) * 2015-06-30 2016-11-29 Konica Minolta Laboratory U.S.A., Inc. Processing for creating a transmission image without artificial noises
JP6736270B2 (en) 2015-07-13 2020-08-05 キヤノン株式会社 Image processing apparatus and method of operating image processing apparatus
EP3338620A4 (en) * 2015-08-19 2019-02-13 Kowa Company, Ltd. Image processing device, image processing method, and image processing program
CN105528800B (en) * 2016-01-21 2017-04-05 上海联影医疗科技有限公司 A kind of computer tomography artifact correction method and device
US10521886B2 (en) 2015-10-14 2019-12-31 Shanghai United Imaging Healthcare Co., Ltd. System and method for image correction
CN105809188B (en) * 2016-02-26 2017-08-08 山东大学 A kind of fungal keratitis image-recognizing method based on AMBP innovatory algorithms
JP6156855B2 (en) * 2016-03-02 2017-07-05 富士フイルム株式会社 Classification device, classification program, and operation method of classification device
JP6971559B2 (en) * 2016-10-31 2021-11-24 キヤノン株式会社 Information processing equipment, information processing methods and programs
US10896490B2 (en) * 2016-12-23 2021-01-19 Oregon Health & Science University Systems and methods for reflectance-based projection-resolved optical coherence tomography angiography
CN108959215B (en) * 2017-05-24 2022-06-10 阿里健康信息技术有限公司 Data processing method and device, and display method and device
JP7108227B2 (en) * 2018-03-02 2022-07-28 株式会社ニデック Subjective optometric device and subjective optometric program
JP7130989B2 (en) * 2018-03-05 2022-09-06 株式会社ニデック Ophthalmic image processing device and ophthalmic image processing program
US10973406B2 (en) 2018-03-06 2021-04-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable medium
IT201800004938A1 (en) * 2018-04-27 2019-10-27 Method for determining a trabecular curve based on the application of thresholds to the channels of a color image
IT201800004934A1 (en) * 2018-04-27 2019-10-27 Method for determining a trabecular curve based on multiple negative local minima in a grayscale image
IT201800004940A1 (en) * 2018-04-27 2019-10-27 Method for determining a trabecular curve based on the application of threshold to a single channel image derived from a color image
WO2019207481A1 (en) * 2018-04-27 2019-10-31 Nidek Technologies Srl Methods of determining a trabecular meshwork curve
JP7166182B2 (en) * 2019-01-28 2022-11-07 株式会社トプコン Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
US11417144B2 (en) 2019-02-22 2022-08-16 Nec Corporation Processing apparatus, fingerprint image extraction processing apparatus, system, processing method, and computer readable medium
US10832074B2 (en) 2019-03-08 2020-11-10 International Business Machines Corporation Uncertainty region based image enhancement
JP6888643B2 (en) * 2019-03-22 2021-06-16 株式会社ニデック OCT analysis processing device and OCT data processing program
WO2020209012A1 (en) * 2019-04-09 2020-10-15 キヤノン株式会社 Image analysis method and image analysis device
CN110310235B (en) * 2019-05-21 2021-07-27 北京至真互联网技术有限公司 Fundus image processing method, device and equipment and storage medium
WO2021139882A1 (en) * 2020-01-08 2021-07-15 Haag-Streit Ag Optical coherence tomography system for ophthalmology
US11875480B1 (en) * 2020-05-15 2024-01-16 Verily Life Sciences Llc Distinguishing artifacts from pathological features in digital images
CN111861917A (en) * 2020-07-10 2020-10-30 温州医科大学 Choroidal OCT image enhancement method and device based on signal reverse compensation

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4527251B2 (en) * 2000-07-14 2010-08-18 興和株式会社 Ophthalmic measuring device
US7347548B2 (en) * 2003-05-01 2008-03-25 The Cleveland Clinic Foundation Method and apparatus for measuring a retinal sublayer characteristic
JP4461258B2 (en) * 2005-10-31 2010-05-12 国立大学法人 筑波大学 Correction method in optical tomography
ES2374069T3 (en) * 2006-01-19 2012-02-13 Optovue, Inc. METHOD OF EXAMINATION OF THE EYE BY TOMOGRAPHY OF OPTICAL COHERENCE.
JP4855150B2 (en) 2006-06-09 2012-01-18 株式会社トプコン Fundus observation apparatus, ophthalmic image processing apparatus, and ophthalmic image processing program
JP5095167B2 (en) 2006-09-19 2012-12-12 株式会社トプコン Fundus observation apparatus, fundus image display apparatus, and fundus observation program
JP5058627B2 (en) * 2007-02-26 2012-10-24 株式会社トプコン Fundus observation device
JP5101969B2 (en) * 2007-09-27 2012-12-19 株式会社トプコン Ophthalmic equipment
JP5101975B2 (en) * 2007-10-04 2012-12-19 株式会社トプコン Fundus observation apparatus and fundus image processing apparatus
JP2010142428A (en) 2008-12-18 2010-07-01 Canon Inc Photographing apparatus, photographing method, program and recording medium
JP4909377B2 (en) * 2009-06-02 2012-04-04 キヤノン株式会社 Image processing apparatus, control method therefor, and computer program
JP5436076B2 (en) 2009-07-14 2014-03-05 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5582772B2 (en) 2009-12-08 2014-09-03 キヤノン株式会社 Image processing apparatus and image processing method
JP5025715B2 (en) 2009-12-08 2012-09-12 キヤノン株式会社 Tomographic imaging apparatus, image processing apparatus, image processing system, control method and program for image processing apparatus
JP5702991B2 (en) 2010-11-19 2015-04-15 キヤノン株式会社 Image processing apparatus and image processing method
JP5904711B2 (en) 2011-02-01 2016-04-20 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150119860A (en) * 2013-02-19 2015-10-26 옵토스 피엘씨 Improvements in or relating to image processing
US11164313B2 (en) 2017-12-20 2021-11-02 Medi Whale Inc. Method and device for assisting heart disease diagnosis
US11869184B2 (en) 2017-12-20 2024-01-09 Medi Whale Inc. Method and device for assisting heart disease diagnosis
KR20200005409A (en) * 2018-07-06 2020-01-15 연세대학교 산학협력단 Fundus image management device and method for determining suitability of fundus image

Also Published As

Publication number Publication date
KR101318685B1 (en) 2013-10-16
CN102458221A (en) 2012-05-16
CN102458221B (en) 2014-08-27
EP2437648A4 (en) 2014-09-17
US20120063660A1 (en) 2012-03-15
EP2437648A1 (en) 2012-04-11
EP2437648B1 (en) 2019-09-11
JP4909378B2 (en) 2012-04-04
JP2010279440A (en) 2010-12-16
US8861817B2 (en) 2014-10-14
WO2010140601A1 (en) 2010-12-09

Similar Documents

Publication Publication Date Title
KR101318685B1 (en) Image processing apparatus, control method thereof, image processing method, tomography system, and storage medium
US9430825B2 (en) Image processing apparatus, control method, and computer readable storage medium for analyzing retina layers of an eye
US9418423B2 (en) Motion correction and normalization of features in optical coherence tomography
JP5955163B2 (en) Image processing apparatus and image processing method
KR101373935B1 (en) Ophthalmic apparatus, control method of an ophthalmic apparatus and computer readable storage medium
US8332016B2 (en) Non-linear projections of 3-D medical imaging data
JP5174232B2 (en) Image processing method, image processing apparatus, tomographic imaging system, and computer program
US20110137157A1 (en) Image processing apparatus and image processing method
US9436994B2 (en) Image processing apparatus for processing a tomogram of an eye to be examined, image processing method, and computer-readable storage medium
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
JP2012161595A (en) Image processor and image processing method
JP5473358B2 (en) Image processing apparatus, image processing method, and program
JP6892234B2 (en) Ophthalmologic imaging equipment
JP5241937B2 (en) Image processing apparatus and image processing method
JP5677502B2 (en) Image processing apparatus and image processing method
JP2018089304A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160926

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170925

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180928

Year of fee payment: 6