KR101962110B1 - Method and apparatus for image segmentation - Google Patents

Method and apparatus for image segmentation Download PDF

Info

Publication number
KR101962110B1
KR101962110B1 KR1020170169139A KR20170169139A KR101962110B1 KR 101962110 B1 KR101962110 B1 KR 101962110B1 KR 1020170169139 A KR1020170169139 A KR 1020170169139A KR 20170169139 A KR20170169139 A KR 20170169139A KR 101962110 B1 KR101962110 B1 KR 101962110B1
Authority
KR
South Korea
Prior art keywords
region
area
target
image
dividing
Prior art date
Application number
KR1020170169139A
Other languages
Korean (ko)
Other versions
KR20180072549A (en
Inventor
조충상
신화선
이영한
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of KR20180072549A publication Critical patent/KR20180072549A/en
Application granted granted Critical
Publication of KR101962110B1 publication Critical patent/KR101962110B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Abstract

본 발명의 한 실시예에 따른 영상 분할 장치의 영상 분할 방법은 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 영상 내에서 제1 영역을 검출하는 단계, 그리고 상기 제1 영역 내에서 상기 타겟 영역인 제2 영역을 분할하는 단계를 포함하며, 상기 분할하는 단계에서는, 상기 타겟 영역에 대하여 미리 설정된 파라미터 및 상기 제1 영역의 토폴로지 특성에 기초하여 상기 제1 영역의 일부를 제거한다.According to an aspect of the present invention, there is provided an image segmentation method of an image segmentation apparatus, comprising: detecting a first region in an image based on data previously learned for a target region; Wherein the dividing step removes a part of the first area based on a parameter set in advance for the target area and a topology characteristic of the first area.

Description

영상 분할 방법 및 장치{METHOD AND APPARATUS FOR IMAGE SEGMENTATION}[0001] METHOD AND APPARATUS FOR IMAGE SEGMENTATION [0002]

본 발명은 영상 분할에 관한 것으로, 보다 상세하게는 영상 내 타겟 영역을 분할하는 방법 및 장치에 관한 것이다. The present invention relates to image segmentation, and more particularly, to a method and apparatus for segmenting a target region in an image.

CT(computed tomography) 장치, MRI(magnetic resonance imaging) 장치, PET(positron emission tomography) 장치 등의 의료 영상 장치 내에서 병변의 유무 또는 크기를 검출하기 위한 영상 분할 기술은 매우 핵심적인 기술이다. 의료 영상 내 영상 분할을 위하여 데이터 학습에 기반한 딥러닝(deep learning) 기법이 이용되고 있다. 딥러닝 기법에 의한 영상 분할은 의료진이 직접 영상을 판독하는 것에 비하여 신뢰도 및 정밀도가 낮은 문제가 있다. Image segmentation techniques for detecting the presence or absence of lesions in medical imaging devices such as CT (computed tomography) devices, MRI (magnetic resonance imaging) devices, and PET (positron emission tomography) devices are very important technologies. Deep learning method based on data learning is used for image segmentation in medical images. The image segmentation by the deep learning technique has a problem of low reliability and precision compared with the case where a medical staff directly reads an image.

본 발명이 해결하고자 하는 기술적 과제는 영상 내 타겟 영역을 검출하고 분할하는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention provides a method and apparatus for detecting and segmenting a target region in an image.

본 발명의 한 실시예에 따른 영상 분할 장치의 영상 분할 방법은 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 영상 내에서 제1 영역을 검출하는 단계, 그리고 상기 제1 영역 내에서 상기 타겟 영역인 제2 영역을 분할하는 단계를 포함하며, 상기 분할하는 단계에서는, 상기 타겟 영역에 대하여 미리 설정된 파라미터 및 상기 제1 영역의 토폴로지 특성에 기초하여 상기 제1 영역의 일부를 제거한다.According to an aspect of the present invention, there is provided an image segmentation method of an image segmentation apparatus, comprising: detecting a first region in an image based on data previously learned for a target region; Wherein the dividing step removes a part of the first area based on a parameter set in advance for the target area and a topology characteristic of the first area.

상기 분할하는 단계는, 상기 제1 영역을 복수의 클래스로 분할하는 단계, 각 클래스 별로 레이블링하는 단계, 그리고 레이블링된 복수의 영역 중 일부를 상기 타겟 영역에 대하여 미리 설정된 파라미터 및 상기 제1 영역의 토폴로지 특성에 기초하여 제거하는 단계를 포함할 수 있다.Wherein the step of dividing comprises dividing the first region into a plurality of classes, labeling each class, and labeling a portion of the plurality of labeled regions with a predetermined parameter for the target region and a topology On the basis of the characteristics.

상기 미리 설정된 파라미터는 상기 타겟 영역의 위치 및 상기 타겟 영역의 크기 중 적어도 하나를 포함할 수 있다.The predetermined parameter may include at least one of a position of the target region and a size of the target region.

상기 제거하는 단계에서는 상기 미리 설정된 파라미터에 따라 계산된 코스트 및 상기 제1 영역의 토폴로지 특성에 따라 계산된 코스트를 이용할 수 있다.In the removal step, the cost calculated according to the preset parameter and the cost calculated according to the topology characteristic of the first area may be used.

상기 미리 설정된 파라미터는 레이블링된 각 영역에 포함되는 픽셀 수 및 상기 영상의 중심과 상기 각 영역 간의 거리 중 적어도 하나를 포함할 수 있다.The predetermined parameter may include at least one of the number of pixels included in each of the labeled areas and the distance between the center of the image and each of the areas.

상기 제1 영역의 토폴로지 특성은 상기 제1 영역의 휘도(intensity), 컬러(color), 에지(edge), 그레디언트(gradient) 및 고유벡터(eigen-vector) 중 적어도 하나의 변화량을 포함할 수 있다.The topology characteristic of the first region may include at least one of an intensity, a color, an edge, a gradient, and an eigen-vector of the first region .

상기 제거하는 단계에서는 상기 미리 설정된 파라미터에 따라 계산된 코스트에 대한 제1 가중치 값 및 상기 제1 영역의 토폴로지 특성에 따라 계산된 코스트에 대한 제2 가중치 값을 적용할 수 있다.In the removing step, a first weight value for the cost calculated according to the preset parameter and a second weight value for the cost calculated according to the topology characteristic of the first region may be applied.

상기 검출하는 단계 전에 상기 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 상기 영상 내에 상기 타겟 영역이 있는지를 결정하는 단계를 더 포함할 수 있다.And determining whether the target region exists in the image based on the data previously learned about the target region before the detecting step.

상기 검출하는 단계는, 상기 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 상기 영상으로부터 상기 타겟 영역인 것으로 추정되는 영역을 추출하는 단계, 상기 추정되는 영역을 복수의 영역으로 분할하는 단계, 그리고 상기 복수의 영역 중 노이즈 영역을 제거하는 단계를 포함할 수 있다.Wherein the detecting comprises: extracting an area estimated to be the target area from the image based on data previously learned for the target area; dividing the estimated area into a plurality of areas; And removing the noise region from the region of the input signal.

상기 노이즈 영역은 상기 타겟 영역의 위치 및 크기를 이용하여 제거될 수 있다.The noise region may be removed using the position and size of the target region.

본 발명의 한 실시예에 따른 영상 분할 장치는 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 영상 내에서 제1 영역을 검출하는 검출부, 그리고 상기 제1 영역 내에서 상기 타겟 영역인 제2 영역을 분할하는 분할부를 포함하며, 상기 분할부는, 상기 타겟 영역에 대하여 미리 설정된 파라미터 및 상기 제1 영역의 토폴로지 특성에 기초하여 상기 제1 영역의 일부를 제거한다.According to an embodiment of the present invention, there is provided an image segmentation apparatus including a detection unit detecting a first region in an image based on data previously learned about a target region, and a second region being a target region in the first region, And the dividing unit removes a part of the first area based on a parameter set in advance for the target area and a topology characteristic of the first area.

본 발명의 실시예에 따르면, 영상 내 타겟 영역을 분할할 수 있다. 특히, 의료 영상 내 타겟 영역을 고성능으로 분할함으로써, 자동으로 질병 및 병기를 판단하는 것이 가능하다. According to the embodiment of the present invention, the target area in the image can be divided. Particularly, by dividing the target area in the medical image into high-performance, it is possible to automatically determine disease and stage.

도 1은 본 발명의 한 실시예에 따른 영상 분할 장치의 블록도이다.
도 2는 본 발명의 한 실시예에 따른 영상 분할 장치의 영상 분할 방법을 나타내는 순서도이다.
도 3은 본 발명의 한 실시예에 따른 영상 분할 장치가 영상 내 제1 영역을 검출하는 방법을 나타내는 순서도이다.
도 4는 노이즈 제거 전 제1 영역을 나타낸다.
도 5는 노이즈 제거 후 제1 영역을 나타낸다.
도 6은 본 발명의 한 실시예에 따른 영상 분할 장치가 타겟 영역을 분할하는 방법을 나타내는 순서도이다.
도 7은 제1 영역의 일부에 대한 레이블링을 수행한 결과를 나타낸다.
도 8은 도 7의 영상을 리파인한 결과를 나타낸다.
도 9는 딥 러닝 기법에 의한 영상 분할 성능을 나타낸다.
도 10은 본 발명의 한 실시예에 따른 영상 분할 성능을 나타낸다.
1 is a block diagram of an image segmentation apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image segmentation method of an image segmentation apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a method of detecting a first region in an image by an image segmentation apparatus according to an exemplary embodiment of the present invention.
Fig. 4 shows the first area before noise removal.
5 shows the first area after noise removal.
6 is a flowchart illustrating a method of dividing a target region according to an embodiment of the present invention.
FIG. 7 shows the result of performing labeling for a part of the first area.
Fig. 8 shows the result of refining the image of Fig.
9 shows an image segmentation performance by the deep learning technique.
10 shows an image segmentation performance according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms including ordinal, such as second, first, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings, wherein like or corresponding elements are denoted by the same reference numerals, and redundant description thereof will be omitted.

본 명세서에서, CT(computed tomography) 장치, MRI(magnetic resonance imaging) 장치, PET(positron emission tomography) 장치 등의 의료 영상 장치로부터 얻어지는 의료 영상을 중심으로 설명하나, 이로 제한되는 것은 아니다. 본 발명의 실시예에 따른 영상 분할 방법 및 장치는 의료 영상 분할뿐만 아니라, 항공 영상 분할 등 정밀한 영상 분할이 요구되는 분야에 다양하게 적용될 수 있다. 또한, 본 발명의 실시예에 따른 영상 분할 방법 및 장치는 2차원 영상 분할뿐만 아니라 3차원 입체 분할에도 적용되는 것이 가능하다.Although the medical image obtained from a medical imaging apparatus such as a computed tomography (CT) apparatus, a magnetic resonance imaging (MRI) apparatus, or a positron emission tomography (PET) apparatus is described in this specification, the present invention is not limited thereto. The image segmentation method and apparatus according to the embodiment of the present invention can be applied variously to fields requiring precise image segmentation such as aerial image segmentation as well as medical image segmentation. Also, the image segmentation method and apparatus according to the embodiment of the present invention can be applied not only to two-dimensional image segmentation but also to three-dimensional segmentation.

본 명세서에서, 영상 분할 장치는 CT(computed tomography) 장치, MRI(magnetic resonance imaging) 장치, PET(positron emission tomography) 장치 등의 의료 영상 장치 내의 일부 구성일 수도 있고, 의료 영상 장치와는 독립된 별도의 구성일 수도 있다.Herein, the image segmentation device may be a part of a medical image device such as a CT (computed tomography) device, an MRI (magnetic resonance imaging) device, a PET (positron emission tomography) device, Configuration.

도 1은 본 발명의 한 실시예에 따른 영상 분할 장치의 블록도이고, 도 2는 본 발명의 한 실시예에 따른 영상 분할 장치의 영상 분할 방법을 나타내는 순서도이다. FIG. 1 is a block diagram of an image segmentation apparatus according to an embodiment of the present invention, and FIG. 2 is a flowchart illustrating an image segmentation method of an image segmentation apparatus according to an embodiment of the present invention.

도 1을 참조하면, 영상 분할 장치(100)는 입력부(110), 결정(Decision)부(120), 검출(Detection)부(130), 분할(Segmentation)부(140), 출력부(150) 및 저장부(160)를 포함한다. 1, an image segmentation apparatus 100 includes an input unit 110, a decision unit 120, a detection unit 130, a segmentation unit 140, an output unit 150, And a storage unit 160.

도 1 내지 2를 참조하면, 영상 분할 장치(100)의 입력부(110)는 영상을 입력 받는다(S110). 여기서, 영상은 타겟 영역의 분할(segmentation)이 필요한 영상이며, 예를 들어 의료 영상일 수 있다. 의료 영상 내에서 타겟 영역은 병변 영역일 수 있다.Referring to FIGS. 1 and 2, an input unit 110 of the image segmentation apparatus 100 receives an image (S110). Here, the image is an image requiring segmentation of the target area, and may be, for example, a medical image. Within the medical image, the target area may be a lesion area.

결정부(120)는 입력부(110)로부터 입력 받은 영상 내 타겟 영역이 있는지를 결정한다(S120). 입력 받은 영상 내 타겟 영역이 있는지는 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 결정될 수 있다. 이를 위하여, 타겟 영역에 대하여 미리 학습된 데이터는 저장부(160)에 미리 저장될 수 있다. 예를 들어, 입력 받은 영상 내 타겟 영역이 있는지는 딥러닝(deep learning) 기법에 의하여 결정될 수 있다. 입력 받은 영상 내 타겟 영역이 있는지는 0 또는 1의 디지털 데이터로 나타내어질 수 있다.The determination unit 120 determines whether there is a target area in the input image from the input unit 110 (S120). Whether there is a target area in the input image can be determined based on data previously learned about the target area. For this, the data previously learned about the target area may be stored in the storage unit 160 in advance. For example, whether there is a target area in an input image can be determined by a deep learning technique. Whether there is a target area in the input image can be represented by digital data of 0 or 1.

결정부(120)에 의하여 입력 받은 영상 내 타겟 영역이 있는 것으로 결정된 경우, 검출부(130)는 영상 내에서 제1 영역을 검출한다(S130). 여기서, 제1 영역은 타겟 영역인 것으로 추정되는 영역을 의미하며, 실제 타겟 영역에 비하여 덜 정밀하게 분할된 영역을 의미할 수 있다. 예를 들어, 제1 영역은 타겟 영역을 포함할 수 있다. If it is determined that there is a target area in the image input by the determination unit 120, the detection unit 130 detects the first area in the image (S130). Here, the first area means a region estimated to be a target area, and may mean a less precisely divided area than an actual target area. For example, the first region may include a target region.

여기서, 제1 영역은 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 입력 받은 영상 내에서 검출될 수 있다. 이를 위하여, 타겟 영역에 대하여 미리 학습된 데이터는 저장부(160)에 미리 저장될 수 있다. 예를 들어, 제1 영역은 딥러닝 기법에 의하여 검출될 수 있다.Here, the first area may be detected in the input image based on the data previously learned with respect to the target area. For this, the data previously learned about the target area may be stored in the storage unit 160 in advance. For example, the first region may be detected by a deep-running technique.

다음으로, 분할부(140)는 제1 영역 내에서 타겟 영역인 제2 영역을 분할한다(S140). 이때, 분할부(140)는 편미분방정식(partial differential equation, PDE) 원리에 의하여 제1 영역 내에서 타겟 영역인 제2 영역을 분할할 수 있다. PDE는 여러 개의 독립 변수로 구성된 함수와 그 함수의 편미분으로 연관된 방정식을 의미한다. PDE를 영상 분할에 적용할 경우, 분할할 객체의 주변에 소정의 곡선을 설정한 뒤, 설정된 곡선을 초기 위치에서부터 전개시켜 영상 내부의 객체를 분할할 수 있다. 이를 위하여, 곡선의 모양에 따른 에너지를 정의하고, 이를 최소화하는 방향으로 곡선을 전개시키거나, 편미분 방정식을 사용하여 곡선의 전개를 표현하여 반복적으로 곡선을 변화시키거나, 영역을 기반으로 하여 영역의 값을 갱신하면서 영상 내부 객체를 분할할 수 있다.Next, the partitioning unit 140 divides the second area that is the target area in the first area (S140). At this time, the dividing unit 140 may divide the second region, which is the target region, in the first region according to a partial differential equation (PDE) principle. PDE refers to a function composed of several independent variables and an equation associated with a partial derivative of the function. When the PDE is applied to the image segmentation, a predetermined curve is set around the object to be segmented, and the set object is divided by expanding the set curve from the initial position. For this purpose, it is necessary to define the energy according to the shape of the curve and to develop the curve in the direction of minimizing it, or to change the curve repeatedly by expressing the development of the curve using the partial differential equation, You can divide the object inside the image while updating the value.

예를 들어, 본 발명의 실시예에 따르면, 분할부(140)는 타겟 영역에 대하여 미리 설정된 파라미터 및 제1 영역의 토폴로지 특성에 기초하여 제1 영역의 일부를 제거할 수 있다. 여기서, 분할부(140)에 의하여 제거된 제1 영역의 일부는 검출부(130)에 의하여 타겟 영역인 것으로 시멘틱(semantic)하게 추정되었으나, 정밀하게 분석한 결과 타겟 영역이 아닌 것으로 판단된 영역을 의미한다. 여기서, 타겟 영역에 대하여 미리 설정된 파라미터는 타겟 영역의 위치, 타겟 영역의 크기 및 타겟 영역의 형상 중 적어도 하나를 포함한다. 예를 들어, 타겟 영역이 병변 영역인 경우, 병변 영역의 위치, 병변 영역의 크기 및 병변 영역의 형상 중 적어도 하나가 미리 설정된 파라미터일 수 있다. 예를 들어, 뇌에 발생하는 병변 및 심장에 발생하는 병변은 촬영 영상 내 위치, 크기 및 형상이 서로 상이할 수 있다. 이에 따라, 영상 내 분할하고자 하는 병변의 종류에 따라 타겟 영역의 위치, 크기 및 형상이 미리 설정되며, 저장부(160)에 미리 저장될 수 있다. 그리고, 토폴로지 특성은 토폴로지 변화량(Topology Derivative) 또는 픽셀 간 방향성을 의미할 수 있다. 예를 들어, 토폴로지 특성은 휘도(intensity), 컬러(color), 에지(edge), 그레디언트(gradient) 및 고유벡터(eigen-vector) 중 적어도 하나의 변화량을 의미할 수 있다. For example, according to the embodiment of the present invention, the dividing section 140 may remove a part of the first area based on a parameter set in advance for the target area and a topology characteristic of the first area. Here, a portion of the first region removed by the division unit 140 is semantically estimated to be a target region by the detection unit 130, do. Here, the preset parameter for the target area includes at least one of the position of the target area, the size of the target area, and the shape of the target area. For example, when the target region is a lesion region, at least one of the position of the lesion region, the size of the lesion region, and the shape of the lesion region may be a preset parameter. For example, lesions occurring in the brain and lesions occurring in the heart may be different in position, size, and shape in the photographed image. Accordingly, the position, size, and shape of the target region are previously set according to the type of the lesion to be segmented in the image, and may be stored in the storage unit 160 in advance. And, the topology characteristic can mean topology variation (topology derivation) or inter-pixel directionality. For example, the topology property may mean a change in at least one of intensity, color, edge, gradient, and eigen-vector.

다음으로, 출력부(150)는 분할부(140)에 의하여 분할된 타겟 영역을 표시한다(S150). 여기서, 타겟 영역은 영상 내에서 소정의 색으로 표시될 수 있다. Next, the output unit 150 displays the target area divided by the dividing unit 140 (S150). Here, the target area may be displayed with a predetermined color in the image.

이하, 본 발명의 실시예에 따른 영상 분할 방법을 더욱 구체적으로 설명한다. Hereinafter, an image dividing method according to an embodiment of the present invention will be described more specifically.

도 3은 본 발명의 한 실시예에 따른 영상 분할 장치가 영상 내 제1 영역을 검출하는 방법을 나타내는 순서도이고, 도 4는 노이즈 제거 전 제1 영역을 나타내고, 도 5는 노이즈 제거 후 제1 영역을 나타낸다. 도 4 내지 5에서 빨간색으로 표시된 영역은 전문가에 의하여 판독된 실제 타겟 영역이고, 초록색으로 표시된 영역은 본 발명의 한 실시예에 따른 영상 분할 장치의 검출부(130)에 의하여 검출된 영역이다. 도 4 내지 5에서는 본 발명의 한 실시예에 따른 영상 분할 장치의 영상 분할 성능을 설명하기 위하여 실제 타겟 영역을 함께 표시하고 있다. FIG. 3 is a flowchart illustrating a method of detecting a first region in an image by an image segmentation apparatus according to an embodiment of the present invention. FIG. 4 shows a first region before noise removal, . The areas indicated in red in FIGS. 4 to 5 are the actual target areas read by the expert, and the areas indicated in green are the areas detected by the detector 130 of the image dividing device according to an embodiment of the present invention. FIGS. 4 to 5 show actual target regions together to illustrate the image segmentation performance of the image segmentation apparatus according to an embodiment of the present invention.

도 3을 참조하면, 검출부(130)는 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 입력 받은 영상으로부터 타겟 영역인 것으로 추정되는 영역을 추출한다(S300). 도 4에서 단계 S300에 의하여 추출된 영역은 초록색으로 표시되어 있다. 도 4에서 나타난 바와 같이, 초록색으로 표시된 영역은 영상 내 여러 곳에 존재한다. Referring to FIG. 3, the detection unit 130 extracts an area estimated as a target area from the input image based on the data previously learned for the target area (S300). In FIG. 4, the area extracted by step S300 is shown in green. As shown in FIG. 4, the area indicated in green is present in various places in the image.

다음으로, 검출부(130)는 단계 S300에서 추출한 영역을 복수의 영역으로 분할하고(S310), 복수의 영역 중 노이즈 영역을 제거한다(S320). 이때, 노이즈 영역은 타겟 영역의 특징을 이용하여 제거될 수 있다. 예를 들어, 타겟 영역이 병변 영역인 경우, 질병 또는 기관에 따라 크기 및 위치가 달라질 수 있다. 예를 들어, 분할하고자 하는 영역이 인체의 장기 중 심장인 경우, 심장은 영상의 가운데 영역에 위치할 것이며, 그 크기는 일정 수준 이상이 될 것이다. 이러한 특징을 이용하여, 단계 S300에서 추출되어 단계 S310에서 분할된 복수의 영역 중 타겟 영역의 특징에 대한 기준을 만족하지 못하는 영역을 노이즈 영역인 것으로 간주하고 제거할 수 있다. 도 5에서는 노이즈 영역이 제거된 후의 제1 영역이 표시되어 있다.Next, the detecting unit 130 divides the area extracted in step S300 into a plurality of areas (S310), and removes the noise area from the plurality of areas (S320). At this time, the noise region can be removed using the characteristic of the target region. For example, if the target area is a lesion area, the size and location may vary depending on the disease or organ. For example, if the region to be segmented is the heart of a human organ, the heart will be located in the center region of the image, and its size will be above a certain level. Using this feature, an area that is extracted in step S300 and does not satisfy the criterion for the feature of the target area among the plurality of areas divided in step S310 can be regarded as a noise area and can be removed. In Fig. 5, the first area after the noise area is removed is displayed.

다만, 도 3에서 설명하는 방법에 따라 검출된 제1 영역은 타겟 영역을 대략적으로 포함하는 영역이기는 하나, 타겟 영역과 정확하게 일치하는 것은 아니다. 이에 따라, 도 3에서 설명하는 방법에 따라 검출된 제1 영역으로부터 타겟 영역을 정밀하게 분할할 필요가 있다.However, the first region detected according to the method described with reference to FIG. 3 is an area that roughly includes the target area, but does not exactly match the target area. Accordingly, it is necessary to finely divide the target area from the detected first area according to the method described in Fig.

도 6은 본 발명의 한 실시예에 따른 영상 분할 장치가 타겟 영역을 분할하는 방법을 나타내는 순서도이다. 6 is a flowchart illustrating a method of dividing a target region according to an embodiment of the present invention.

도 6을 참조하면, 분할부(140)는 도 3에서 설명하는 방법에 따라 검출된 제1 영역을 복수의 클래스로 분할한다(S600). 복수의 클래스의 개수 및 각 클래스의 크기는 타겟 영역의 특징에 따라 달라질 수 있다. 클래스의 개수는, 예를 들어 N개일 수 있다. Referring to FIG. 6, the dividing unit 140 divides the first region detected according to the method described in FIG. 3 into a plurality of classes (S600). The number of classes and the size of each class may vary depending on the characteristics of the target area. The number of classes may be N, for example.

다음으로, 분할부(140)는 클래스 별로 레이블링한다(S610). 도 7(a)는 분할된 복수의 클래스 중 하나를 나타내고, 도 7(b)는 도 7(a)의 클래스에 대하여 레이블링을 수행한 결과를 나타낸다. 여기서, 레이블링은 토폴로지 특성에 따라 수행될 수 있다. 토폴로지 특성은 토폴로지 변화량 또는 방향성을 의미하며, 픽셀 간 휘도(intensity), 컬러(color), 에지(edge), 그레디언트(gradient) 및 고유벡터(eigen-vector) 중 적어도 하나의 변화량에 따라 정해질 수 있다. 도 7(b)를 참조하면, 동일한 레이블로 레이블링된 복수의 영역이 존재하며, 이 중 일부는 타겟 영역이 아닌 노이즈 영역일 수 있다.Next, the partitioning unit 140 labels by class (S610). Fig. 7 (a) shows one of a plurality of divided classes, and Fig. 7 (b) shows the result of performing labeling on the class of Fig. 7 (a). Here, the labeling can be performed according to the topology characteristic. The topology property refers to the amount of topology change or directionality and can be determined according to the amount of change in at least one of intensity, color, edge, gradient and eigen-vector between pixels. have. Referring to FIG. 7 (b), there are a plurality of regions labeled with the same label, and some of them may be noise regions other than the target region.

다음으로, 분할부(140)는 레이블링된 복수의 영역 중 일부를 제거한다(S620). 즉, 도 7(b)에서 레이블링된 복수의 영역 중 노이즈 영역을 제거함으로써 타겟 영역을 리파인할 수 있다. 도 8(a) 및 (b)는 도 7(a) 및 (b)의 영상을 리파인한 결과를 나타낸다. Next, the dividing unit 140 removes a part of the plurality of labeled areas (S620). That is, the target region can be refined by removing the noise region among the plurality of regions labeled in Fig. 7 (b). Figs. 8 (a) and 8 (b) show the results of refining the images of Figs. 7 (a) and 7 (b).

이때, 레이블링된 복수의 영역 중 일부인 노이즈 영역은 타겟 영역에 대하여 미리 설정된 파라미터 및 토폴로지 특성에 기초하여 제거될 수 있다. 예를 들어, 타겟 영역이 병변 영역인 경우, 병변의 종류에 따른 위치 및 최소한의 크기가 달라질 수 있으며, 토폴로지 특성도 달라질 수 있다. 이에 따라, 레이블링된 복수의 영역 중 타겟 영역에 대하여 미리 설정된 파라미터 및 토폴로지 특성의 차가 소정 범위를 벗어나는 영역을 노이즈 영역인 것으로 간주하고, 제1 영역으로부터 제거할 수 있다.At this time, the noise region, which is a part of the plurality of labeled regions, can be removed based on the parameter and the topology characteristic set in advance for the target region. For example, if the target region is a lesion region, the position and the minimum size may vary depending on the type of the lesion, and the topology characteristic may also vary. Thus, it is possible to consider a region in which the difference between the parameter and the topology characteristic set in advance for the target region out of the plurality of labeled regions out of the predetermined range is the noise region, and remove the noise region from the first region.

여기서, 노이즈 영역은 타겟 영역에 대하여 미리 설정된 파라미터에 따라 계산된 코스트 및 토폴로지 특성에 따라 계산된 코스트에 따라 제거될 수 있다. Here, the noise region can be removed according to the cost calculated according to the predetermined parameter with respect to the target region and the cost calculated according to the topology characteristic.

수학식 1은 노이즈 영역을 제거하기 위한 코스트 함수의 한 예이다. Equation (1) is an example of a cost function for removing a noise region.

Figure 112017122980655-pat00001
Figure 112017122980655-pat00001

여기서, max(Lc)는 해당 클래스 내 소정 값으로 레이블링된 전체 픽셀 수를 의미하고, Lc(i)는 해당 클래스 내 소정 값으로 레이블링된 복수의 영역 중 i번째 영역의 픽셀 수를 의미하며, TDc(i)는 해당 클래스 내 소정 값으로 레이블링된 복수의 영역 중 i번째 영역의 토폴로지 특성에 따라 계산된 코스트를 의미한다. WL은 타겟 영역에 대하여 미리 설정된 파라미터에 따라 계산된 코스트에 대한 가중치를 의미하고, Wt는 토폴로지 특성에 따라 계산된 코스트에 대한 가중치를 의미한다. WL 및 Wt는 타겟 영역의 종류에 따라 다르게 설정될 수 있다.Here, max (Lc) denotes the total number of pixels labeled with a predetermined value in the class, Lc (i) denotes the number of pixels in the i-th region among a plurality of regions labeled with a predetermined value in the class, and TDc (i) denotes a cost calculated according to the topology characteristic of the ith region among a plurality of regions labeled with a predetermined value in the class. W L denotes a weight for a cost calculated according to a preset parameter for a target area, and W t denotes a weight for a cost calculated according to a topology characteristic. W L and W t may be set differently depending on the type of the target area.

수학식 2는 TDc(i)를 계산하는 코스트 함수의 한 예이다. Equation (2) is an example of a cost function for calculating TDc (i).

Figure 112017122980655-pat00002
Figure 112017122980655-pat00002

여기서, u는 레이블링된 각 영역의 세그먼테이션 영상이고, v는 레이블링된 각 영역의 원본 영상이다. 또한,

Figure 112017122980655-pat00003
는 VPE(variational problem equation)의 해이다. VPE(variational problem equation)의 해는 수학식 3으로 나타낼 수 있다.Where u is the segmented image of each labeled area and v is the original image of each labeled area. Also,
Figure 112017122980655-pat00003
Is the solution of the variational problem equation (VPE). The solution of the VPE (variational problem equation) can be expressed by Equation (3).

Figure 112017122980655-pat00004
Figure 112017122980655-pat00004

Figure 112017122980655-pat00005
Figure 112017122980655-pat00005

Figure 112017122980655-pat00006
Figure 112017122980655-pat00006

여기서, K는 DT(Diffusion Tensor)이고, β는 가중치로 0 내지 1 사이의 값이다.

Figure 112017122980655-pat00007
은 약분으로 제거될 수 있다.Here, K is a DT (Diffusion Tensor), and? Is a value between 0 and 1 as a weight.
Figure 112017122980655-pat00007
Can be removed with a weakening agent.

한편, 토폴로지 특성은 TD(Topologicla Derivative, DT(x))로 표현될 수 있으며, 이는 하기 수학식 4와 같이 나타낼 수 있다.On the other hand, the topology characteristic can be represented by TD (Topologicla Derivative, D T (x)), which can be expressed by Equation (4) below.

Figure 112017122980655-pat00008
Figure 112017122980655-pat00008

여기서, u는 레이블링된 각 영역의 세그먼테이션 영상이고, v는 레이블링된 각 영역의 원본 영상이며,

Figure 112017122980655-pat00009
는 VPE(variational problem equation)의 해이고, β는 가중치로 0 내지 1 사이의 값이며, ci는 레이블링된 세그먼테이션 영상에 나타나는 클래스를 나타낸다. Where u is the segmentation image of each labeled area, v is the original image of each labeled area,
Figure 112017122980655-pat00009
Is a solution of a variational problem equation (VPE), beta is a weight value between 0 and 1, and ci represents a class that appears in a labeled segmentation image.

이때, 단계 S610 내지 S620은 모든 단계에 대하여 수행될 수 있다. At this time, steps S610 to S620 may be performed for all steps.

도 9는 딥 러닝 기법에 의한 영상 분할 성능을 나타내고, 도 10은 본 발명의 한 실시예에 따른 영상 분할 성능을 나타낸다. 도 9 내지 10에서 붉은 색은 전문가에 의하여 판독된 타겟 영역을 나타내고, 노란 색은 영상 분할 장치에 의하여 분할된 타겟 영역을 나타낸다. FIG. 9 shows an image segmentation performance by the deep learning technique, and FIG. 10 shows an image segmentation performance according to an embodiment of the present invention. 9 to 10, the red color represents the target area read by the expert, and the yellow color represents the target area divided by the image dividing device.

도 9를 참조하면, 딥 러닝 기법에 의하여 분할된 영역은 전문가에 의하여 판독된 타겟 영역을 포함하고 있기는 하나, 그 영역을 정밀하게 분할하고 있는 것은 아니다. 이에 대하여, 도 10을 참조하면, 본 발명의 실시예에 따라 분할된 영역은 전문가에 의하여 판독된 타겟 영역과 거의 근접함을 알 수 있다. Referring to FIG. 9, although the area divided by the deep learning technique includes the target area read by the expert, it does not precisely divide the area. In contrast, referring to FIG. 10, it can be seen that the divided region is close to the target region read by the expert according to the embodiment of the present invention.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.As used in this embodiment, the term " portion " refers to a hardware component such as software or an FPGA (field-programmable gate array) or ASIC, and 'part' performs certain roles. However, 'part' is not meant to be limited to software or hardware. &Quot; to " may be configured to reside on an addressable storage medium and may be configured to play one or more processors. Thus, by way of example, 'parts' may refer to components such as software components, object-oriented software components, class components and task components, and processes, functions, , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided in the components and components may be further combined with a smaller number of components and components or further components and components. In addition, the components and components may be implemented to play back one or more CPUs in a device or a secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

Claims (12)

영상 분할 장치의 영상 분할 방법에 있어서,
타겟 영역에 대하여 미리 학습된 데이터에 기반하여 영상 내에서 제1 영역을 검출하는 단계, 그리고
상기 제1 영역 내에서 상기 타겟 영역인 제2 영역을 분할하는 단계를 포함하며,
상기 분할하는 단계에서는, 상기 제1 영역을 복수의 클래스로 분할하고, 각 클래스 별로 레이블링하며, 레이블링된 복수의 영역 중 일부를 상기 타겟 영역에 대하여 미리 설정된 파라미터 및 상기 제1 영역의 토폴로지 특성에 기초하여 제거하는 영상 분할 방법.
An image segmentation method of an image segmentation device,
Detecting a first region in the image based on previously learned data for the target region, and
And dividing a second region that is the target region within the first region,
Wherein the dividing step includes dividing the first area into a plurality of classes and labeling the plurality of classes and labeling a part of the plurality of labeled areas based on a parameter set in advance for the target area and a topology characteristic of the first area The method of claim 1,
삭제delete 제1항에 있어서,
상기 미리 설정된 파라미터는 상기 타겟 영역의 위치 및 상기 타겟 영역의 크기 중 적어도 하나를 포함하는 영상 분할 방법.
The method according to claim 1,
Wherein the predetermined parameter includes at least one of a position of the target region and a size of the target region.
제3항에 있어서,
상기 제거하는 단계에서는 상기 미리 설정된 파라미터에 따라 계산된 코스트 및 상기 제1 영역의 토폴로지 특성에 따라 계산된 코스트를 이용하는 영상 분할 방법.
The method of claim 3,
Wherein the removing step uses the cost calculated according to the predetermined parameter and the cost calculated according to the topology characteristic of the first area.
제4항에 있어서,
상기 미리 설정된 파라미터는 레이블링된 각 영역에 포함되는 픽셀 수 및 상기 영상의 중심과 상기 각 영역 간의 거리 중 적어도 하나를 포함하는 영상 분할 방법.
5. The method of claim 4,
Wherein the predetermined parameter includes at least one of a number of pixels included in each of the labeled areas and a distance between the center of the image and the respective areas.
제4항에 있어서,
상기 제1 영역의 토폴로지 특성은 상기 제1 영역의 휘도(intensity), 컬러(color), 에지(edge), 그레디언트(gradient) 및 고유벡터(eigen-vector) 중 적어도 하나의 변화량을 포함하는 영상 분할 방법.
5. The method of claim 4,
Wherein the topology characteristic of the first region includes at least one of an intensity, a color, an edge, a gradient, and an eigen-vector of the first region, Way.
제4항에 있어서,
상기 제거하는 단계에서는 상기 미리 설정된 파라미터에 따라 계산된 코스트에 대한 제1 가중치 값 및 상기 제1 영역의 토폴로지 특성에 따라 계산된 코스트에 대한 제2 가중치 값을 적용하는 영상 분할 방법.
5. The method of claim 4,
Wherein the eliminating step applies a first weight value for a cost calculated according to the preset parameter and a second weight value for a cost calculated according to a topology characteristic of the first area.
제1항에 있어서,
상기 검출하는 단계 전에
상기 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 상기 영상 내에 상기 타겟 영역이 있는지를 결정하는 단계
를 더 포함하는 영상 분할 방법.
The method according to claim 1,
Before the detecting step
Determining whether the target region is present in the image based on data previously learned for the target region;
The method comprising the steps of:
제8항에 있어서,
상기 검출하는 단계는,
상기 타겟 영역에 대하여 미리 학습된 데이터에 기반하여 상기 영상으로부터 상기 타겟 영역인 것으로 추정되는 영역을 추출하는 단계,
상기 추정되는 영역을 복수의 영역으로 분할하는 단계, 그리고
상기 복수의 영역 중 노이즈 영역을 제거하는 단계를 포함하는 영상 분할 방법.
9. The method of claim 8,
Wherein the detecting comprises:
Extracting an area estimated to be the target area from the image based on data previously learned for the target area;
Dividing the estimated region into a plurality of regions, and
And removing a noise region from the plurality of regions.
제9항에 있어서,
상기 노이즈 영역은 상기 타겟 영역의 위치 및 크기를 이용하여 제거되는 영상 분할 방법.
10. The method of claim 9,
Wherein the noise region is removed using the position and size of the target region.
타겟 영역에 대하여 미리 학습된 데이터에 기반하여 영상 내에서 제1 영역을 검출하는 검출부, 그리고
상기 제1 영역 내에서 상기 타겟 영역인 제2 영역을 분할하는 분할부를 포함하며,
상기 분할부는, 상기 분할부는 상기 제1 영역을 복수의 클래스로 분할하고, 각 클래스 별로 레이블링하며, 레이블링된 복수의 영역 중 일부를 상기 타겟 영역에 대하여 미리 설정된 파라미터 및 상기 제1 영역의 토폴로지 특성에 기초하여 제거하는 영상 분할 장치.
A detector for detecting a first area in an image based on data previously learned for a target area, and
And a dividing section for dividing the second region that is the target region within the first region,
Wherein the dividing unit divides the first area into a plurality of classes and labels each class, and divides a part of the plurality of labeled areas into a predetermined parameter for the target area and a topology characteristic of the first area Image segmentation device to remove based on.
삭제delete
KR1020170169139A 2016-12-21 2017-12-11 Method and apparatus for image segmentation KR101962110B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160175713 2016-12-21
KR20160175713 2016-12-21

Publications (2)

Publication Number Publication Date
KR20180072549A KR20180072549A (en) 2018-06-29
KR101962110B1 true KR101962110B1 (en) 2019-03-27

Family

ID=62781320

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170169139A KR101962110B1 (en) 2016-12-21 2017-12-11 Method and apparatus for image segmentation

Country Status (1)

Country Link
KR (1) KR101962110B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7270303B2 (en) 2018-09-04 2023-05-10 ボンワイズインコーポレイテッド ELECTRONIC DEVICE, METHOD OF OPERATION OF BONE AGE EVALUATION DEVICE, AND COMPUTER-READABLE RECORDING MEDIUM
KR102128987B1 (en) * 2018-09-04 2020-07-02 본와이즈 주식회사 Apparatus, method and recording medium storing program for assessing bone age
KR20230057117A (en) 2021-10-21 2023-04-28 동의대학교 산학협력단 Systems and methods for effective hardware use when using object detection using artificial neural networks

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101384627B1 (en) * 2012-10-26 2014-04-11 전남대학교산학협력단 Method for the automatic segmentation of object area in video

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101196573B1 (en) * 2011-02-08 2012-11-01 재단법인부산정보산업진흥원 Intensity correction of 3D stereoscopic images using region segmentation
KR20150108701A (en) * 2014-03-18 2015-09-30 삼성전자주식회사 System and method for visualizing anatomic elements in a medical image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101384627B1 (en) * 2012-10-26 2014-04-11 전남대학교산학협력단 Method for the automatic segmentation of object area in video

Also Published As

Publication number Publication date
KR20180072549A (en) 2018-06-29

Similar Documents

Publication Publication Date Title
EP3620979B1 (en) Learning method, learning device for detecting object using edge image and testing method, testing device using the same
Bi et al. Automated skin lesion segmentation via image-wise supervised learning and multi-scale superpixel based cellular automata
Sundaresan et al. Automated characterization of the fetal heart in ultrasound images using fully convolutional neural networks
Sheela et al. Automatic brain tumor segmentation from MRI using greedy snake model and fuzzy C-means optimization
Li et al. Glioma segmentation with a unified algorithm in multimodal MRI images
US8908948B2 (en) Method for brain tumor segmentation in multi-parametric image based on statistical information and multi-scale structure information
Ghafoorian et al. Automated detection of white matter hyperintensities of all sizes in cerebral small vessel disease
Akhondi-Asl et al. Hippocampal volumetry for lateralization of temporal lobe epilepsy: automated versus manual methods
KR101962110B1 (en) Method and apparatus for image segmentation
US20150248768A1 (en) Segmentation Using Hybrid Discriminative Generative Label Fusion of Multiple Atlases
US10186030B2 (en) Apparatus and method for avoiding region of interest re-detection
Tang et al. Splat feature classification: Detection of the presence of large retinal hemorrhages
US20210219839A1 (en) Method for classifying fundus image of subject and device using same
EP3479349B1 (en) Change detection in medical images
Sánchez et al. Improving hard exudate detection in retinal images through a combination of local and contextual information
Shivhare et al. An efficient brain tumor detection and segmentation in MRI using parameter-free clustering
CN109919915A (en) Retinal fundus images abnormal area detection method and equipment based on deep learning
Roy et al. Example based lesion segmentation
US7565009B2 (en) System and method for dynamic fast tobogganing
Zhang et al. Tracking-assisted weakly supervised online visual object segmentation in unconstrained videos
Kumar et al. Automatic detection of red lesions in digital color retinal images
Carmo et al. Extended 2D consensus hippocampus segmentation
JP2016195755A (en) Medical image processor, medical image processing method, and medical imaging device
Dasgupta et al. Morphological geodesic active contour based automatic aorta segmentation in thoracic CT images
KR101830512B1 (en) Optimized Image Segmentation Methods and System with DL and PDE

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant