KR100836740B1 - Video data processing method and system thereof - Google Patents
Video data processing method and system thereof Download PDFInfo
- Publication number
- KR100836740B1 KR100836740B1 KR1020060081846A KR20060081846A KR100836740B1 KR 100836740 B1 KR100836740 B1 KR 100836740B1 KR 1020060081846 A KR1020060081846 A KR 1020060081846A KR 20060081846 A KR20060081846 A KR 20060081846A KR 100836740 B1 KR100836740 B1 KR 100836740B1
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- interest
- region
- value
- map
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration by non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20096—Interactive definition of curve of interest
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Abstract
본 발명은 의료 영상 데이터에서 중요한 의미를 가지는 관심영역을 추출하고, 상기 관심영역에 대해 특징 벡터를 생성하는 영상 데이터 처리 방법 및 그에 따른 시스템을 제공하는 것을 그 목적으로 한다. 상기한 본 발명에 따르는 영상 데이터 처리 시스템은, 영상 데이터를 입력받아 회색도 영상 데이터로 변환하여 특징 지도를 생성하여 정규화한 명암지도를 생성함과 아울러, 상기 영상 데이터를 웨이블릿 변환하여 주파수상의 소정치 이상의 변화량을 가진 포인트들과 상기 명암지도를 토대로 상기 영상 데이터내의 관심영역을 추출하는 관심영역 생성부; 상기 명암지도의 평균값과 쿼드-트리 과정을 이용한 분할을 거쳐 상기 관심영역을 세그먼테이션하는 관심영역 세그먼테이션부; 상기 명암지도의 분산을 통하여 상기 세그먼테이션된 관심영역들 각각에 대해 영역별 가중치를 부여하는 가중치 부여부; 상기 세그먼테이션된 관심영역에 대해 특징 벡터를 생성하는 특징벡터 생성부를 포함하는 것을 특징으로 한다.
영상 데이터, 특징 벡터, 관심 영역
It is an object of the present invention to provide an image data processing method and a system according to the method, which extracts a region of interest having an important meaning from medical image data and generates a feature vector for the region of interest. The image data processing system according to the present invention receives image data, converts the image data into grayscale image data, generates a characteristic map, generates a normalized contrast map, and wavelets the image data to a predetermined value on a frequency. A region of interest generation unit configured to extract a region of interest in the image data based on the points having the above change amount and the contrast map; A region of interest segmentation unit configured to segment the region of interest by dividing the mean value of the contrast map by using a quad-tree process; A weighting unit for assigning weights to regions of each of the segmented ROIs through variance of the contrast map; And a feature vector generator for generating a feature vector for the segmented ROI.
Image data, feature vectors, points of interest
Description
도 1은 본 발명의 바람직한 실시예에 따른 영상 데이터 처리 시스템의 구성도. 1 is a block diagram of an image data processing system according to a preferred embodiment of the present invention.
도 2는 도 1의 관심영역 생성부에 포함된 명암지도 생성 알고리즘의 처리 흐름도. FIG. 2 is a flowchart illustrating a contrast map generation algorithm included in the ROI generator of FIG. 1.
도 3는 도 1의 관심영역 생성부의 처리 흐름도. 3 is a flowchart illustrating a process of generating a region of interest in FIG. 1;
도 4는 본 발명의 바람직한 실시예에 따른 관심영역 생성예를 도시한 도면. 4 illustrates an example of generating a region of interest according to a preferred embodiment of the present invention.
도 5는 도 1의 관심영역 세그먼테이션부의 처리 흐름도. 5 is a flowchart illustrating a process of performing a region of interest segmentation of FIG. 1;
도 6은 본 발명의 바람직한 실시예에 따른 관심영역 세그먼테이션예를 도시한 도면. 6 illustrates an example of a region of interest segmentation according to a preferred embodiment of the present invention.
도 7은 도 1의 가중치 설정부의 처리 흐름도. 7 is a processing flowchart of the weight setting unit of FIG. 1.
도 8은 특징벡터 생성부의 처리 흐름도. 8 is a processing flowchart of a feature vector generator;
도 9 내지 도 10은 본 발명의 바람직한 실시예에 따른 특징벡터 생성예를 도시한 도면. 9 to 10 show examples of feature vector generation according to a preferred embodiment of the present invention.
도 11은 도 1의 유사도 비교 수행부의 처리 흐름도. 11 is a process flowchart of the similarity comparison performing unit of FIG. 1.
도 12는 본 발명의 바람직한 실시예에 따른 유사도 비교예를 도시한 도면. 12 is a view showing a comparative example of similarity according to a preferred embodiment of the present invention.
도 13은 본 발명의 바람직한 실시예에 따른 사용자 인터페이스 화면을 도시한 도면. 13 illustrates a user interface screen according to a preferred embodiment of the present invention.
도 14 내지 도 16은 본 발명의 성능을 비교한 예를 도시한 도면. 14 to 16 show examples of comparing the performance of the present invention.
본 발명은 영상 데이터 처리 기술에 관한 것으로, 더욱 상세하게는 영상 데이터 중 관심 영역을 추출하고 상기 관심 영역에 대해 특징 벡터를 생성하여 유사 영상을 검색하는 영상 데이터 처리 방법 및 그에 따른 시스템에 관한 것이다. The present invention relates to an image data processing technology, and more particularly, to an image data processing method and system for extracting a region of interest from image data and generating a feature vector for the region of interest to search for a similar image.
근래 정보통신, 컴퓨터 네트워킹, 데이터베이스, 정보관리, 사용자 인터페이스 및 정보저장관리 기술을 바탕으로 이루어진 PACS(Picture Archiving Communication System) 시스템의 도입으로 최근 의학 분야에서는 방대한 의료 영상이 디지털화되어 하나의 데이터베이스를 구축하고 있다. 따라서 대용량의 의료 영상을 효과적으로 검색하기 위한 필요성이 대두되었고, 이를 위한 멀티미디어 데이터 기술(description)의 표준인 MPEG-7의 응용 연구가 활발히 진행되어 오고 있다. Recently, with the introduction of PACS (Picture Archiving Communication System) system based on information communication, computer networking, database, information management, user interface and information storage management technology, the medical field has recently been digitized to build a database. have. Therefore, the necessity for the effective retrieval of large-capacity medical images has emerged, and the application of MPEG-7, which is a standard of multimedia data description, has been actively conducted.
일반적으로 의료 영상은 관찰자의 눈에 따라 다른 의미를 부여할 수 있으며, 영상내에서 중요한 의미를 내포하는 관심영역과 단색의 배경으로 구성된 특징을 가지므로 일반 자연영상과는 다른 특징기술 및 검색 방법이 요구된다. In general, medical images can have different meanings depending on the eyes of the observer, and have a feature consisting of a region of interest and a solid background that contain important meanings within the image. Required.
한편 MPEG-7의 시각 기술자는 색상, 질감, 모양 등의 특징들을 일정한 형식의 벡터로 표현한 것으로 그동안 자연 영상의 검색에 유용하게 응용되어 왔으며, 그 성능의 우수성이 입증되었다. 그리고 비주얼 기술자는 영상의 고유한 특징 정보를 기술하며 영상의 특성에 따라 각 기술자를 이용한 검색 성능이 달라질 수 있다. On the other hand, the visual descriptor of MPEG-7 expresses features such as color, texture, and shape in a certain form of vector, which has been usefully applied to search for natural images, and its superiority has been proven. Visual descriptors describe unique feature information of an image, and search performance using each descriptor may vary according to characteristics of the image.
그러나 의료 영상은 자연 영상과는 달리 신체의 특정 부위나 특정 세포를 위주로 영상을 획득한다. 이에따라 데이터의 특징 표현 성능이 좋은 비주얼 기술자를 이용하더라도 중요하지 않은 배경이나 비 중요 영역을 포함하는 전체 영상으로부터 특징을 추출한다면 신뢰할 수 없는 검색 결과를 가져올 수 있다. Unlike a natural image, however, a medical image is obtained by focusing on a specific part of a body or a specific cell. As a result, even if a visual descriptor having a good feature representation of data is used, extracting a feature from an entire image including an insignificant background or a non-significant region may result in unreliable search results.
또한 의료 영상은 흑백 영상의 비율이 높기 때문에 이에 따른 적절한 색상, 질감, 모양 정보 등의 선택이 요구된다. In addition, since medical images have a high ratio of black and white images, appropriate selection of color, texture, and shape information is required.
따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 의료 영상 데이터에서 중요한 의미를 가지는 관심영역을 추출하고, 상기 관심영역에 대해 특징 벡터를 생성하는 영상 데이터 처리 방법 및 그에 따른 시스템을 제공하는 것을 그 목적으로 한다. Accordingly, the present invention has been made to solve the above-described problems, and the image data processing method and system for extracting a region of interest having an important meaning from the medical image data and generating a feature vector for the region of interest To provide that purpose.
또한 본 발명의 다른 목적은 상기 관심 영역에 대한 특징 벡터를 통해 유사 영상을 검색하는 영상 데이터 검색 방법 및 그에 따른 시스템을 제공하는 것이다. Another object of the present invention is to provide a method and system for retrieving image data for retrieving similar images through the feature vector for the ROI.
상술한 목적을 달성하기 위한 본 발명에 따르는 영상 데이터 처리 시스템은, 영상 데이터를 입력받아 회색도 영상 데이터로 변환하여 특징 지도를 생성하여 정규화한 명암지도를 생성함과 아울러, 상기 영상 데이터를 웨이블릿 변환하여 주파수상의 소정치 이상의 변화량을 가진 포인트들과 상기 명암지도를 토대로 상기 영 상 데이터내의 관심영역을 추출하는 관심영역 생성부; 상기 명암지도의 평균값과 쿼드-트리 과정을 이용한 분할을 거쳐 상기 관심영역을 세그먼테이션하는 관심영역 세그먼테이션부; 상기 명암지도의 분산을 통하여 상기 세그먼테이션된 관심영역들 각각에 대해 영역별 가중치를 부여하는 가중치 부여부; 상기 세그먼테이션된 관심영역에 대해 특징 벡터를 생성하는 특징벡터 생성부를 포함하는 것을 특징으로 한다. The image data processing system according to the present invention for achieving the above object, receives the image data, converts the image data into grayscale image data, generates a feature map, generates a normalized contrast map, and wavelet transforms the image data. A region of interest generation unit for extracting a region of interest in the image data based on points having a change amount greater than or equal to a predetermined value on a frequency and the contrast map; A region of interest segmentation unit configured to segment the region of interest by dividing the mean value of the contrast map by using a quad-tree process; A weighting unit for assigning weights to regions of each of the segmented ROIs through variance of the contrast map; And a feature vector generator for generating a feature vector for the segmented ROI.
본 발명은 의료 영상 데이터(이하 편이상 영상 데이터라 칭함)의 특성에 따라 영상 데이터 중 관심 영역을 추출하고, 상기 관심 영역에 인간 시각과 MPEG-7 비주얼 기술자를 이용하여 특징벡터를 생성하고, 상기 생성된 특징벡터를 이용하여 유사 영상을 검색한다.According to an embodiment of the present invention, a region of interest is extracted from image data according to characteristics of medical image data (hereinafter, referred to as abnormal image data), a feature vector is generated in the region of interest using human vision and an MPEG-7 visual descriptor, and the generation is performed. Similar images are searched using the extracted feature vectors.
이러한 본 발명의 바람직한 실시예에 따른 영상 데이터 처리 시스템의 구성을 도 1을 참조하여 설명한다.A configuration of an image data processing system according to a preferred embodiment of the present invention will be described with reference to FIG. 1.
상기 영상 데이터 처리 시스템은 데이터 처리부(100)와 데이터베이스(112), 외부기기 인터페이스부(114), 디스플레이 장치(116), 사용자 인터페이스부(118)로 구성된다. The image data processing system includes a
상기한 데이터 처리부(100)는 관심영역 생성부(102), 관심영역 세그먼테이션부(104), 가중치 설정부(106), 특징벡터 생성부(108), 유사도 비교 수행부(110)로 구성된다. The
상기한 관심영역 생성부(102)는 영상 데이터를 입력받아 회색도 영상 데이터로 변환한 후에 특징 지도를 생성하여 정규화한 명암지도를 생성함과 아울러, 상기 영상 데이터를 웨이블릿 변환하여 주파수상의 소정치 이상의 변화량을 가진 포인트들과 상기 명암지도를 토대로 상기 영상 데이터내의 관심영역을 추출하여 관심영역 세그먼테이션부(104)에 제공한다. The region of
상기 관심영역 세그먼테이션부(104)는 상기 명암지도의 평균값과 쿼드-트리 과정을 이용한 분할을 거쳐 상기 관심영역을 세그먼테이션하여 가중치 설정부(106)로 제공한다. The region of
상기 가중치 설정부(106)는 명암지도의 분산을 통하여 상기 세그먼테이션된 관심영역들 각각에 대해 영역별 가중치를 부여한다. The
또한, 상기 특징벡터 생성부(108)는 상기 세그먼테이션된 관심영역에 대해 MPEG-7의 색상, 질감, 형태 디스크립터를 이용하여 특징 벡터를 생성하여 데이터베이스(112)에 저장한다. In addition, the
유사도 비교 수행부(110)는 영상 데이터와 데이터베이스(114)에 저장된 참조 영상 데이터들과의 유사도 비교를 수행하여 최상위 K개의 유사한 의료 영상을 검색하여 그 결과를 디스플레이 장치(116)를 통해 안내한다. The similarity
상기한 외부기기 인터페이스부(114)는 영상 데이터의 입력 등을 위해 외부기기와의 인터페이스를 제공한다. The external
디스플레이 장치(116)는 상기 데이터 처리부(110)의 제어에 따른 각종 정보를 표시하여 사용자에게 안내한다. The
사용자 인터페이스부(118)는 키패드 또는 마우스 등으로 사용자로부터 각종 명령을 입력받아 데이터 처리부(110)에 제공한다. The
이제, 상기한 바와 같은 영상 데이터 처리 시스템의 동작을 좀더 상세히 설명한다. The operation of the image data processing system as described above will now be described in more detail.
먼저, 본 발명의 바람직한 실시예에 따른 명암 지도(Cm) 생성 알고리즘을 도 2를 참조하여 설명한다. 여기서, 상기 명암 지도(Cm) 생성 알고리즘은 상기 관심영역 생성부(102)에 포함된다. First, a contrast map (Cm) generation algorithm according to a preferred embodiment of the present invention will be described with reference to FIG. Here, the contrast map Cm generation algorithm is included in the region of
상기 명암 지도(Cm) 생성 알고리즘은 외부로부터 영상 데이터가 입력되는지를 체크한다(200단계).The contrast map Cm generation algorithm checks whether image data is input from the outside (step 200).
상기 영상 데이터가 입력되면, 명암 지도(Cm) 생성 알고리즘은 입력된 영상 데이터를 1/2로 크기의 회색도(gray level) 영상 데이터(L)로 변환하고(202단계), 다른 크기의 다수의 필터(12*12,13*13)를 적용하여 필터안의 중심점과 주변점들 사이의 차이 값을 계산하여(204단계), 원 영상에 대한 다수의 특징지도(FEATURE MAP)을 생성하여(206단계), 이를 정규화한다(208단계). When the image data is input, the contrast map (Cm) generation algorithm converts the input image data into gray level image data L having a size of 1/2 (step 202) and a plurality of different sizes. By applying the
그리고 상기 명암 지도(Cm) 생성 알고리즘은 상기 다수의 특징지도에 대해 잡음과 주변 포인트들의 영향을 제거하기 위하여 가우시안 필터링을 이행한다(210단계). The intensity map (Cm) generation algorithm performs Gaussian filtering on the plurality of feature maps to remove the influence of noise and surrounding points (step 210).
이러한 과정을 통하여 영상 크기가 L이고, 사용된 필터 크기가 s일 때, 해당 중심점과 이웃점들간의 명암차이를 나타내는 명암지도() 은 수학식 1과 같이 산출된다. Through this process, when the image size is L and the filter size used is s, the intensity map representing the contrast difference between the center point and the neighboring points ( ) Is calculated as in
상기 수학식 1에 따라 명암지도()가 산출되면, 명암지도() 생성 알고리즘은 상기 명암지도()를 원래 영상 데이터의 크기로 샘플링하여 최종 명암지도(Cm)를 생성한다(212단계). Contrast map according to Equation 1 ) Is calculated, the contrast map ( ) Algorithm generates the contrast map ( ) Is sampled at the size of the original image data to generate a final contrast map Cm (step 212).
이제 상기한 바와 같이 생성한 명암지도(Cm)를 이용하여 관심영역(AW;ATTENTION WINDOW)을 생성하는 과정을 도 3을 참조하여 설명한다. A process of generating an area of interest (AW) using the intensity map Cm generated as described above will now be described with reference to FIG. 3.
관심영역 생성부(102)는 명암지도(Cm) 생성 알고리즘으로부터 입력된 영상 데이터에 대한 명암지도(Cm)를 제공받는다(300단계). The region of
상기 관심영역 생성부(102)는 입력된 영상 데이터에 대해 웨이블릿 변환을 이행한 후에(302단계), 상기 웨이블릿 변환 결과에 따라 상기 영상 데이터 내에서 모서리나 에지 등과 같이 주파수 변화량이 큰 지점, 즉 소정값이상의 주파수 변화량을 가지는 지점을 중요 포인트(SP)로서 추출한다(304단계). 상기 중요 포인트의 추출이 완료되면, 관심영역 생성부(102)는 초기 관심영역을 설정한다(306단계). 여기서, 상기 초기 관심영역은 영상 분석을 통해 계산된 값으로 영상 데이터에 존재하는 최대 관심 영역의 크기를 포함하도록 설정된다. After performing the wavelet transform on the input image data (step 302), the
상기 초기 관심영역의 설정후에, 관심영역설정부(102)는 중심좌표(CAW)를 중심으로 후보 관심영역을 결정한다(308단계). 상기 후보 관심영역은 전체 영상 데이 터에서 가장 큰 개수의 중요 포인트(SP)를 가지는 하나의 영역을 설정하는 것이다. After the initial ROI is set, the
상기 후보 관심영역의 설정후에, 관심영역 설정부(102)는 명암지도(Cm)의 평균값을 산출하여 관심영역 설정을 위한 임계값(Tcm)으로서 설정한다(310단계).After setting the candidate region of interest, the region of
상기 관심영역 설정을 위한 임계값(Tcm)의 설정이 완료되면, 관심영역 설정부(102)는 후보 관심영역에 대한 픽셀들에 대한 명암지도(Cm_of_xy)가 임계값(Tcm)보다 작고, 상기 후보 관심영역의 가장자리의 픽셀들이 중요포인트(SP)가 아닌지를 체크한다(312단계).When the setting of the threshold value Tcm for setting the ROI is completed, the
상기 후보 관심영역에 대한 픽셀들에 대한 명암지도(Cm_of_xy)가 임계값(Tcm)보다 작고, 상기 후보 관심영역의 가장자리의 픽셀들이 중요포인트(SP)가 아니면, 관심영역 설정부(102)는 상기 중심좌표(CAW)를 중심으로 상기 후보 관심영역의 경계면을 한픽셀씩 축소하고, 변형된 관심영역의 새 중심좌표를 검출한 후에 상기 (308)단계로 복귀한다(314~316단계). If the intensity map Cm_of_xy of the pixels for the candidate region of interest is smaller than the threshold value Tcm, and the pixels at the edges of the candidate region of interest are not the significant point SP, the region of
상기한 바와 다르게 상기 후보 관심영역의 경계면에 대한 픽셀들에 대한 명암지도(Cm_of_xy)가 임계값(Tcm)보다 크거나, 해당 픽셀들이 중요포인트(SP)이면, 관심영역 설정부(102)는 해당 후보 관심영역을 관심영역으로 설정한다(318단계).Unlike the above, if the contrast map Cm_of_xy of the pixels on the boundary of the candidate region of interest is larger than the threshold value Tcm, or if the pixels are the important point SP, the region of
이와 같이 관심영역 설정부(102)는 관심영역이 실제 관심영역의 크기와 가장 유사한 근사크기를 가질 때까지 관심 윈도우의 크기를 한 픽셀씩 줄여나가면서 최종적으로 분리된 관심영역을 얻어낸다. In this way, the
도 4는 본 발명에 따른 영상의 관심 윈도우가 생성된 결과를 예시한 것이다. 상기 도 4를 참조하면, 입력된 의료 영상 데이터의 관심영역은 명암지도 및 중요 포인트들을 통해 설정된다. 4 illustrates a result of generating a window of interest of an image according to the present invention. Referring to FIG. 4, the ROI of the input medical image data is set through the contrast map and the important points.
이제 관심영역 세그먼테이션부(104)의 동작을 도 5의 흐름도를 참조하여 설명한다. The operation of the
상기 관심영역 세그먼테이션부(104)는 관심영역 생성부(102)에 의해 1차 설정된 관심영역을 입력받아 해당 관심영역에 대한 명암지도의 평균값을 산출하여 임계값으로서 설정한다(400,402단계).The region of
이후 관심영역 세그먼테이션부(104)는 상기 관심영역을 소정 수, 예를들어 4*4로 분할하고, 분할된 각 영역에 대한 명암지도 평균값을 산출한다(404,406단계). Thereafter, the
상기 분할된 각 영역에 대한 명암지도 평균값이 산출되면, 각 영역에 대한 명암지도 평균값이 상기 임계값보다 작은지를 체크하여, 상기 임계값보다 보다 해당 영역의 명암지도 평균값이 작으면 해당 영역은 중요 정보가 포함되지 않은 영역으로 판단하여 제거한다(408,410단계).When the average value of the intensity map for each of the divided regions is calculated, it is checked whether the average value of the intensity map for each region is smaller than the threshold value, and if the average value of the intensity map of the region is smaller than the threshold value, the corresponding region is important information. In
상기한 바와 달리 해당 영역에 대한 명암지도 평균값이 상기 임계값보다 크면 404단계로 복귀하여 해당 영역을 다시 분할하고, 분할된 각 영역에 대한 명암지도 평균값을 산출한 후에 그 명암지도 평균값이 다시 상기 임계값보다 작은지를 체크한다(408단계). 이러한 과정을 최대 3회 반복 수행한다. Contrary to the above, if the average value of the contrast map for the corresponding region is greater than the threshold value, the process returns to step 404 to subdivide the corresponding region, calculates the average value of the contrast map for each divided region, and then again contrasts the average value of the contrast map. It is checked whether it is smaller than the value (step 408). Repeat this process up to three times.
상기 3회 반복 분할된 영역에 대한 명암지도 평균값이 상기 임계값보다 크면, 관심영역 세그먼테이션부(104)는 해당 영역은 중요 정보가 포함된 영역으로 판단하여 해당 영역에 대한 정보를 유효한 관심영역에 대한 정보로서 저장한다(410단 계).If the average value of the contrast map for the region that has been repeatedly divided three times is greater than the threshold value, the
상기한 (404~410)의 단계가 모든 관심영역에 대해 이행되었으면, 관심영역 세그먼테이션부(104)는 저장된 유효한 관심영역들 중 이웃하는 관심영역들을 병합함과 아울러 상기 유효한 관심영역들중 소정 거리이상 이격된 관심영역들은 제거함으로써 최종 관심영역을 획득한다. When the
도 6은 본 발명에 따른 영상의 세그먼테이션이 수행된 결과를 예시한 것으로, 입력된 관심영역은 명암지도의 평균값과 쿼드-트리 과정을 이용한 세그먼테이션을 통해 최종 관심영역이 추출된다. FIG. 6 illustrates a result of segmentation of an image according to the present invention. The input ROI is extracted from the final ROI through segmentation using an average value of a contrast map and a quad-tree process.
이제 가중치 설정부(106)의 동작을 도 7의 흐름도를 참조하여 설명한다. The operation of the
상기 가중치 설정부(106)는 추출된 관심영역들에 대해 특징 벡터의 거리 차를 구하기 위하여 입력 영상 데이터에서 중요도에 따른 초기 중요도 가중치()를 설정한다. The
상기 가중치 설정부(106)는 관심영역을 입력받아 인간시각특성에 부합되는 명암대비지도(i)를 이용하여 각 관심영역에 대한 분산(vi)을 산출한다(500,502단계). The
이후 가중치 설정부(106)는 상기 산출된 분산(vi) 값에 따라 상기 관심영역들을 정렬하고, 높은 분산값을 가지는 관심영역을 더 중요한 관심영역으로 판단하여 수학식 2에 따른 상대적인 중요도 값을 각 영역에 부여한다. Then, the
상기 수학식 2에서 N은 관심영역의 개수를 의미한다. 수식에서 분모가 일 경우 선형 조합보다 특징값의 작은 변화에 민감하게 작용하기 때문에 보다 정확한 가중치 계산이 가능하며 검색 성능 향상에 도움을 준다.In
이제, 특징벡터 생성부(108)의 동작을 도 8의 흐름도를 참조하여 설명한다. The operation of the
상기 특징벡터 생성부(108)는 MPEG-7 비주얼 기술자를 이용하여 관심영역별 색상, 질감, 모양 특징을 조합하여 기술한다. The
즉 특징벡터 생성부(108)는 관심영역에 대한 영상 데이터를 입력받아(600단계), Color Structure Descriptor(CSD)를 이용하여 색상 특징을 추출하고(602단계), Edge Histogram Descriptor(EHD)를 이용하여 질감 특징을 추출하고(604단계), Region Shape Descriptor(RSD)를 이용하여 형태 특징을 추출한다(606단계). That is, the
상기 CSD는 영상의 유사한 색상 간의 히스토그램과 지역 공간 구조의 분포를 나타내며, 구조적 특징을 가진 색상 분포를 효과적으로 기술한다. 추출된 특징은 수학식 3과 같이, 8비트로 양자화된 1차원 배열의 특징 벡터이다. The CSD represents a histogram and a distribution of local spatial structure between similar colors of an image, and effectively describes a color distribution having structural features. The extracted feature is a feature vector of a one-dimensional array quantized to 8 bits, as shown in
상기 수학식 3에서 M은 {256, 128, 64, 32} 중 하나의 값을 지정하고 s 는 structuring element의 크기를 나타낸다. In
상기 CSD를 이용한 질의 영상 데이터의 어느 한 영역과 데이터베이스의 참조 영상의 한 영역간의 유사도 식은 수학식 4와 같다.A similarity equation between one region of the query image data using the CSD and one region of the reference image of the database is expressed by Equation 4.
상기 수학식 4에서 qc와 rc는 각각 질의 영상과 참조 영상에서 얻어진 영역을 의미하고 와 는 각각 질의와 참조 영상의 qc와 rc영역에서의 i번째 특징 벡터 값을 의미한다. In Equation 4, qc and rc mean regions obtained from a query image and a reference image, respectively. Wow Denote i- th feature vector values in the qc and rc regions of the query and reference image, respectively.
그리고 본 발명에 따른 색상 특징을 추출하기 위해 색상 히스토그램의 빈을 축적하는 과정을 예시한 도 9를 참조하면, 4 * 4 구조의 엘리먼트(structuring element)에 4개의 색상(color)이 존재하고, 8개의 CS 히스토그램을 생성할 경우에는 대응하는 빈의 크기가 1증가된다. In addition, referring to FIG. 9 illustrating a process of accumulating bins of a color histogram in order to extract color features according to the present invention, four colors exist in a 4 * 4 structure element. If you create two CS histograms, the size of the corresponding bin is increased by one.
그리고 본 발명에 따른 질감 특성을 추출하기 위한 영상 분할의 정의를 예시한 도 10을 참조하면, 분할된 서브 영상을 토대로 EHD는 수직, 수평, 대각선 두 방향의 4 종류 에지와 비 방향성 에지를 검출하여 영상이 갖는 에지의 국부 분포를 나타낸다. 각 서브 영역마다 5가지의 에지 타입이 존재하기 때문에 4 * 4 = 16의 서브 영상에 전체 16 * 5 = 80개의 빈(bin)을 가지는 히스토그램이 추출되고, 이는 수학식 5와 같다.Referring to FIG. 10 illustrating the definition of image segmentation for extracting texture characteristics according to the present invention, based on the divided sub-images, the EHD detects four edges and two non-directional edges in two directions: vertical, horizontal, and diagonal. It shows the local distribution of the edge of the image. Since five edge types exist in each subregion, a histogram having a total of 16 * 5 = 80 bins is extracted in a 4 * 4 = 16 sub-image, which is expressed by
상기 EHD를 이용한 질의 영상의 한 영역과 데이터베이스의 참조 영상의 한 영역 간의 유사도 측정은 수학식 6과 같다.The similarity measurement between one region of the query image using the EHD and one region of the reference image of the database is represented by Equation 6.
상기 수학식 6에서 qc와 rc는 각각 질의 영상과 참조 영상에서 얻어진 영역을 의미하고 QEHD (i) ( qc ) 와 REHD (i) ( rc ) 는 질의와 참조 영상의 qc와 rc영역에서의 i번째 특징 벡터값을 의미한다.In Equation 6, qc and rc mean regions obtained from the query image and the reference image, respectively, and QEHD (i) ( qc ) and REHD (i) ( rc ) refer to the i th in the qc and rc regions of the query and reference image, respectively. The feature vector value.
그리고 영상의 모양 기술자(RSD)를 위해서는 Angular Radial Transform(ART) 기법을 사용하고 생성된 ART 계수는 정규화된 크기를 가지며, 총 35개의 계수로 표현된다.For the shape descriptor (RSD) of the image, the Angular Radial Transform (ART) technique is used, and the generated ART coefficient has a normalized size and is represented by a total of 35 coefficients.
질의 영상의 한 영역과 데이터베이스의 참조 영상의 한 영역 간의 유사도(Diff_RSD)의 측정은 수학식 7과 같다.The measurement of the similarity ( Diff_RSD ) between one region of the query image and one region of the reference image of the database is expressed by
상기한 수학식 7에서 과 은 각각 질의와 참조 영상의 계수 크기를 나타낸다. In
하나의 기술자로 생성된 특징 벡터의 크기는 다양한 값의 범위를 가지기 때문에 벡터간 거리를 이용한 유사도의 측정에 있어, 생성된 세 특징값은 정규화 과정이 필요하다. 이를 위해 특징벡터 생성부(108)는 가우시안 정규화(Gaussian normalization method)를 이용하여 상기한 특징값들을 정규화하고, 정규화된 특징벡터를 데이터베이스(114)에 저장한다(608,610단계).Since the size of the feature vector generated by one descriptor has a range of various values, the three generated feature values need to be normalized in the measurement of the similarity using the distance between the vectors. To this end, the
이제, 본 발명의 바람직한 유사도 비교 수행부(110)의 동작을 도 11을 참조하여 설명한다. Now, the operation of the preferred similarity
먼저 식물 세포, 동물 세포, 전자 현미경 및 각종 조직(histology) 영상 데이터 등을 포함하는 참조 영상 데이터로 데이터베이스(112)를 구축한다. 또한 질의 영상 데이터에 대한 검색 성능 평가를 위하여 14개의 관련 영상을 선정하여 이를 유사 영상(Ground-Truth)로 분류하였다. First, a
데이터베이스(112)의 참조 영상 데이터는 관심영역 선별 과정을 통하여 하나 이상의 관심영역들을 구하고(700단계), 구해진 각 영역에 대해 세가지 특징을 추출하고 이를 조합하여 특징벡터를 생성한 뒤 데이터베이스에 저장한다(702단계). The reference image data of the
그리고 검색을 위해 질의 영상 데이터가 입력되면 동일한 과정으로 관심영역을 추출하여 각 영역들에 대한 중요도 가중치를 평가하고, 추출된 특징값을 조합하여 특징벡터를 생성한다(704~708단계). When the query image data is input for retrieval, the region of interest is extracted in the same process to evaluate importance weights of the regions, and the feature vectors are generated by combining the extracted feature values (
그리고 참조 영상과 질의 영상의 영역들에 대한 특징 벡터의 거리 값을 측정하여 최종 후보 참조 집합을 생성한다(710단계). In
그러나 데이터베이스 영상의 수가 1000개 이상일 경우, 각 영상마다 하나 이상의 관심영역이 추출되어 기술자로 저장되어 있다면 질의 영역과 데이터베이스 영역들 간의 특징벡터의 거리 값 측정은 많은 검색 시간을 필요로 하게 된다. However, when the number of database images is 1000 or more, if one or more regions of interest are extracted and stored as descriptors for each image, the measurement of the distance value of the feature vector between the query region and the database regions requires a lot of searching time.
따라서 본 발명에서는 실험에 사용된 의료 영상의 세 특징 벡터 중에서 색상 특징이 큰 선별력을 가짐을 실험을 통해 발견하고, 색상 특징 벡터를 1차적으로 비교하여 전체 영상에서 유사 영상들을 선별한다. Therefore, in the present invention, the color feature among the three feature vectors of the medical image used in the experiment has been found to have a large screening power through an experiment, and the similar image is selected from the entire image by comparing the color feature vectors.
그리고 1차적으로 선별된 영상들에 대해서 나머지 두 특징 벡터에 대한 유사도 비교를 수행하여 최종적인 유사 영상들을 선별한다. Finally, similarity comparisons are performed on the remaining two feature vectors and the final similar images are selected.
유사도 비교 수행을 통하여 영역 간의 특징벡터 거리 차가 구해지면 가장 적은 차이를 가지는 상위 k개의 영상이 유사도 차에 따라 오름차순으로 정렬되어 사용자에게 제공된다(712,714단계). When the feature vector distance difference between regions is obtained by performing the similarity comparison, the top k images having the smallest difference are provided to the user in the ascending order according to the similarity difference (
이때 유사도 비교 수행을 위한 후보 참조 집합을 생성하는 과정은 도 12에 나타난다. In this case, a process of generating a candidate reference set for performing similarity comparison is shown in FIG. 12.
도 12는 본 발명에 따른 유사도 비교에서 후보 참조 집합을 찾기 위한 과정을 나타낸 실시 예이다.12 is a diagram illustrating a process for finding a candidate reference set in a similarity comparison according to the present invention.
도 12를 살펴보면 질의 영상은 하나 이상의 관심 영역이 추출되며 이에 대해 세 가지 특징 벡터들이 생성된다. 질의 영상 내의 관심영역 Q1은 목표 영상 안에 포함된 영역들과의 유사도 수행을 위해 1: N 의 관계를 가지며, 각각의 참조 영역 Ref1, Ref2 , Ref3과 특징 값의 거리를 측정한다. 그 중 정의된 임계값을 넘지 않는 최소 거리의 영역을 찾고 이를 참조 집합인 R c 에 포함시킨다. 도 12의 실시예에서는 연산 결과, 질의 영상내의 영역 Q1 , Q2와 가장 유사한 영역인 Ref1 , Ref3이 최종 후보 참조 집합 R c = R ef 1, R ef 3에 포함되고 유사도 비교 수행을 위해 사용된다. Referring to FIG. 12, one or more regions of interest are extracted from the query image, and three feature vectors are generated. The region of interest Q1 in the query image has a 1 : N relationship to perform similarity with the regions included in the target image, and measures the distance between each reference region Ref1, Ref2 , Ref3 and the feature value. Among them, the region of minimum distance not exceeding the defined threshold is found and included in the reference set R c . In the embodiment of FIG. 12, as a result of the operation, Ref1 and Ref3, which are the areas most similar to the areas Q1 and Q2 in the query image , are the final candidate reference set R c. =
하나 또는 다수의 관심 영역에 대해 구해진 세 특징 벡터간 거리 차는 일반적으로 수학식 8과 같이 합산하지만, 본 발명에서 제안하는 설정된 초기 가중치를 이용한 유사도(S)의 비교 수행은 수학식 9와 같이 변형되어 적용된다.The distance difference between three feature vectors obtained for one or more regions of interest is generally summed as in
도 13은 본 발명에 따른 관심영역 기반의 의료 영상 검색 시스템 인터페이스를 예시한 것이다. 상기한 도 13을 참조하면, 의료 영상 검색 시스템은 데이터베이스에 저장된 영상 중에서 사용자가 질의한 영상과 가장 유사한 상위 k개의 영상을 검색한다. 질의 영상으로부터 관심영역이 추출되고 배경이 제거되면, 각 관심영역간의 유사도를 측정하고 최종적으로 상기의 수학식 9를 이용하여 영상 간의 거리 차를 구한다. 그리고 거리 차가 가장 적은 상위 k개의 영상이 유사도 차에 따라 오름차순으로 정렬되어 검색 결과로 보여진다. 또한 사용자는 이를 이용하여 질의가 가능하고, 추출된 관심영역이 다수일 경우 그중에서 원하는 하나의 영역만을 설정 하여 질의할 수도 있다. 또한 색상, 질감, 모양 특징을 부분적으로 선택하여 질의가 가능하다. 13 illustrates an interface of a medical image retrieval system based on a region of interest according to the present invention. Referring to FIG. 13, the medical image retrieval system retrieves the top k images most similar to the images queried by the user among the images stored in the database. When the ROI is extracted from the query image and the background is removed, the similarity between the ROIs is measured, and finally, the distance difference between the images is obtained by using
수행된 검색 방법의 유효성과 성능 평가를 위한 도구로는 Precision/Recall에 비해 검색 결과의 충실 지수를 반영할 수 있는 NMRR(Normalized Modified Retrieval Rank)와 ANMRR(Average Normalized Modified Retrieval Rank)를 사용하였다. 정규화된 NMRR과 ANMRR은 0에서 1의 값을 가지며 0에 가까운 값을 가질수록 좋은 성능을 나타낸다.As tools for evaluating the validity and performance of the search method, we used Normalized Modified Retrieval Rank (NMRR) and Average Normalized Modified Retrieval Rank (ANMRR). Normalized NMRR and ANMRR have a value from 0 to 1, and a value near 0 shows better performance.
도 14는 본 발명에 따른 관심영역 기반의 방식과 전체 영상을 이용한 방식의 NMRR의 성능을 비교한 그래프이다.14 is a graph comparing the performance of the NMRR of the ROI-based method and the method using the whole image according to the present invention.
상기한 도 14에 나타나는 결과는 동일한 초기 가중치를 부여한 본 발명에 따른 관심영역 기반의 검색과 전체 영상을 대상으로 비교하는 일반적인 검색의 결과를 비교한 것이다. 결과는 영상의 의미 없는 배경을 제거하고 중요한 영역만을 찾아내어 이를 토대로 검색을 수행하는 관심영역의 기반의 검색이 더 높은 성능을 나타냄을 보여준다. 또한 영역에서 관심영역이 두드러지게 하나의 영역으로 대표될 경우, 배경의 영향을 크게 감소시켜 높은 검색 성능을 나타낸다. 그러나 영상에서 관심 영역이 다수로 추출될 경우에는 영상 전체를 대상으로 한 검색과 거의 비슷한 검색 성능을 가지는 것을 알 수 있다. The results shown in FIG. 14 compare the results of the ROI-based search according to the present invention with the same initial weight and the results of the general search comparing the entire image. The results show that the search based on the region of interest, which removes the meaningless background of the image and searches only the important regions, performs the search based on this. In addition, when the ROI is remarkably represented by one region in the region, the effect of the background is greatly reduced, thereby showing high search performance. However, if the region of interest is extracted from the image, it can be seen that the search performance is almost similar to that of the entire image.
도 15는 본 발명에 따른 중요도에 따른 초기 가중치의 부여 방식과 무가중치 방식의 NMRR의 성능을 비교한 그래프이다.15 is a graph comparing the performance of the NMRR of the weighting method and the weighting method of the initial weight according to the importance according to the present invention.
상기한 도 15는 영상에서 하나 이상의 관심영역이 추출된 경우 관심영역에 대한 상대적 중요도를 평가하여 초기 가중치를 설정한 뒤, 영상 간 특징 벡터 값을 비교하는 본 발명에 따른 검색 성능을 분석한 결과로서, 인간 시각에 부합하는 의미론적인 가중치의 부여는 보다 더 적절한 영역을 유사 영역으로 판단하기 때문에 보다 더 높은 검색을 나타낸다. 또한 가중치를 부여하는 본 발명에 따른 검색 방식은 기존의 방식과 검색 결과인 ANMRR을 비교하여 27.44 ~ 37.13%의 향상된 높은 검색 성능을 가진다.15 is a result of analyzing the search performance according to the present invention comparing the feature vector values between images after setting initial weights by evaluating the relative importance of the ROIs when one or more ROIs are extracted from an image. However, the assignment of semantic weights in line with human vision results in a higher search because more relevant areas are considered similar areas. In addition, the weighted search method according to the present invention has an improved high search performance of 27.44 to 37.13% by comparing ANMRR which is a search result with a conventional method.
도 16은 본 발명에 따른 관심영역과 세 가지 기술자를 동시에 사용한 방법과 각각의 기술자를 분리시킨 방법과의 성능을 비교한 표이다.16 is a table comparing the performance of the method using the region of interest and the three descriptors according to the present invention and the method of separating each descriptor.
상기한 도 16의 세 가지 기술자 중에서 EHD는 대체적으로 높은 성능을 나타내고 RSD가 상대적으로 낮은 성능을 나타낸다. 그러나 EHD는 추출된 관심영역의 개수 변화에 민감하게 반응하여 불규칙한 검색 성능 분포를 가지는데 반해, CSD는 관심영역의 개수에 상관없이 고른 검색 성능을 나타낸다. 실험의 결과는 특징을 조합하여 사용하는 본 발명에 따른 검색이 보다 더 효과적이며, 각각의 기술자들의 사용에서 발생하는 오류를 줄일 수 있음을 보여준다. Among the three descriptors of FIG. 16 described above, EHD generally exhibits high performance and RSD exhibits relatively low performance. However, while EHD has an irregular search performance distribution in response to the change in the number of extracted ROIs, CSD shows an even search performance regardless of the number of ROIs. The results of the experiments show that the search according to the invention using the combination of features is more effective and can reduce the errors incurred in the use of the respective technicians.
이상에서 설명한 바와 같은 본 발명에 따른 의료영상에서 관심영역을 분리하고 MPEG-7 비주얼 기술자를 조합하여 특징벡터를 생성하기 위한 기법은 다음과 같은 효과가 있다. As described above, a technique for generating a feature vector by separating a region of interest from a medical image and combining MPEG-7 visual descriptors has the following effects.
첫째, 의료 영상에서 단색의 배경과 중요한 의미를 내포하고 있는 관심영역을 분리하여 관심영역에 기반 한 검색을 가능하게 하며, 의미 없는 배경이나 비 관 심 영영의 유사도 비교 수행으로 인한 오차 값을 줄임으로써 검색의 성능을 향상시킨다. First, it is possible to search based on the region of interest by separating the background of a single color from the medical image and containing the important meaning, and by reducing the error value caused by comparing the similarity of meaningless background or uninterested domains. Improve the performance of the search.
둘째, 관심영역의 정확한 추출을 위해서는 상당한 처리시간이 요구되지만, 명암지도와 중요 포인트를 이용하여 관심 윈도우를 생성하고 쿼드-트리 과정을 이용하여 관심영역을 세그먼테이션 함으로써 세그먼테이션을 위한 처리시간을 단축시키고, 관심영역을 인간 시각적인 특징에 부합하도록 추출할 수 있다.Secondly, considerable processing time is required for accurate extraction of the region of interest, but the processing time for segmentation is shortened by creating a window of interest using intensity maps and key points and segmenting the region of interest using quad-tree processes. Regions of interest can be extracted to match human visual characteristics.
셋째, 추출된 관심 영역들에 대하여 명암 대비 지도를 이용하여 상대적인 초기 중요도 가중치를 평가하여 이를 유사도 수행에 이용함으로써 인간 시각 특성에 부합하는 검색을 가능하게 할 수 있다.Third, the relative initial importance weights may be evaluated using the contrast map on the extracted ROIs, and then used to perform the similarity, thereby enabling searching corresponding to human visual characteristics.
넷째, 하나의 기술자로 영상의 전체 특징을 기술할 경우에는 영상의 특성에 따라 검색 성능이 저하될 수 있으나, 적절한 특징 기술자들을 조합하여 영상의 복합적인 특징을 추출하여 특징 벡터를 생성함으로써 각각의 기술자들의 사용에서 발생하는 오류를 줄이고 검색의 정확도를 향상시킨다.Fourth, when describing all features of an image with one descriptor, retrieval performance may be deteriorated according to the characteristics of the image. However, each descriptor is generated by extracting a complex feature of the image by combining appropriate feature descriptors. This reduces the errors that occur in their use and improves the accuracy of the search.
이상 설명한 내용을 통하여 당업자라면 본 발명의 기술 사상을 이탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. Those skilled in the art will appreciate that various changes and modifications can be made without departing from the spirit of the present invention.
따라서 본 발명의 기술적 범위는 실시예에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정해져야 한다. Therefore, the technical scope of the present invention should not be limited to the contents described in the embodiments, but should be defined by the claims.
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060081846A KR100836740B1 (en) | 2006-08-28 | 2006-08-28 | Video data processing method and system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060081846A KR100836740B1 (en) | 2006-08-28 | 2006-08-28 | Video data processing method and system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080021181A KR20080021181A (en) | 2008-03-07 |
KR100836740B1 true KR100836740B1 (en) | 2008-06-10 |
Family
ID=39395723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060081846A KR100836740B1 (en) | 2006-08-28 | 2006-08-28 | Video data processing method and system thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100836740B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100942655B1 (en) | 2008-10-01 | 2010-02-17 | 성균관대학교산학협력단 | Real-time image processing apparatus and method |
KR101052628B1 (en) * | 2009-07-20 | 2011-07-29 | 인하대학교 산학협력단 | Fast Feature Extraction from Chest City Image Using Integral Image |
KR101556601B1 (en) | 2014-07-23 | 2015-10-01 | 연세대학교 산학협력단 | Apparatus and method for building big data database of 3d volume images |
KR102053890B1 (en) * | 2019-03-19 | 2019-12-09 | (주)아이티에프 | Intestinal obstruction detection Method Using a X-Ray monitoring |
WO2023106442A1 (en) * | 2021-12-08 | 2023-06-15 | (주)파인헬스케어 | Medical equipment for diagnosing and managing wounds, and medical equipment operation method |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101522985B1 (en) * | 2008-10-31 | 2015-05-27 | 삼성전자주식회사 | Apparatus and Method for Image Processing |
KR101616874B1 (en) | 2009-09-23 | 2016-05-02 | 삼성전자주식회사 | Method and apparatus for blending multiple images |
KR20140031613A (en) | 2012-09-05 | 2014-03-13 | 삼성전자주식회사 | Apparatus and method for processing image |
KR102094507B1 (en) * | 2013-11-01 | 2020-03-27 | 삼성전자주식회사 | Method of generating hierarchical saliency images detection with selective refinement, Computer readable storage medium of recording the method and an saliency image generationg device |
WO2017051945A1 (en) * | 2015-09-24 | 2017-03-30 | 주식회사 뷰노코리아 | Method and apparatus for providing medical information service on basis of disease model |
CN107451966B (en) * | 2017-07-25 | 2021-05-11 | 四川大学 | Real-time video defogging method implemented by guiding filtering through gray level image |
KR102072796B1 (en) * | 2018-05-16 | 2020-02-03 | 주식회사 브이터치 | Method, system and non-transitory computer-readable recording medium for calculating spatial coordinates of a region of interest |
KR102400568B1 (en) * | 2019-07-19 | 2022-05-24 | 울산대학교 산학협력단 | Method and apparatus for identifying anomaly area of image using encoder |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000014123A (en) * | 1998-08-17 | 2000-03-06 | 이계철 | Image likeness weighted value adjustment device and method and contents base image search system and method using thereof |
KR20030009674A (en) * | 2001-07-23 | 2003-02-05 | 주식회사 오픈비주얼 | apparatus and method for content-based image retrieval |
-
2006
- 2006-08-28 KR KR1020060081846A patent/KR100836740B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000014123A (en) * | 1998-08-17 | 2000-03-06 | 이계철 | Image likeness weighted value adjustment device and method and contents base image search system and method using thereof |
KR20030009674A (en) * | 2001-07-23 | 2003-02-05 | 주식회사 오픈비주얼 | apparatus and method for content-based image retrieval |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100942655B1 (en) | 2008-10-01 | 2010-02-17 | 성균관대학교산학협력단 | Real-time image processing apparatus and method |
KR101052628B1 (en) * | 2009-07-20 | 2011-07-29 | 인하대학교 산학협력단 | Fast Feature Extraction from Chest City Image Using Integral Image |
KR101556601B1 (en) | 2014-07-23 | 2015-10-01 | 연세대학교 산학협력단 | Apparatus and method for building big data database of 3d volume images |
WO2016013881A1 (en) * | 2014-07-23 | 2016-01-28 | 연세대학교 산학협력단 | Apparatus and method for constructing big data database of three-dimensional volume image |
KR102053890B1 (en) * | 2019-03-19 | 2019-12-09 | (주)아이티에프 | Intestinal obstruction detection Method Using a X-Ray monitoring |
WO2023106442A1 (en) * | 2021-12-08 | 2023-06-15 | (주)파인헬스케어 | Medical equipment for diagnosing and managing wounds, and medical equipment operation method |
Also Published As
Publication number | Publication date |
---|---|
KR20080021181A (en) | 2008-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100836740B1 (en) | Video data processing method and system thereof | |
US7848577B2 (en) | Image processing methods, image management systems, and articles of manufacture | |
Kandaswamy et al. | Efficient texture analysis of SAR imagery | |
CN111524137B (en) | Cell identification counting method and device based on image identification and computer equipment | |
Zhuo et al. | Cloud classification of ground-based images using texture–structure features | |
EP2701098B1 (en) | Region refocusing for data-driven object localization | |
CN107967482A (en) | Icon-based programming method and device | |
US8326029B1 (en) | Background color driven content retrieval | |
CN108564085B (en) | Method for automatically reading of pointer type instrument | |
US8340412B2 (en) | Image processing | |
GB2431793A (en) | Image comparison | |
AU2011207120B2 (en) | Identifying matching images | |
KR20160147374A (en) | Apparatus for extracting object of interest in image using image matting based on global contrast and method using the same | |
CN108829711B (en) | Image retrieval method based on multi-feature fusion | |
TW200529093A (en) | Face image detection method, face image detection system, and face image detection program | |
US9715729B2 (en) | Method and apparatus for processing block to be processed of urine sediment image | |
KR100924690B1 (en) | System for managing digital image features and its method | |
Singh et al. | Design & performance analysis of content based image retrieval system based on image classification usingvarious feature sets | |
Drzewiecki et al. | Applicability of multifractal features as global characteristics of WorldView-2 panchromatic satellite images | |
CN111860153B (en) | Scale-adaptive hyperspectral image classification method and system | |
Dimai | Unsupervised extraction of salient region-descriptors for content based image retrieval | |
EP3137895A1 (en) | Method and apparatus for processing block to be processed of urine sediment image | |
Flores-Vidal et al. | A new approach to color edge detection by means of transforming rgb images into an 8-dimension color space | |
Zhang et al. | Combining color quantization with curvelet transform for image retrieval | |
PirahanSiah et al. | Research Article Adaptive Image Thresholding Based on the Peak Signal-to-noise Ratio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130531 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140603 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150602 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170518 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190108 Year of fee payment: 11 |
|
R401 | Registration of restoration | ||
FPAY | Annual fee payment |
Payment date: 20190603 Year of fee payment: 12 |