KR101471204B1 - Apparatus and method for detecting clothes in image - Google Patents

Apparatus and method for detecting clothes in image Download PDF

Info

Publication number
KR101471204B1
KR101471204B1 KR1020080130668A KR20080130668A KR101471204B1 KR 101471204 B1 KR101471204 B1 KR 101471204B1 KR 1020080130668 A KR1020080130668 A KR 1020080130668A KR 20080130668 A KR20080130668 A KR 20080130668A KR 101471204 B1 KR101471204 B1 KR 101471204B1
Authority
KR
South Korea
Prior art keywords
garment
image
color
area
texture
Prior art date
Application number
KR1020080130668A
Other languages
Korean (ko)
Other versions
KR20100071822A (en
Inventor
박희철
이주용
서창렬
정학진
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020080130668A priority Critical patent/KR101471204B1/en
Publication of KR20100071822A publication Critical patent/KR20100071822A/en
Application granted granted Critical
Publication of KR101471204B1 publication Critical patent/KR101471204B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

본 발명은 이미지에서 사람의 얼굴을 인식하고, 인식된 얼굴을 기반으로 의류를 검출하는 의류 검출 장치와 그 방법을 개시한다. 본 발명은 질의로 입력된 질의 입력 이미지에서 사람의 얼굴을 인식하는 얼굴 인식부; 인식된 얼굴을 기반으로 질의 입력 이미지에서 의류 영역을 추출하는 의류 영역 추출부; 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 컬러 매칭시키고, 컬러 매칭으로부터 의류 영역의 컬러 유사도 값을 계산하는 컬러 유사도 계산부; 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 텍스처 매칭시키고, 텍스처 매칭으로부터 의류 영역의 텍스처 유사도 값을 계산하는 텍스처 유사도 계산부; 및 계산된 컬러 유사도 값과 계산된 텍스처 유사도 값을 각각 미리 정해진 기준값과 비교하여 추출된 의류 영역의 컬러나 텍스처가 비교 대상 이미지의 소정 영역과 유사한지를 판별하며, 판별 결과가 유사하다는 것이면 의류 영역을 의류를 표시하는 의류 이미지로 검출하는 의류 검출부를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 장치를 제공한다. 본 발명에 따르면, 이미지에서 사람이 착용한 의류에 대한 인식율을 향상시킬 수 있다. 또한, 메타데이터를 기반으로 동영상 객체 기반의 다양한 서비스 경쟁력을 확보할 수 있다.The present invention discloses a garment detecting apparatus for recognizing a face of a person in an image and detecting clothing based on the recognized face and a method thereof. The present invention relates to a face recognition apparatus for recognizing a face of a person in a query input image input as a query. A garment region extracting unit for extracting a garment region from a query input image based on the recognized face; A color similarity calculation unit for color matching the extracted garment area to a predetermined area of the comparison object image and calculating a color similarity value of the garment area from the color matching; A texture similarity calculation unit for matching the extracted garment area with a predetermined area of the comparison target image and calculating a texture similarity value of the garment area from the texture matching; And comparing the calculated color similarity value and the calculated texture similarity value with a predetermined reference value to determine whether the color or texture of the extracted garment area is similar to a predetermined area of the comparison object image. If the discrimination result is similar, And a garment detecting unit that detects the garment detecting unit as a garment image representing the garment. According to the present invention, it is possible to improve the recognition rate of clothes worn by a person in an image. In addition, various service competitiveness based on video objects can be secured based on metadata.

얼굴 인식, 의류 검출, 메타데이터, 컬러 매칭, 텍스처 매칭, 히스토그램 인터섹션(histogram intersection)  Face recognition, clothing detection, metadata, color matching, texture matching, histogram intersection,

Description

이미지에서의 의류 검출 장치와 그 방법 {Apparatus and method for detecting clothes in image}[0001] APPARATUS AND METHOD FOR DETECTING APPAREL IN IMAGE [0002]

본 발명은 이미지에서 의류를 검출하는 장치와 그 방법에 관한 것이다. 보다 상세하게는, 이미지에서 사람의 얼굴을 인식하고, 인식된 얼굴을 기반으로 의류를 검출하는 의류 검출 장치와 그 방법에 관한 것이다.The present invention relates to an apparatus and method for detecting garments in an image. More particularly, the present invention relates to a clothes detecting apparatus for recognizing a face of a person in an image and detecting clothing based on the recognized face, and a method thereof.

종래 의류를 구매하고자 할 경우에는 백화점, 대리점, 의류 판매점 등을 방문하여 취향이나 선호도, 개성 등을 고려하여 먼저 특정 의류를 선택하였다. 이후, 선택한 의류를 직접 착용해 보고, 구매 의사를 확정한 다음에야 의류의 구매가 이루어졌다. 최근 들어 인터넷이 활성화되면서 인터넷 쇼핑몰과 같은 웹사이트들이 늘어나고, PC나 휴대폰 등 수시 인터넷에 접속할 수 있는 단말이 보급되면서 직접 방문 없이도 의류의 구입이 가능해졌다.In the case of purchasing conventional clothes, the user first visits a department store, a distributor, an apparel shop, and selects a specific garment based on taste, preference, and personality. After that, the apparel was purchased only after wearing the selected clothes and confirming the purchase intention. Recently, as the Internet has been activated, websites such as Internet shopping malls have been increasing, and devices capable of accessing the Internet from time to time, such as PCs and mobile phones, have become popular.

그런데, 종래 인터넷 쇼핑몰에서는 의류를 웹사이트에 등록시키기 위해서 해당 의류를 직접 촬영하거나 해당 의류에 대한 사진을 구해야만 했다. 그러나, 다양한 종류의 의류를 구비한다는 것은 불가능에 가깝고, 여러 각도에서 촬영한 사진을 구한다는 것도 쉽지 않았다. 이에, 종래에는 영상 처리 기술을 이용하여 영상 안에 서 의류를 인식하기도 했다.However, in the conventional Internet shopping mall, in order to register the clothes on the website, it was necessary to photograph the clothes directly or to obtain photographs of the clothes. However, it was impossible to have various kinds of clothes, and it was not easy to obtain photographs taken at various angles. In the past, image processing technology was used to recognize garments in images.

그러나, 종래 일반적인 영상 처리 기술 중에서 영상 안에서 의류를 인식하는 방법은 다음과 같은 문제점을 가지고 있었다. 첫째, HD급 동영상 또는 Full-HD급 동영상을 대상으로 할 경우 전역 검사 방식을 사용하기 때문에 영상을 처리하는 데에 많은 시간이 소요된다. 둘째, 조명의 영향과 카메라의 촬영 각도로 인해 의류 자체가 많은 변화를 일으킨다.However, among conventional image processing techniques, a method of recognizing clothes in a video has the following problems. First, because it uses the global inspection method for HD-class video or Full-HD video, it takes much time to process the video. Second, because of the influence of lighting and the angle of camera shooting, the clothing itself causes many changes.

한편, 오늘날 동영상 콘텐츠 시장의 성장과 더불어 다양한 매체를 통한 동영상 서비스 시장이 점차 활성화되고 있다. 이에 발맞추어 최근 들어 새로운 인터액티브 서비스를 위한 동영상과 상기 동영상을 실행시키는 각종 플레이어(ex. 디지털 방송 플레이어) 등이 앞다퉈 개발되고 있다. 또한, 이러한 서비스가 구현될 수 있도록 인프라도 점차 구축되어 가고 있는 실정이다.Meanwhile, with the growth of the video content market today, the video service market through various media is gradually being activated. In response to this trend, in recent years, a video for a new interactive service and various players (e.g., a digital broadcast player) for executing the video have been developed in advance. Also, infrastructures are gradually being built so that these services can be implemented.

그런데, 이러한 인터액티브 서비스를 구현하기 위해서는 동영상 데이터의 내용에 알맞게 인터액티브를 위한 메타데이터를 생성하는 절차가 필요하다. 또한, 이러한 메타데이터를 만들기 위한 저작도구도 함께 필요하다. 그러나, 기존의 메타데이터 저작도구들은 메타데이터 편집자로 하여금 동영상 내에서 객체 데이터를 직접 영역 설정하고, 이로부터 메타데이터의 생성이 이루어지도록 하였다. 이에, 기존에는 편집자가 동영상 전체 내용을 봐야 하는 불편이 따랐다.However, in order to implement such an interactive service, a procedure for generating metadata for interactivity appropriate to the contents of moving picture data is required. In addition, there is a need for an authoring tool for creating such metadata. However, the existing metadata authoring tools allow the metadata editor to directly set the object data in the video, and to generate the metadata from the metadata. Therefore, in the past, it was inconvenient for the editor to watch the whole contents of the video.

최근 UCC 서비스가 일반화되기 시작하면서 UCC 동영상 내의 객체를 선택한 후 트래킹(tracking)을 통해 메타데이터를 생성하는 방식의 웹 서비스가 출현하였다. 이러한 웹 서비스를 제공하는 사이트로는 asterpix.com, overlay.tv, videoclix.tv 등이 있다. 최근 들어 이러한 동영상 서비스는 IPTV 등에도 적용이 고려되고 있다. 그러나, 종래의 메타데이터 저작도구는 다음과 같은 문제점을 가지고 있다. 첫째, 동영상 속에 있는 내용을 이해하여 직접 객체를 선택하여 편집해야 하기 때문에 초보자들이 사용하기에는 매우 어렵다. 둘째, IPTV 서비스를 위한 HD급/Full-HD급 동영상을 편집하기 위해서는 동영상 재생 시간에 대비하여 5~10배 정도의 편집 시간이 소요된다.Recently, as the UCC service has become generalized, a Web service has emerged in which metadata is generated through tracking after selecting objects in the UCC video. The sites that provide these services include asterpix.com, overlay.tv, and videoclix.tv. Recently, such video service is considered to be applied to IPTV and the like. However, the conventional metadata authoring tool has the following problems. First, it is very difficult for beginners to use because it is necessary to understand the contents in the video and select the object to edit directly. Second, in order to edit HD / Full-HD video for IPTV service, editing time is 5 ~ 10 times compared with video playback time.

본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 이미지에서 사람의 얼굴을 인식하고, 인식된 얼굴을 기반으로 의류를 검출하는 의류 검출 장치와 그 방법을 제공함을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a garment detecting apparatus for detecting a face of a person in an image and detecting the garment based on the recognized face, and a method thereof.

또한, 본 발명은 상기 의류 검출 방법을 이용하여 의류 관련 메타데이터를 자동 생성하는 의류 검출 장치와 그 방법을 제공함을 목적으로 한다.It is another object of the present invention to provide a garment detecting apparatus and method for automatically generating garment-related metadata using the garment detecting method.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 질의로 입력된 질의 입력 이미지에서 사람의 얼굴을 인식하는 얼굴 인식부; 상기 인식된 얼굴을 기반으로 상기 질의 입력 이미지에서 의류 영역을 추출하는 의류 영역 추출부; 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 컬러 매칭시키고, 상기 컬러 매칭으로부터 상기 의류 영역의 컬러 유사도 값을 계산하는 컬러 유사도 계산부; 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 텍스처 매칭시키고, 상기 텍스처 매칭으로부터 상기 의류 영역의 텍스처 유사도 값을 계산하는 텍스처 유사도 계산부; 및 상기 계산된 컬러 유사도 값과 상기 계산된 텍스처 유사도 값을 각각 미리 정해진 기준값과 비교하여 상기 추출된 의류 영역의 컬러나 텍스처가 상기 비교 대상 이미지의 소정 영역과 유사한지를 판별하며, 상기 판별 결과가 유사하다는 것이면 상기 의류 영역을 의류를 표시하는 의류 이미지로 검출하는 의류 검출부를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 장치를 제공한다.According to an aspect of the present invention, there is provided a face recognition apparatus comprising: a face recognition unit for recognizing a face of a person in a query input image input as a query; A garment region extracting unit for extracting a garment region from the query input image based on the recognized face; A color similarity calculation unit for color matching the extracted garment area to a predetermined area of a comparison object image and calculating a color similarity value of the garment area from the color matching; A texture similarity calculation unit for matching the extracted garment area with a predetermined area of a comparison target image and calculating a texture similarity value of the garment area from the texture matching; And comparing the calculated color similarity value and the calculated texture similarity value with a predetermined reference value to determine whether the color or texture of the extracted garment area is similar to a predetermined area of the comparison object image, And a garment detecting unit for detecting the garment area as a garment image representing the garment, if the garment detecting unit detects the garment area.

바람직하게는, 상기 의류 영역 추출부는 상기 얼굴의 크기를 기반으로 상기 얼굴 영역을 설정하며, 상기 설정된 얼굴 영역의 아래 위치에서 상기 의류 영역을 추출한다.Preferably, the garment region extractor sets the face region based on the size of the face, and extracts the garment region from a position below the set face region.

더욱 바람직하게는, 상기 의류 영역 추출부는 상기 설정된 얼굴 영역의 가로 크기와 세로 크기를 결정하는 얼굴 영역 크기 결정부; 및 상기 얼굴 영역의 아래 위치에서 상기 얼굴 영역의 가로 크기의 2.5~3.5배를 넓이로 하고 상기 얼굴 영역의 세로 크기의 1.5~2.5배를 높이로 하는 상기 의류 영역을 검출하는 의류 영역 검출부를 포함한다.More preferably, the garment region extracting unit may include a face region size determining unit for determining a horizontal size and a vertical size of the set face region; And a garment region detecting unit for detecting the garment area having a width of 2.5 to 3.5 times the width of the face area at a position below the face area and a height of 1.5 to 2.5 times the vertical size of the face area .

바람직하게는, 상기 컬러 유사도 계산부는 상기 의류 영역을 포함하는 프레임의 컬러 스페이스를 RGB에서 HSI로 이미지 변환시키는 컬러 스페이스 변환부; 상기 변환된 이미지에서 상기 RGB를 고려하여 컬러에 대한 정보를 도출하는 컬러 정보 도출부; 및 상기 비교 대상 이미지의 소정 영역으로부터 컬러에 대한 정보가 도출되면, 두 컬러 정보를 비교하여 상기 컬러 유사도 값을 계산하는 컬러 유사도 값 계산부를 포함한다.Preferably, the color similarity calculation unit includes: a color space conversion unit for converting the color space of the frame including the garment area from RGB to HSI; A color information deriving unit for deriving information on a color in consideration of the RGB in the converted image; And a color similarity value calculating unit for comparing the two color information and calculating the color similarity value, when information on the color is derived from a predetermined area of the comparison object image.

더욱 바람직하게는, 상기 컬러 유사도 값 계산부는 상기 질의 입력 이미지를 블록 단위로 분할한 후 상기 분할된 블록들 중에서 적어도 하나의 블록을 추출하고 상기 추출된 블록을 상기 비교 대상 이미지의 블록과 상호 비교하는 블록 매칭을 통해 상기 두 컬러 정보를 비교한다. 또한, 상기 컬러 정보 도출부는 상기 컬러에 대한 정보로 R(Red) 성분값, G(Green) 성분값 및 B(Blue) 성분값이 포함된 상기 의류 영역에서의 색상값을 도출하며, 상기 도출된 색상값을 0~12의 범위값으로 정규 화시킨다.More preferably, the color similarity value calculation unit divides the query input image into blocks, extracts at least one block from the divided blocks, and compares the extracted block with a block of the comparison object And the two color information are compared through block matching. The color information derivation unit may derive a color value in the garment area including a R (Red) component value, a G (Green) component value, and a B (Blue) component value as information on the color, Normalize the color value to a range value from 0 to 12.

바람직하게는, 상기 텍스처 유사도 계산부는 상기 의류 영역에 대한 이미지를 DCT를 이용하여 주파수 도메인으로 전환시키는 주파수 도메인 전환부; 상기 전환으로부터 도출된 이미지의 블록별 변환 계수들 중에서 주파수 영역별 계수를 추출하고, 상기 추출된 주파수 영역별 계수가 포함된 질감 특징 벡터를 추출하는 질감 특징 벡터 추출부; 상기 추출된 적어도 2개의 질감 특징 벡터들을 비교하여 질감 특징 벡터들 간의 거리를 구하는 거리 계산부; 및 상기 비교 대상 이미지의 소정 영역으로부터 상기 질감 특징 벡터들 간의 거리가 구해지면, 두 구해진 거리값을 비교하여 상기 텍스처 유사도 값을 계산하는 텍스처 유사도 값 계산부를 포함한다.Preferably, the texture similarity calculator includes: a frequency domain switching unit for converting an image of the garment area into a frequency domain using DCT; A texture feature vector extractor for extracting a frequency domain coefficient from among transform coefficients for each block of the image derived from the conversion and extracting a texture feature vector including the extracted frequency domain coefficients; A distance calculator for comparing the extracted at least two texture feature vectors to obtain a distance between texture feature vectors; And a texture similarity value calculator for calculating the texture similarity value by comparing the distance values obtained when the distance between the texture feature vectors is determined from a predetermined area of the comparison object image.

더욱 바람직하게는, 상기 거리 계산부는 블록별로 존재하는 9개의 질감 특징 벡터값을 이용하여 상기 질감 특징 벡터들 간의 거리를 구한다.More preferably, the distance calculator calculates the distance between the texture feature vectors using nine texture feature vector values that exist for each block.

바람직하게는, 상기 의류 검출 장치는 상기 인식된 얼굴이 지시하는 인물에 대한 정보를 취득하는 인물 정보 취득부를 더 포함한다.Preferably, the clothes detecting device further includes a person information acquiring unit that acquires information about a person indicated by the recognized face.

또한, 본 발명은 (a) 질의로 입력된 질의 입력 이미지에서 사람의 얼굴을 인식하는 단계; (b) 상기 인식된 얼굴을 기반으로 상기 질의 입력 이미지에서 의류 영역을 추출하는 단계; (c) 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 컬러 매칭시키고, 상기 컬러 매칭으로부터 상기 의류 영역의 컬러 유사도 값을 계산하는 단계; (d) 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 텍스처 매칭시키고, 상기 텍스처 매칭으로부터 상기 의류 영역의 텍스처 유사도 값 을 계산하는 단계; 및 (e) 상기 계산된 컬러 유사도 값과 상기 계산된 텍스처 유사도 값을 각각 미리 정해진 기준값과 비교하여 상기 추출된 의류 영역의 컬러나 텍스처가 상기 비교 대상 이미지의 소정 영역과 유사한지를 판별하며, 상기 판별 결과가 유사하다는 것이면 상기 의류 영역을 의류를 표시하는 의류 이미지로 검출하는 단계를 포함한다.According to another aspect of the present invention, there is provided an image processing method comprising the steps of: (a) recognizing a face of a person in a query input image input as a query; (b) extracting a garment area from the query input image based on the recognized face; (c) color matching the extracted garment area to a predetermined area of a comparison image, and calculating a color similarity value of the garment area from the color matching; (d) texture matching the extracted garment area to a predetermined area of a comparison object image, and calculating a texture similarity value of the garment area from the texture matching; And comparing the calculated color similarity value and the calculated texture similarity value with a predetermined reference value to determine whether the color or texture of the extracted garment area is similar to a predetermined area of the comparison object image, And detecting the garment area as a garment image representing the garment if the results are similar.

바람직하게는, 상기 (d) 단계와 상기 (e) 단계의 중간 단계는 상기 인식된 얼굴이 지시하는 인물에 대한 정보를 취득하는 단계를 포함하며, 상기 (e) 단계는 상기 의류 이미지 검출시 상기 취득된 인물에 대한 정보를 이용한다.Preferably, the intermediate step between the step (d) and the step (e) includes the step of acquiring information about a person indicated by the recognized face, and the step (e) And uses information on the acquired person.

본 발명에 따르면 다음 효과를 얻을 수 있다. 첫째, 이미지에서 사람의 얼굴을 인식하고 인식된 얼굴을 기반으로 의류를 검출함으로써 사람이 착용한 의류에 대한 인식율을 향상시킬 수 있다. 특히, 모든 동영상 프레임에서 의류를 매칭시키지 않고 얼굴이 인식된 프레임만을 대상으로 의류를 검색함으로써 의류 인식율이 우수하고 빠른 실행 속도를 가지는 의류 인식 기술을 개발할 수 있다. 둘째, 상기 의류 검출 방법을 이용하여 의류 관련 메타데이터를 자동 생성함으로써 동영상 기반의 메타데이터 저작 시간을 대폭 단축시킬 수 있다. 또한, 메타데이터 저작 시간을 단축시킴에 따라 동영상 객체 기반의 다양한 서비스 경쟁력을 확보할 수 있다.According to the present invention, the following effects can be obtained. First, recognizing a person's face in an image and detecting the garment based on the recognized face can improve the recognition rate of the clothing worn by the person. In particular, it is possible to develop a garment recognition technology having an excellent recognition rate of clothes and a fast execution speed by searching clothes only for the frames whose faces are recognized without matching garments in all video frames. Second, garment-related metadata is automatically generated by using the garment detection method, so that the metadata-based metadata authoring time can be greatly shortened. Also, by shortening metadata authoring time, various service competitiveness based on video objects can be ensured.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요 소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that, in adding reference numerals to the constituent elements of the respective drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

도 1은 본 발명의 바람직한 실시예에 따른 의류 검출 장치를 개략적으로 도시한 블록도이다. 그리고, 도 2는 본 발명의 바람직한 실시예에 따른 의류 검출 방법을 도시한 순서도이다. 상기 도 1에 도시한 바에 따르면, 본 발명의 바람직한 실시예에 따른 의류 검출 장치(100)는 얼굴 인식부(110), 의류 영역 추출부(120), 컬러 유사도 계산부(130), 텍스처 유사도 계산부(140), 인물 정보 취득부(150), 의류 검출부(160), 전원부(170) 및 제어부(180)를 포함한다.1 is a block diagram schematically showing a clothes detecting apparatus according to a preferred embodiment of the present invention. 2 is a flowchart illustrating a method of detecting a garment according to a preferred embodiment of the present invention. 1, a clothing detection apparatus 100 according to a preferred embodiment of the present invention includes a face recognition unit 110, a garment region extraction unit 120, a color similarity calculation unit 130, A person detection unit 160, a power source unit 170, and a control unit 180. The control unit 180 controls the operation of the display unit 140, the person information acquisition unit 150,

최근 IPTV 등의 양방향 서비스가 실시되면서 영상 기반의 양방향 서비스에 대한 기술의 필요성이 대두되고 있다. 이러한 서비스를 위해서는 무엇보다 객체에 대한 자동 인식 기술이 핵심이다. 본 발명에 따른 의류 검출 장치(100)는 영상의 다양한 객체 중에서 의류에 대해 자동으로 인식하는 기능을 수행한다. 이 의류 검출 장치(100)를 이용하면 의류 관련 메타데이터 생성 등 영상 객체 기반의 인터액티브 서비스를 위한 저작 툴의 저작 시간을 단축시킬 수가 있다. 기존 수작업을 통해 객체 영역을 하나하나 지정해 주었던 방식의 한계를 극복하여 얼굴 인식 기반의 의류 객체 인식이 자동으로 이루어지도록 한다면 동영상 기반 객체 저작 즉, 동영 상 객체 메타데이터의 추출 시간은 종래보다 대폭 단축이 가능하다.Recently, as interactive services such as IPTV are being implemented, there is a need for technology for image-based interactive services. For these services, automatic recognition of objects is the key. The clothes detecting apparatus 100 according to the present invention performs a function of automatically recognizing clothes among various objects of an image. The use of the clothes detecting apparatus 100 can shorten the authoring time of the authoring tool for an interactive service based on a video object such as generation of garment related meta data. If the garment object recognition based on the face recognition is automatically performed by overcoming the limitation of the method which has previously specified the object area through the existing manual operation, the extraction time of the moving object object metadata, that is, the moving object metadata, It is possible.

의류 검출 장치(100)가 구현하는 의류 인식 기술은 의류의 형태가 동일한 의류라 하더라도 일정한 형태를 유지하지 않기 때문에 사람이 입고 있는 의류만이 의미가 있는 것으로 전제한다.The garment recognition technology implemented by the garment detecting device 100 assumes that only clothes that are worn by a person are meaningful because the garment recognition technology does not maintain a uniform shape even if the garment has the same shape.

얼굴 인식부(110)는 자동으로 얼굴을 인식하는 툴을 이용하여 동영상 등 이미지에서 사람의 얼굴을 자동으로 인식하는 기능을 수행한다. 얼굴 인식부(110)가 사람의 얼굴을 자동으로 인식하면 의류 영역 추출부(120)는 얼굴 하단에 위치하는 의류 영역을 자동으로 추출한다. 의류 영역 추출부(120)가 의류 영역을 자동으로 찾을 때에는 얼굴의 크기와 사람의 상체의 비율을 기반으로 한다.The face recognition unit 110 performs a function of automatically recognizing a face of a person in an image such as a moving image by using a tool for automatically recognizing the face. When the face recognizing unit 110 automatically recognizes the face of the person, the apparel area extracting unit 120 automatically extracts the apparel area located at the bottom of the face. When the apparel area extractor 120 automatically searches for the apparel area, it is based on the size of the face and the ratio of the upper body of the person.

이미지에서 얼굴의 위치가 결정되고 이로부터 의류 영역이 추출되면, 추출된 의류 영역을 기반으로 하여 동영상 전 영역에 대하여 의류를 찾을 수가 있다. 의류를 찾을 때에는 의류의 특성인 색상(color) 정보와 텍스처(texture) 정보가 이용된다. 의류의 색상 정보만을 이용하여 의류를 찾게 되면, 조명 등의 영향으로 잘못 찾아지는 등 오류가 발생할 가능성이 높다. 또한, 의류의 텍스처 정보만을 이용하여 의류를 찾게 되면, 서로 다른 색상을 가진 옷임에도 불구하고 동일한 옷으로 인식하는 오류가 발생한다. 따라서, 본 발명에 따른 의류 검출 장치(100)는 컬러 유사도 계산부(130)와 텍스처 유사도 계산부(140)를 통하여 의류의 색상 정보와 의류의 텍스처 정보를 모두 이용하여 의류를 찾는 것을 특징으로 한다.When the position of the face is determined in the image and the garment area is extracted from the image, the garment can be found for the entire area of the moving image based on the extracted garment area. Color information and texture information, which are characteristics of clothes, are used when searching for clothes. If clothes are found using only the color information of the clothes, there is a high possibility that an error such as being erroneously detected due to the influence of illumination or the like occurs. In addition, if clothing is searched using only the texture information of the clothes, an error of recognizing the same clothes is generated even though the clothes have different colors. Accordingly, the clothes detecting apparatus 100 according to the present invention is characterized in that clothing is searched using both the color information of the clothes and the texture information of the clothes through the color similarity calculation unit 130 and the texture similarity calculation unit 140 .

한편, 의류의 색상 정보와 의류의 텍스처 정보를 모두 이용한다 하더라도 완벽하게 동일한 의류를 찾지 못하는 경우가 발생할 수 있다. 그 이유는 특징점으로 찾지 않은 텍스처 정보가 빠져서 서로 다른 옷임에도 불구하고 동일한 옷으로 인식하는 경우가 발생할 수 있기 때문이다. 이에, 본 발명에 따른 의류 검출 장치(100)는 의류의 인식률을 보다 향상시키기 위해 그 옷을 입고 있는 인물의 정보까지 활용할 수 있다. 인물에 대한 정보는 인물 정보 취득부(150)를 통하여 취득할 수 있다.On the other hand, even if both the color information of the clothes and the texture information of the clothes are used, it may happen that the completely identical clothes can not be found. This is because texture information that is not found as a feature point is missing and may be recognized as the same clothes despite being different clothes. Accordingly, the clothes detecting apparatus 100 according to the present invention can utilize the information of the person wearing the clothes to improve the recognition rate of the clothes. Information about the person can be acquired through the person information acquiring unit 150. [

의류를 찾는 데에 인물에 대한 정보까지 활용하면, 의류를 오인하는 오류율을 더욱 줄일 수가 있으며, 의류 검색/인식 시간도 더욱 단축시킬 수가 있다. 또한, 동영상 저작툴의 핵심 이슈인 저작 시간도 더욱 단축시킬 수가 있다. 이것이 가능한 것은 모든 영역에 대해 의류 영역을 검색하지 않고 인식된 얼굴을 기반으로 의류를 인식하기 때문이다.Using information about a person to find clothes can further reduce the error rate of mistaking the clothes and can further shorten the time for searching / recognizing the clothes. In addition, authoring time, which is a key issue of video authoring tools, can be further shortened. This is possible because the garment is recognized based on the recognized face without searching the garment area for all the areas.

전원부(170)는 의류 검출 장치(100)의 모든 구성부에 전원을 공급하는 역할을 하며, 제어부(180)는 의류 검출 장치(100)의 모든 구성부의 전체 작동을 제어하는 역할을 한다.The power supply unit 170 serves to supply power to all components of the clothes detecting apparatus 100 and the control unit 180 serves to control the overall operation of all the components of the clothes detecting apparatus 100.

이하에서는 도 2를 참조하여 의류 검출 장치(100)의 의류 검출 방법을 설명한다.Hereinafter, a garment detecting method of the garment detecting apparatus 100 will be described with reference to Fig.

먼저, 얼굴 인식부(110)가 이미지에서 사람의 얼굴을 인식한다(S200). 이후, 의류 영역 추출부(120)가 이미지에서의 얼굴의 위치를 근거로 얼굴 하단에 위치하는 의류 영역을 추출한다(S210). 이때, 추출되는 의류 영역은 사용자 위주의 관심 영역(ROI ; Region-Of Interest)임이 바람직하다.First, the face recognition unit 110 recognizes a face of a person in the image (S200). Then, the garment region extracting unit 120 extracts a garment area located at the bottom of the face based on the position of the face in the image (S210). At this time, the garment area to be extracted is preferably a region-of-interest (ROI) centered on the user.

각각의 컬러 정보와 텍스처 정보의 매칭을 위해서는 먼저 각 이미지에서 의 류로 생각되는 부분의 ROI를 설정하고, 이를 대상으로 하는 검색이 이루어져야 한다. 기본적으로 각 이미지에서의 얼굴 검색이 끝났다고 가정한다. 또한, 사람의 몸에 이미 의류가 입혀져 있음을 가정한다. 이러한 가정 하에서 얼굴 아래 영역을 얼굴 크기의 일정 비율로 잡아 ROI를 설정하게 된다. 단, 질의로 입력되는 이미지는 사용자가 직접 ROI를 수동 지정한다. 그러나, 그 외 비교 대상이 되는 이미지는 의류로 생각되는 ROI의 설정을 얼굴 아래의 일정 부위에서 얼굴 크기에 비례하게 설정한다. 도 3을 참조하면, 도면부호 300이 이미지에 나타난 사람의 얼굴이며, 도면부호 310이 ROI이다. ROI는 적어도 하나 추출된다.In order to match each piece of color information and texture information, the ROI of a portion considered as a stream in each image should be set, and a search for the target ROI should be performed. Basically, it is assumed that the face search in each image is finished. It is also assumed that the human body is already garmented. Under this assumption, the ROI is set by capturing the area under the face at a certain ratio of the face size. However, the user manually sets the ROI manually for the image input by the query. However, the other image to be compared sets the ROI, which is considered as clothing, to be proportional to the face size at a certain portion under the face. Referring to FIG. 3, reference numeral 300 denotes a face of a person shown in the image, and reference numeral 310 denotes an ROI. At least one ROI is extracted.

face recognized image = fr + iface recognized image = fr + i

상기에서, fr은 얼굴 영역 정보이며, i는 원본 이미지이다. 즉, 사람의 얼굴이 인식된 이미지는 이미지 자체에 사람의 얼굴 영역에 대한 정보가 들어있는 것임을 알 수 있다.In the above, fr is the face area information, and i is the original image. In other words, it can be seen that the image in which the face of the person is recognized includes the information about the face region of the person in the image itself.

ROI.top = fr.bottom + fr.Height/3ROI.top = fr.bottom + fr.Height / 3

ROI.bottom = fr.Height×2ROI.bottom = fr.Height × 2

ROI.left = fr.left - fr.WidthROI.left = fr.left - fr.Width

ROI.right = ROI.left + fr.Width×3ROI.right = ROI.left + fr.Width x 3

수학식 2는 얼굴 영역을 이용하여 의류로 생각되는 영역을 설정하는 방법에 대한 것이다. 수학식 2에 따르면, 얼굴 크기에 비례하여 목 부분을 제외한 아래 부 분을 얼굴 크기의 약 3배 넓이(바람직하게는 2.5~3.5배 넓이), 얼굴 길이의 약 2배 높이(바람직하게는 1.5~2.5배 높이)로 의류 영역을 설정하게 된다.Equation (2) relates to a method of setting an area considered as a garment using a face area. According to Equation (2), the lower portion excluding the neck portion is approximately 3 times as wide as the face size (preferably 2.5 to 3.5 times as wide as the face size) 2.5 times the height).

의류 영역 즉, ROI가 추출되면 컬러 유사도 계산부(130)가 ROI가 추출된 질의 입력 이미지를 비교 대상 이미지에 컬러 매칭시킨다(S220a). 이후, 컬러 유사도 계산부(130)는 질의 입력 이미지의 컬러 유사도를 계산한다(S221a). 만약 계산된 질의 입력 이미지의 컬러 유사도 값이 기준 유사도 값보다 크다면 이때의 질의 입력 이미지는 비교 대상 이미지와 컬러가 유사한 것으로 판별한다.When the garment area, that is, the ROI is extracted, the color similarity calculation unit 130 color matches the query input image from which the ROI is extracted to the comparison target image (S220a). Then, the color similarity degree calculation unit 130 calculates the color similarity degree of the query input image (S221a). If the calculated color similarity value of the query input image is larger than the reference similarity value, the query input image at this time is determined to be similar to the color of the comparison target image.

본 발명의 실시예에서 컬러 유사도 계산부(130)는 의류에서 컬러 매칭 정도를 측정하기 위하여 RGB 컬러 스페이스를 HSI 컬러 스페이스로 변환하고, 이중 H 요소 간의 유사도를 히스토그램 인터섹션(histogram intersection) 방법을 이용하여 측정한다.In the embodiment of the present invention, the color similarity calculation unit 130 converts the RGB color space to the HSI color space to measure the degree of color matching in the garment, and calculates the degree of similarity between the H elements using the histogram intersection method .

기본적으로 비디오 데이터에서 디코딩된 각 프레임의 컬러 스페이스(color space)는 RGB(Red, Green, Blue)이다. 그런데, 각각의 RGB 요소에서 컬러만을 위한 부분을 뽑아 분석하기 어렵기 때문에 H(Hue, 색상), S(Saturation, 채도), I(Intensity, 명도)로 분리할 수 있는 HSI 컬러 스페이스로 먼저 이미지를 변환시킨다. 이후, 이중에서 컬러 정보를 담고 있는 H를 이용하여 이미지의 컬러 정보를 분석한다. RGB의 HSI 변환은 수학식 3과 같다.Basically, the color space of each frame decoded from the video data is RGB (Red, Green, Blue). However, since it is difficult to extract a color-only part from each RGB element, it is necessary to first convert the image into HSI color space that can be separated into H (Hue, Color), S (Saturation) . Then, color information of the image is analyzed using H which contains color information. The RGB HSI conversion is expressed by Equation (3).

Figure 112008087609417-pat00001
Figure 112008087609417-pat00001

수학식 3에서 H는 0°~360° 사이의 값을 가지게 된다. 그런데, 괄호 안의 값이 소수점까지 허용되는 값을 가질 수 있기 때문에 유사도 측정에 있어서 서로 다른 H 값끼리 측정이 어려울 수 있다. 그래서, 0°~360° 사이의 값을 0~12 사이의 정수값으로 정규화(normalization)시켜 유사도 측정의 효율성을 높인다. 변환 방법은 수학식 4와 같다.In Equation (3), H has a value between 0 and 360 degrees. However, since the values in parentheses can have acceptable values up to the decimal point, the measurement of similarity between different H values may be difficult. Thus, the value between 0 ° and 360 ° is normalized to an integer value between 0 and 12, thereby increasing the efficiency of the similarity measurement. The conversion method is shown in Equation (4).

Figure 112008087609417-pat00002
Figure 112008087609417-pat00002

상기에서, NH는 정규화된 H값, n은 정규화 단계로 상기와 같은 조건에서는 12가 된다.In the above, NH is a normalized H value, and n is a normalization step and becomes 12 under the same conditions as above.

수학식 3과 수학식 4를 이용하여 ROI를 포함하는 질의 입력 이미지와 비교 대상 이미지 모두를 변환시킨다. 이후, 각각의 H 값의 차이를 분석하여 그 컬러 유사도를 측정한다. 컬러 유사도를 정확하게 측정하기 위해서는 이미지 전체를 비교하지 않고, 소정 개수의 블록을 설정한 다음 가장 유사도가 높은 블록을 먼저 찾고 그 후에 모든 블록의 평균값을 구하는 것이 바람직하다. 이를 좀더 구체적으로 설명하면 다음과 같다.(3) and (4) to convert both the query input image including the ROI and the comparison image. Then, the difference of each H value is analyzed, and the color similarity is measured. In order to accurately measure the color similarity, it is desirable to set a predetermined number of blocks without comparing the entire image, find the block having the highest similarity first, and then find the average value of all the blocks. This will be described in more detail as follows.

먼저, 질의로 입력된 이미지를 블록 단위로 분할한다. 이후, 분할된 블록을 이용하여 비교 대상이 되는 이미지의 각 블록을 스캔한다. 도 4는 블록 간의 매칭 방법에 대한 예시이다. 이후, 스캔된 블록 중에서 비교 대상 이미지에 대해 최대 유사도가 나오는 블록의 유사도 값을 저장한다. 이후, 저장된 블록의 유사도 값들에 대한 평균값을 구하여 전체적인 컬러 유사도를 측정한다.First, the input image is divided into blocks. Then, each block of the image to be compared is scanned using the divided blocks. Figure 4 is an illustration of a method of matching between blocks. Then, the similarity value of the block in which the maximum similarity degree is obtained for the comparison object image among the scanned blocks is stored. Then, an average value of the similarity values of the stored blocks is obtained, and the overall color similarity is measured.

각 블록끼리의 유사도는 히스토그램 인터섹션(histogram intersection) 방법을 이용하여 블록 내부의 H 값의 분포가 서로 유사한지를 측정하여 계산하게 된다. 히스토그램 인터섹션 방법은 수학식 5와 같다.The similarity of each block is calculated by measuring whether the distribution of H values in the block is similar to each other using the histogram intersection method. The histogram intersection method is shown in Equation (5).

Figure 112008087609417-pat00003
Figure 112008087609417-pat00003

상기에서, SI는 질의 입력 이미지의 히스토그램, CI는 비교 대상 이미지의 히스토그램이다.In the above, SI is a histogram of a query input image, and CI is a histogram of an image to be compared.

상기와 같이 계산된 유사도가 50% 이상이면 유사 블록으로 간주한다. 이렇게 유사 블록으로 간주된 블록의 개수가 전체 블록의 개수의 50% 이상이면 질의로 입력된 이미지는 비교 대상 이미지와 컬러가 유사한 것으로 판단된다. 이는 수학식 6으로 나타낼 수 있다.If the calculated degree of similarity is 50% or more, it is regarded as a similar block. If the number of blocks regarded as pseudo blocks is 50% or more of the total number of blocks, it is judged that the image inputted as the query is similar to the color of the comparison object. This can be expressed by Equation (6).

Figure 112008087609417-pat00004
Figure 112008087609417-pat00004

상기에서, Fcm은 컬러 매칭 평가함수이다.In the above, Fcm is a color matching evaluation function.

한편, 의류 영역이 추출되면 텍스처 유사도 계산부(140)는 질의 입력 이미지를 비교 대상 이미지에 텍스처 매칭시킨다(S220b). 이후, 텍스처 유사도 계산부(140)는 질의 입력 이미지의 텍스처 유사도를 계산한다(S221b). 본 발명에서 텍스처 유사도 계산부(140)의 기능 수행은 컬러 유사도 계산부(130)의 기능 수행과 동시에 이루어질 수 있으며, 컬러 유사도 계산부(130)의 기능 수행 이후에 이루어짐도 가능하다.On the other hand, when the garment area is extracted, the texture similarity calculation unit 140 texture-matches the query input image with the comparison object image (S220b). Then, the texture similarity calculation unit 140 calculates the texture similarity of the query input image (S221b). In the present invention, the function of the texture similarity calculation unit 140 may be performed simultaneously with the function of the color similarity calculation unit 130, and may be performed after the function of the color similarity calculation unit 130 is performed.

본 발명의 실시예에서 텍스처 유사도 계산부(140)는 의류 검색에서 의류 질감을 비교하고 측정하기 위해 질감 특징 벡터를 추출하고, 질감 벡터 간의 거리(distance)를 구하여 의류의 질감 유사도를 측정한다.In the embodiment of the present invention, the texture similarity calculation unit 140 extracts a texture feature vector for comparing and measuring clothing texture in a clothing search, and determines a distance between the texture vectors to measure texture similarity of the clothing.

의류 질감은 특징적으로 나타나는 헝겊의 형태적인 패턴이다. 이미지의 형태적인 패턴은 이미지의 주파수 계수의 특징으로 수치화하여 나타낼 수 있다. 그래서, 먼저 이미지를 주파수 도메인으로 전환하고, 이 주파수 도메인으로부터 질감 특징 벡터를 산출하도록 한다.The garment texture is a morphological pattern of a distinctive cloth. The morphological pattern of the image can be expressed numerically by the feature of the frequency coefficient of the image. Thus, first, the image is converted to the frequency domain, and the texture feature vector is calculated from this frequency domain.

Figure 112008087609417-pat00005
Figure 112008087609417-pat00005

먼저, 주파수 도메인의 변환은 DCT를 이용한다. DCT 방법은 수학식 7에 나타난 바와 같다. DCT 변환은 정현파 및 여현파 함수를 기본 벡터로 하는 이산 변환이다. DCT를 이용하여 8 x 8 블록 크기로 이미지를 나누어 DCT를 변환할 경우 64개의 변환 계수를 얻을 수 있다. 이중에서 형태학적 특성을 잘 반영하는 부분의 계수를 추출하여 질감 특징 벡터를 구성하게 된다.First, DCT is used to transform the frequency domain. The DCT method is as shown in Equation (7). The DCT transform is a discrete transform in which sinusoidal wave and cosine wave function are used as basic vectors. When transforming DCT by dividing the image into 8 × 8 block sizes using DCT, 64 transform coefficients can be obtained. Among these, the coefficients of the portion that reflects the morphological characteristics are extracted to construct the texture feature vector.

이때, 블록의 각 방향의 계수로 특징 벡터를 추출하는데, 형태학적 특성이 잘 반영되도록 하려면 도 5의 (a)에서와 같이 x축 방향의 계수들로 특징 벡터를 추출하거나, y축 방향의 계수들로 특징 벡터를 추출하거나, 대각선 방향의 계수들로 특징 벡터를 추출하면 된다. 그러면, 추출된 특징 벡터들에 포함되는 주파수 성분들은 공간 영역의 이미지에서 질의 입력 이미지의 형태적 변화를 잘 반영하게 된다.In this case, the feature vector is extracted by the coefficients of each direction of the block. In order to reflect morphological characteristics well, the feature vector is extracted by the coefficients in the x-axis direction as shown in FIG. 5 (a) The feature vectors may be extracted using diagonal coefficients or the feature vectors may be extracted using diagonal coefficients. Then, the frequency components included in the extracted feature vectors reflect the morphological change of the query input image in the image of the spatial domain.

8 × 8 블록에서는 도 5의 (b)를 거쳐 도 5의 (c)를 통해 9개의 특징 벡터를 산출한다. 도 5의 (b)와 (c)에서 각 숫자는 벡터의 번호를 가리킨다. 각 번호 자리의 DCT 계수들의 합으로 9개의 특징 벡터를 추출해 낸다. 수학식 8은 질감 특징 벡터값을 산정하는 방법을 나타낸 것이다.In the 8x8 block, nine feature vectors are calculated through Fig. 5 (c) through Fig. 5 (b). In Figures 5 (b) and 5 (c), each numeral indicates the number of a vector. Nine feature vectors are extracted as the sum of the DCT coefficients of each digit position. Equation (8) shows a method for estimating a texture feature vector value.

Figure 112008087609417-pat00006
Figure 112008087609417-pat00006

상기 방법으로 특징 벡터를 산출하면 8 x 8 블록 크기로 나누어진 이미지에는 각 블록당 9개의 벡터 값들이 존재하게 된다. 그러면, 질의 입력 이미지의 한 블록을 이용해 비교 대상이 되는 이미지의 블록들을 스캔하며, 각 9개 벡터의 거리를 구하게 된다. 벡터간 거리를 구하는 방법은 수학식 9에 잘 나타나 있다.When the feature vector is calculated by the above-described method, 9 vector values are present for each block in the image divided into the 8 x 8 block size. Then, the block of the image to be compared is scanned using one block of the query input image, and the distance of each of the nine vectors is obtained. The method for obtaining the vector-to-vector distance is shown in Equation (9).

Figure 112008087609417-pat00007
Figure 112008087609417-pat00007

수학식 9를 이용하여 계산된 각 블록들의 거리를 모두 합산하면 질감 벡터 간의 거리를 구할 수 있다. 계산된 질감 벡터 간의 거리가 적절한 거리 내에 존재하면 이때의 질의 입력 이미지는 비교 대상 이미지와 텍스처가 유사한 것으로 판별한다. 이에 대해서는 수학식 10을 참조하면 된다.The distance between the texture vectors can be obtained by summing the distances of the respective blocks calculated using Equation (9). If the distance between the calculated texture vectors is within an appropriate distance, the query input image at this time is determined to be similar to the texture of the comparison object. This can be referred to Equation (10).

Figure 112008087609417-pat00008
Figure 112008087609417-pat00008

컬러 유사도 계산부(130)와 텍스처 유사도 계산부(140)가 각각 질의 입력 이미지의 컬러 유사도와 텍스처 유사도를 계산하면, 의류 검출부(160)는 계산된 각각 의 유사도 값을 기준값과 비교한다. 이후, 의류 검출부(160)는 컬러 유사도나 텍스처 유사도가 기준치 이상이면 질의 입력 이미지의 컬러나 텍스처가 비교 대상 이미지와 유사한 것으로 판별한다.(S230a, S230b).When the color similarity degree calculation unit 130 and the texture similarity degree calculation unit 140 respectively calculate the color similarity degree and the texture similarity degree of the query input image, the clothing detection unit 160 compares each calculated similarity value with the reference value. Then, the garment detecting unit 160 determines that the color or texture of the query input image is similar to the comparison object (S230a, S230b) if the color similarity degree or the texture similarity degree is not less than the reference value.

의류 검출부(160)는 S230 단계 이후 유사한 것으로 판별된 질의 입력 이미지의 ROI를 의류 이미지로 검출한다(S240).The garment detecting unit 160 detects the ROI of the query input image determined as similar after step S230 as a garment image (S240).

한편, 본 발명은 의류 검출 방법을 이용하여 의류 관련 메타데이터를 생성하는 것도 가능하다. 이하에서는 의류 관련 메타데이터를 생성하는 방법에 대해서 설명한다. 도 6은 본 발명의 바람직한 실시예에 따른 의류 검출 방법을 이용한 의류 관련 메타데이터를 생성하는 방법을 도시한 순서도이다. 이하 도 6을 참조하여 설명한다.Meanwhile, the present invention can also generate garment-related metadata using the garment detection method. Hereinafter, a method of generating garment-related metadata will be described. FIG. 6 is a flowchart illustrating a method of generating garment-related metadata using a garment detection method according to a preferred embodiment of the present invention. This will be described below with reference to FIG.

메타데이터란 일반적으로 데이터의 의미를 기술하거나 대표하는 데이터를 말한다. 의류 인식의 경우에 있어서 메타데이터란 의류의 색상, 의류의 질감 등 이미지에 포함된 의류 관련 데이터를 의미한다.Metadata typically refers to data that describes or represents the meaning of the data. In the case of garment recognition, metadata means clothing-related data included in images such as color of clothes, texture of clothes, and the like.

먼저 동영상이 입력되면(S600), 그 입력된 동영상에서 사람의 얼굴 영역을 인식한다(S610). 이후, 인식된 얼굴 영역을 기반으로 얼굴 아래에 위치하는 의류 영역 ROI를 추출한다(S620). 이후, 추출된 의류 영역 ROI 내에서 의류의 특징인 색상 유사도와 텍스처 유사도를 계산한다(S630). 이후, 계산된 유사도 값과 미리 정해진 기준값을 비교하여 유사한 것으로 판별된 질의 입력 이미지의 ROI를 검출한다. 이 과정은 동영상 전체에 대한 의류 영역을 탐색하여 유사도가 가장 큰 의류에 대해서 영역을 찾게 한다(S640).First, when a moving image is input (S600), the face region of the person is recognized in the input moving image (S610). Then, the garment region ROI located below the face is extracted based on the recognized face region (S620). Then, the color similarity and texture similarity, which are features of clothes, are calculated in the extracted clothing area ROI (S630). Then, the calculated similarity value is compared with a predetermined reference value to detect the ROI of the query input image determined to be similar. In this process, the garment area for the entire moving image is searched to find an area for the garment having the greatest similarity (S640).

S600 단계 내지 S640 단계에 대해서는 이미 설명하였는 바, 여기서는 설명을 생략한다.The steps S600 to S640 have already been described, and a description thereof will be omitted here.

동영상 전체 영역에 대해 탐색이 완료되지 않았다면(S650), S620 단계 내지 S640 단계가 반복 진행된다. 반면, 동영상 전체 영역에 대해 탐색이 완료되었다면(S650), 최종적으로 그동안 검출된 ROI를 수집하여 메타데이터를 생성한다(S660).If the search for the entire moving image area is not completed (S650), steps S620 to S640 are repeatedly performed. On the other hand, if the search for the entire video area is completed (S650), the ROI is finally collected to generate metadata (S660).

도 6에 따른 메타데이터 생성 방법이 시스템으로 구현될 경우 영상 인식 기능이 추가될 수 있는 구조를 가진 동영상 편집기, 영상에서 대표 프레임을 추출하여 그 안에서 인물 정보 구성을 위한 얼굴 인식된 위치 및 메타데이터를 생성하는 편집기 등이 구비됨은 물론이다. 또한, 이러한 시스템은 얼굴 인식 위치를 중심으로 하단에서 찾고자 하는 의류의 컬러 정보와 텍스처 정보를 찾아주는 기능도 수행한다.A moving picture editor having a structure capable of adding an image recognition function when the metadata generation method of FIG. 6 is implemented as a system, a method of extracting a representative frame from an image and detecting a face recognized position and metadata And an editor for generating the data. In addition, such a system also performs a function of finding color information and texture information of a garment to be searched at the lower part centered on the face recognition position.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명은 이미지에서 사람의 얼굴을 인식하고, 인식된 얼굴을 기반으로 의류를 검출하는 의류 검출 장치와 그 방법을 개시한다. 본 발명에 따르면, 이미지로부터 의류 인식율이 우수하고 빠른 실행 속도를 가지는 의류 인식 기술을 개발할 수 있다. 또한, 종전보다 동영상 기반의 메타데이터 저작 시간을 대폭 단축시킬 수 있다.The present invention discloses a garment detecting apparatus for recognizing a face of a person in an image and detecting clothing based on the recognized face and a method thereof. INDUSTRIAL APPLICABILITY According to the present invention, it is possible to develop a garment recognition technology having an excellent recognition rate from an image and a high execution speed. In addition, it is possible to greatly shorten the metadata authoring time of the moving image than before.

이미지에서 의류를 검출하는 의류 인식 기술은 기존 인터넷 쇼핑몰, 특히 의류 관련 쇼핑몰에서 편리하게 사용할 수 있다. 또한, 메타데이터 생성 기술은 동영상 객체 기반의 다양한 서비스를 제공하는 업체에서 이용할 수 있다. 본 발명에 따른 의류 검출 방법과 메타데이터 생성 방법은 우수한 인식률, 자동 검출이나 자동 생성에 따른 저작 시간의 단축 등으로 향후 관련 업계에서 경쟁력을 확보할 수 있을 것으로 예측된다.Garment recognition technology for detecting garments in images can be conveniently used in existing Internet shopping malls, especially clothing-related shopping malls. In addition, metadata generation technology can be used by companies providing various services based on moving image objects. The clothes detecting method and the metadata generating method according to the present invention are expected to secure competitiveness in the related industry due to excellent recognition rate, automatic detection, shortening of authoring time due to automatic generation, and the like.

도 1은 본 발명의 바람직한 실시예에 따른 의류 검출 장치를 개략적으로 도시한 블록도이고,1 is a block diagram schematically showing a clothes detecting apparatus according to a preferred embodiment of the present invention,

도 2는 본 발명의 바람직한 실시예에 따른 의류 검출 방법을 도시한 순서도이고,2 is a flowchart illustrating a garment detection method according to a preferred embodiment of the present invention,

도 3은 이미지에서 인식된 얼굴을 이용하여 의류 영역을 설정하는 예시도이고,FIG. 3 is an example of setting a garment area using a face recognized in an image,

도 4는 블록 간 매칭 방법의 예시도이고,4 is an exemplary diagram of a method of inter-block matching,

도 5는 DCT 계수의 특성에 대한 예시도 및 질감 특징 벡터를 추출하는 방법의 예시도이고,FIG. 5 is an exemplary diagram of the characteristics of DCT coefficients and a method of extracting texture feature vectors,

도 6은 본 발명의 바람직한 실시예에 따른 의류 검출 방법을 이용한 의류 관련 메타데이터를 생성하는 방법을 도시한 순서도이다.FIG. 6 is a flowchart illustrating a method of generating garment-related metadata using a garment detection method according to a preferred embodiment of the present invention.

< 도면의 주요 부분에 대한 부호의 설명 >Description of the Related Art

100 : 의류 검출 장치 110 : 얼굴 인식부100: Appearance detecting apparatus 110: Face recognition unit

120 : 의류 영역 추출부 130 : 컬러 유사도 계산부120: garment region extracting unit 130: color similarity calculating unit

140 : 텍스처 유사도 계산부 150 : 인물 정보 취득부140: texture similarity calculation unit 150:

160 : 의류 검출부 170 : 전원부160: Clothing detecting unit 170:

180 : 제어부 310 : ROI180: control unit 310: ROI

Claims (14)

질의로 입력된 질의 입력 이미지에서 사람의 얼굴을 인식하는 얼굴 인식부;A face recognition unit for recognizing a face of a person in a query input image inputted as a query; 상기 인식된 얼굴이 지시하는 인물 정보를 취득하는 인물 정보 취득부;A person information acquiring unit for acquiring person information indicated by the recognized face; 상기 인식된 얼굴을 기반으로 상기 질의 입력 이미지에서 의류 영역을 추출하는 의류 영역 추출부;A garment region extracting unit for extracting a garment region from the query input image based on the recognized face; 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 컬러 매칭시키고, 상기 컬러 매칭으로부터 상기 의류 영역의 컬러 유사도 값을 계산하는 컬러 유사도 계산부;A color similarity calculation unit for color matching the extracted garment area to a predetermined area of a comparison object image and calculating a color similarity value of the garment area from the color matching; 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 텍스처 매칭시키고, 상기 텍스처 매칭으로부터 상기 의류 영역의 텍스처 유사도 값을 계산하는 텍스처 유사도 계산부; 및A texture similarity calculation unit for matching the extracted garment area with a predetermined area of a comparison target image and calculating a texture similarity value of the garment area from the texture matching; And 상기 계산된 컬러 유사도 값과 상기 계산된 텍스처 유사도 값을 각각 미리 정해진 기준값과 비교하여 상기 추출된 의류 영역의 컬러나 텍스처가 상기 비교 대상 이미지의 소정 영역과 유사한지를 판별하며, 상기 판별 결과가 유사하다는 것이면 상기 의류 영역을 의류를 표시하는 의류 이미지로 검출하는 의류 검출부를 포함하되,Comparing the calculated color similarity value and the calculated texture similarity value with a predetermined reference value to determine whether the color or texture of the extracted garment area is similar to a predetermined area of the comparison object image, And a garment detecting unit for detecting the garment area as a garment image representing the garment, 상기 의류 검출부는,Wherein the clothes detecting unit comprises: 상기 의류 이미지 검출시, 상기 취득된 인물 정보를 더 이용하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.And the acquired person information is further used when the garment image is detected. 제 1 항에 있어서,The method according to claim 1, 상기 의류 영역 추출부는 상기 얼굴의 크기를 기반으로 상기 얼굴 영역을 설정하며, 상기 설정된 얼굴 영역의 아래 위치에서 상기 의류 영역을 추출하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.Wherein the garment region extractor sets the face region based on the size of the face and extracts the garment region from a position below the set face region. 제 1 항에 있어서,The method according to claim 1, 상기 컬러 유사도 계산부는,The color similarity calculation unit may calculate, 상기 의류 영역을 포함하는 프레임의 컬러 스페이스를 RGB에서 HSI로 이미지 변환시키는 컬러 스페이스 변환부;A color space conversion unit for converting the color space of the frame including the garment area from RGB to HSI; 상기 변환된 이미지에서 상기 RGB를 고려하여 컬러에 대한 정보를 도출하는 컬러 정보 도출부; 및A color information deriving unit for deriving information on a color in consideration of the RGB in the converted image; And 상기 비교 대상 이미지의 소정 영역으로부터 컬러에 대한 정보가 도출되면, 두 컬러 정보를 비교하여 상기 컬러 유사도 값을 계산하는 컬러 유사도 값 계산부A color similarity value calculation unit for comparing the two color information and calculating the color similarity value when the information about the color is derived from the predetermined area of the comparison object image, 를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.And an image processing unit for processing the image. 제 1 항에 있어서,The method according to claim 1, 상기 텍스처 유사도 계산부는,The texture similarity calculation unit may calculate, 상기 의류 영역에 대한 이미지를 DCT를 이용하여 주파수 도메인으로 전환시키는 주파수 도메인 전환부;A frequency domain switching unit for converting an image of the garment area into a frequency domain using DCT; 상기 전환으로부터 도출된 이미지의 블록별 변환 계수들 중에서 주파수 영역별 계수를 추출하고, 상기 추출된 주파수 영역별 계수가 포함된 질감 특징 벡터를 추출하는 질감 특징 벡터 추출부; 및A texture feature vector extractor for extracting a frequency domain coefficient from among transform coefficients for each block of the image derived from the conversion and extracting a texture feature vector including the extracted frequency domain coefficients; And 상기 추출된 질감 특징 벡터들과 상기 비교 대상 이미지의 소정 영역 내 질감 특징 벡터들을 비교하여, 서로 대응되는 질감 특징 벡터 간의 거리를 구한 후, 상기 구한 거리를 모두 합산하여 유사도 값을 계산하는 텍스처 유사도 값 계산부A texture similarity value calculating unit that compares the extracted texture feature vectors with texture feature vectors in a predetermined area of the comparison object to obtain distances between corresponding texture feature vectors and then calculates a similarity value by summing the obtained distances; Calculation unit 를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.And an image processing unit for processing the image. 제 3 항에 있어서,The method of claim 3, 상기 컬러 유사도 값 계산부는 상기 질의 입력 이미지를 블록 단위로 분할한 후 상기 분할된 블록들 중에서 적어도 하나의 블록을 추출하고 상기 추출된 블록을 상기 비교 대상 이미지의 블록과 상호 비교하는 블록 매칭을 통해 상기 두 컬러 정보를 비교하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.Wherein the color similarity value calculation unit divides the query input image into blocks, extracts at least one block from the divided blocks, and compares the extracted block with a block of the comparison object, And comparing the two pieces of color information. 제 1 항에 있어서,The method according to claim 1, 상기 인식된 얼굴이 지시하는 인물에 대한 정보를 취득하는 인물 정보 취득부A person information acquiring unit for acquiring information about a person indicated by the recognized face, 를 더 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.Further comprising: a detecting unit for detecting the garment in the image. 제 2 항에 있어서,3. The method of claim 2, 상기 의류 영역 추출부는,The garment region extracting unit extracts, 상기 설정된 얼굴 영역의 가로 크기와 세로 크기를 결정하는 얼굴 영역 크기 결정부;A face area size determination unit for determining a horizontal size and a vertical size of the set face area; 상기 얼굴 영역의 아래 위치에서 상기 얼굴 영역의 가로 크기의 2.5~3.5배를 넓이로 하고 상기 얼굴 영역의 세로 크기의 1.5~2.5배를 높이로 하는 상기 의류 영역을 검출하는 의류 영역 검출부A garment area detector for detecting the garment area having a width of 2.5 to 3.5 times the width of the face area at a position below the face area and a height of 1.5 to 2.5 times the vertical size of the face area; 를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.And an image processing unit for processing the image. 제 3 항에 있어서,The method of claim 3, 상기 컬러 정보 도출부는 상기 컬러에 대한 정보로 R(Red) 성분값, G(Green) 성분값 및 B(Blue) 성분값이 포함된 상기 의류 영역에서의 색상값을 도출하며, 상기 도출된 색상값을 0~12의 범위값으로 정규화시키는 것을 특징으로 하는 이미지에서의 의류 검출 장치.The color information derivation unit derives a color value in the garment area including a R (Red) component value, a G (Green) component value, and a B (Blue) component value as information on the color, Is normalized to a value in the range of 0 to 12. 제 4 항에 있어서,5. The method of claim 4, 상기 거리 계산부는 블록별로 존재하는 9개의 질감 특징 벡터값을 이용하여 상기 질감 특징 벡터들 간의 거리를 구하는 것을 특징으로 하는 이미지에서의 의류 검출 장치.Wherein the distance calculator calculates a distance between the texture feature vectors using nine texture feature vector values that exist for each block. (a) 질의로 입력된 질의 입력 이미지에서 사람의 얼굴을 인식하는 단계;(a) recognizing a face of a person in a query input image input by a query; (b) 상기 인식된 얼굴을 기반으로 상기 질의 입력 이미지에서 의류 영역을 추출하는 단계;(b) extracting a garment area from the query input image based on the recognized face; (c) 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 컬러 매칭시키고, 상기 컬러 매칭으로부터 상기 의류 영역의 컬러 유사도 값을 계산하는 단계;(c) color matching the extracted garment area to a predetermined area of a comparison image, and calculating a color similarity value of the garment area from the color matching; (d) 상기 추출된 의류 영역을 비교 대상 이미지의 소정 영역에 텍스처 매칭시키고, 상기 텍스처 매칭으로부터 상기 의류 영역의 텍스처 유사도 값을 계산하는 단계;(d) texture matching the extracted garment area to a predetermined area of a comparison object image, and calculating a texture similarity value of the garment area from the texture matching; (d') 상기 인식된 얼굴이 지시하는 인물에 대한 정보를 취득하는 단계;(d ') acquiring information about a person indicated by the recognized face; (e) 상기 계산된 컬러 유사도 값과 상기 계산된 텍스처 유사도 값을 각각 미리 정해진 기준값과 비교하여 상기 추출된 의류 영역의 컬러나 텍스처가 상기 비교 대상 이미지의 소정 영역과 유사한지를 판별하며, 상기 판별 결과가 유사하다는 것이면 상기 의류 영역을 의류를 표시하는 의류 이미지로 검출하는 단계를 포함하되,(e) comparing the calculated color similarity value and the calculated texture similarity value with a predetermined reference value to determine whether the color or texture of the extracted garment area is similar to a predetermined area of the comparison object image, Detecting the garment area as a garment image representing the garment, 상기 (e) 단계는,The step (e) 상기 의류 이미지 검출시, 상기 취득된 인물에 대한 정보를 더 이용하는 것을 특징으로 하는 이미지에서의 의류 검출 방법.And when the clothes image is detected, information on the acquired person is further used. 제 10 항에 있어서,11. The method of claim 10, 상기 (c) 단계는,The step (c) (ca) 상기 의류 영역을 포함하는 프레임의 컬러 스페이스를 RGB에서 HSI로 이미지 변환시키는 단계;(ca) transforming the color space of the frame including the garment area from RGB to HSI; (cb) 상기 변환된 이미지에서 상기 RGB를 고려하여 컬러에 대한 정보를 도출하는 단계; 및(cb) deriving information on the color in consideration of the RGB in the transformed image; And (cc) 상기 비교 대상 이미지의 소정 영역으로부터 컬러에 대한 정보가 도출되면, 두 컬러 정보를 비교하여 상기 컬러 유사도 값을 계산하는 단계(cc) when information on a color is derived from a predetermined area of the comparison target image, calculating the color similarity value by comparing the two color information 를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 방법.&Lt; / RTI &gt; 제 10 항에 있어서,11. The method of claim 10, 상기 (d) 단계는,The step (d) (da) 상기 의류 영역에 대한 이미지를 DCT를 이용하여 주파수 도메인으로 전환시키는 단계;(da) converting the image for the garment area into frequency domain using DCT; (db) 상기 전환으로부터 도출된 이미지의 블록별 변환 계수들 중에서 주파수 영역별 계수를 추출하고, 상기 추출된 주파수 영역별 계수가 포함된 질감 특징 벡터를 추출하는 단계;(db) extracting a frequency domain coefficient among transform coefficients for each block of the image derived from the transform and extracting a texture feature vector including the extracted coefficients for each frequency domain; (dc) 상기 추출된 질감 특징 벡터들과 상기 비교 대상 이미지의 소정 영역 내 질감 특징 벡터들을 비교하여, 서로 대응되는 질감 특징 벡터 간의 거리를 구하는 단계; 및(dc) comparing the extracted texture feature vectors with texture feature vectors in a predetermined region of the comparison object to obtain distances between corresponding texture feature vectors; And (dd) 상기 구한 거리를 모두 합산하여 텍스처 유사도 값을 계산하는 단계(dd) calculating the texture similarity value by summing all the obtained distances 를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 방법.&Lt; / RTI &gt; 제 10 항에 있어서,11. The method of claim 10, 상기 상기 (b) 단계는,The step (b) (ba) 상기 얼굴의 크기를 기반으로 상기 얼굴 영역을 설정하는 단계; 및(ba) setting the face region based on the size of the face; And (bb) 상기 설정된 얼굴 영역의 아래 위치에서 상기 의류 영역을 추출하는 단계(bb) extracting the garment area at a position below the set face area 를 포함하는 것을 특징으로 하는 이미지에서의 의류 검출 방법.&Lt; / RTI &gt; 삭제delete
KR1020080130668A 2008-12-19 2008-12-19 Apparatus and method for detecting clothes in image KR101471204B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080130668A KR101471204B1 (en) 2008-12-19 2008-12-19 Apparatus and method for detecting clothes in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080130668A KR101471204B1 (en) 2008-12-19 2008-12-19 Apparatus and method for detecting clothes in image

Publications (2)

Publication Number Publication Date
KR20100071822A KR20100071822A (en) 2010-06-29
KR101471204B1 true KR101471204B1 (en) 2014-12-10

Family

ID=42369249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080130668A KR101471204B1 (en) 2008-12-19 2008-12-19 Apparatus and method for detecting clothes in image

Country Status (1)

Country Link
KR (1) KR101471204B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101328052B1 (en) * 2011-07-08 2013-11-08 엘지전자 주식회사 Mobile device and control method for the same
US8798362B2 (en) 2011-08-15 2014-08-05 Hewlett-Packard Development Company, L.P. Clothing search in images
CN103827856A (en) 2011-09-27 2014-05-28 惠普发展公司,有限责任合伙企业 Retrieving visual media
WO2017047862A1 (en) * 2015-09-18 2017-03-23 민운기 Image key authentication method and system, which use color histogram and texture information of images
US9940728B2 (en) 2015-12-15 2018-04-10 Intel Corporation Computer vision assisted item search
CN108230409B (en) * 2018-03-28 2020-04-17 南京大学 Image similarity quantitative analysis method based on multi-factor synthesis of color and content
KR102009158B1 (en) * 2018-11-12 2019-08-09 남서울대학교 산학협력단 System for ascertaining the truth behind history plays in real time using the annals of the joseon dynasty

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020062557A (en) * 2001-01-20 2002-07-26 삼성전자 주식회사 Apparatus for object extraction based on the feature matching of region in the segmented images and method therefor
KR20030062586A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Human area detection for mobile video telecommunication system
JP2004533640A (en) * 2001-04-17 2004-11-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for managing information about a person

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020062557A (en) * 2001-01-20 2002-07-26 삼성전자 주식회사 Apparatus for object extraction based on the feature matching of region in the segmented images and method therefor
JP2004533640A (en) * 2001-04-17 2004-11-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for managing information about a person
KR20030062586A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Human area detection for mobile video telecommunication system

Also Published As

Publication number Publication date
KR20100071822A (en) 2010-06-29

Similar Documents

Publication Publication Date Title
KR101471204B1 (en) Apparatus and method for detecting clothes in image
CN102687171B (en) Person retrieval device and method
JP5371083B2 (en) Face identification feature value registration apparatus, face identification feature value registration method, face identification feature value registration program, and recording medium
KR101469398B1 (en) Text-based 3d augmented reality
Lin et al. Detection of frame duplication forgery in videos based on spatial and temporal analysis
JP4973188B2 (en) Video classification device, video classification program, video search device, and video search program
US20090141937A1 (en) Subject Extracting Method, Subject Tracking Method, Image Synthesizing Method, Computer Program for Extracting Subject, Computer Program for Tracking Subject, Computer Program for Synthesizing Images, Subject Extracting Device, Subject Tracking Device, and Image Synthesizing Device
KR100873638B1 (en) Image processing method and apparatus
Zhang et al. Detecting and extracting the photo composites using planar homography and graph cut
US20110122315A1 (en) Method and apparatus for synchronizing video data
Ren et al. Fusion of intensity and inter-component chromatic difference for effective and robust colour edge detection
US20080292192A1 (en) Human detection device and method and program of the same
JP2011513809A5 (en)
US8718404B2 (en) Method for two-step temporal video registration
JP2011160379A (en) Image processing device and method, and program therefor
EP1439491A1 (en) Signal processing method and processor
Liu et al. Robust autocalibration for a surveillance camera network
CN102067582A (en) Color adjustment
JP6829412B1 (en) Image processing equipment, image processing system, image processing method, and image processing program
US6766054B1 (en) Segmentation of an object from a background in digital photography
US20120121189A1 (en) Image processing device, image processing method, program, and integrated circuit
JP4991356B2 (en) Image processing apparatus, image processing method, and image processing program
CN104504162B (en) A kind of video retrieval method based on robot vision platform
JP4042602B2 (en) Image processing device
JP2000030033A (en) Person detecting method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant