KR101884874B1 - Method and apparatus for distinguishing object based on partial image - Google Patents
Method and apparatus for distinguishing object based on partial image Download PDFInfo
- Publication number
- KR101884874B1 KR101884874B1 KR1020170009273A KR20170009273A KR101884874B1 KR 101884874 B1 KR101884874 B1 KR 101884874B1 KR 1020170009273 A KR1020170009273 A KR 1020170009273A KR 20170009273 A KR20170009273 A KR 20170009273A KR 101884874 B1 KR101884874 B1 KR 101884874B1
- Authority
- KR
- South Korea
- Prior art keywords
- target
- image
- images
- category
- feature vector
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 174
- 238000006243 chemical reaction Methods 0.000 claims abstract description 14
- 238000013507 mapping Methods 0.000 claims description 11
- 230000014509 gene expression Effects 0.000 claims description 9
- 230000001131 transforming effect Effects 0.000 claims description 6
- 238000000280 densification Methods 0.000 claims description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000012850 discrimination method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G06F17/30244—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 방법은 타겟 이미지를 입력 받는 단계, 타겟 이미지의 기울기 및 스케일이 기 설정된 크기로 변환된 복수의 변환 타겟 이미지를 생성하는 단계, 변환 타겟 이미지의 각각의 타겟 특징점을 추출하는 단계, 타겟 특징점을 기준으로 소정 크기의 타겟 부분 이미지를 생성하고, 타겟 부분 이미지의 각각의 타겟 특징 벡터를 추출하는 단계, 데이터베이스의 카테고리의 각각에서 각각의 카테고리에 매핑된 특징 벡터 중 타겟 특징 벡터의 각각과 거리가 가장 가까운 제1 특징 벡터를 추출하는 단계, 타겟 특징 벡터의 각각과 타겟 특징 벡터의 각각으로부터 추출된 제1 특징 벡터와의 연관 관계를 나타내는 스파스 배열을 계산하는 단계, 스파스 배열을 기초로 타겟 특징 벡터의 각각으로부터 추출된 제1 특징 벡터 중 타겟 특징 벡터의 각각과 연관 관계가 가장 큰 제1 특징 벡터의 카테고리를 판별하는 단계, 판별된 카테고리 및 스파스 배열의 각각을 기초로 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별하는 단계 및 타겟 이미지의 객체를 판별된 카테고리와 대응되는 이미지의 객체로 판별하는 단계를 포함한다. According to an embodiment of the present invention, there is provided a partial image-based object determining method comprising: inputting a target image; generating a plurality of conversion target images in which a slope and a scale of the target image are converted into predetermined sizes; Generating a target portion image of a predetermined size based on the target feature point, and extracting each target feature vector of the target portion image, extracting feature points mapped to respective categories in each of the categories of the database Calculating a sparse array representing a relationship between each of the target feature vectors and a first feature vector extracted from each of the target feature vectors, extracting a first feature vector having a distance closest to each of the target feature vectors, Extracted from each of the target feature vectors based on the sparse arrangement, Determining a category of the first feature vector having the largest correlation with each of the target feature vectors, determining a category having the largest correlation with the target image based on each of the determined category and sparse arrangement And determining an object of the target image as an object of the image corresponding to the discriminated category.
Description
본 발명은 부분 이미지 기반 객체 판별 방법 및 장치에 관한 것으로서, 보다 자세하게는 타겟 이미지의 특징점을 기준으로 부분 이미지를 생성하고, 부분 이미지의 특징 벡터를 데이터베이스에 저장된 부분 이미지들의 특징 벡터와 비교하여 타겟 이미지의 객체를 판별하는 부분 이미지 기반 객체 판별 방법 및 장치에 관한 것이다.The present invention relates to a partial image-based object discrimination method and apparatus, and more particularly, to a partial image-based object discrimination method and apparatus for generating partial images based on minutiae points of a target image and comparing feature vectors of partial images with feature vectors of partial images stored in a database, Based object discrimination method and apparatus for discriminating an object of a partial image based object.
최근 컴퓨터를 이용하여 얼굴을 인식하는 기술이 많은 주목을 받고 있다. 얼굴 인식은 지문, DNA, 홍채 인식과 달리 사용자의 협조를 필요로 하지 않고, 카메라를 통해 얻은 인물의 얼굴 이미지만 있으면 해당 인물을 식별할 수 있다는 장점이 있다. 이러한 장점 때문에 얼굴 인식 기술은 감시 애플리케이션뿐만 아니라 신원 정보 확인, 디지털 앨범의 자동 분류, 화상 전화, 엔터테인먼트 등 수많은 분야에 활용되고 있다. Recently, a technique of recognizing a face using a computer has attracted much attention. Unlike fingerprint, DNA, and iris recognition, facial recognition does not require the cooperation of the user, and it is advantageous that the person can be identified only by the face image of the person obtained through the camera. Because of these advantages, face recognition technology is used not only in surveillance applications, but also in a number of fields, such as identification of identity information, automatic classification of digital albums, video telephony, and entertainment.
이러한 얼굴 인식 기술은 특정 각도, 특정 조명 등의 통제된 조건에서 인물의 정면 이미지를 식별하는 기술로부터 이미지의 종류에 대한 제한 없이 인간 수준으로 인물을 식별하는 기술로 진보하고 있다.Such face recognition technology is advancing from the technique of identifying a frontal image of a person in a controlled condition such as a specific angle, a specific illumination, etc. to a technique of identifying a person to a human level without restriction on the kind of the image.
그러나 실생활에서 사람들은 선글라스, 모자, 마스크 등으로 얼굴의 일부를 가리는 경우가 있고, 포즈, 인물의 표정에 따라 이미지가 달라질 수 있으며, 장소에 따라 이미지의 조도 차이가 발생하기 때문에 인간 수준의 식별력에 근접하는 얼굴 인식 기술을 달성하는 데에는 어려움이 남아있다. However, in real life, people sometimes cover a part of the face with sunglasses, a hat, a mask, and the image can be changed according to the pose and the expression of the person. Since the illuminance of the image varies depending on the place, There is still a difficulty in achieving close face recognition technology.
본 발명의 실시예에서 해결하고자 하는 과제는 얼굴의 일부가 가리어진 이미지 또는 표정에 의해 얼굴 텍스처가 변형된 이미지로부터 객체를 판별할 수 있는 기술을 제공하는 것이다. A problem to be solved by an embodiment of the present invention is to provide a technique capable of discriminating an object from an image in which a part of a face is covered or an image in which a face texture is modified by a facial expression.
다만, 본 발명의 실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 도출될 수 있다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed.
본 발명의 일 실시예에 따른 c개(c는 자연수)의 이미지를 이용하여 부분 이미지 기반의 데이터베이스를 생성하는 방법은 상기 c개의 이미지 중 j번째(j는 1부터 c의 자연수) 이미지를 입력 받는 단계, 상기 j번째 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 복수의 변환 이미지를 생성하는 단계, 상기 변환 이미지의 각각의 특징점을 추출하는 단계, 상기 특징점의 각각을 기준으로 소정 크기의 부분 이미지를 생성하고, 상기 부분 이미지의 각각의 j번째 특징 벡터를 추출하는 단계 및 상기 j번째 이미지와 대응하는 j번째 카테고리를 생성하고, 상기 j번째 특징 벡터를 상기 j번째 카테고리와 매핑하여 저장하는 단계를 포함한다. A method of generating a partial image-based database using c (c is a natural number) image according to an embodiment of the present invention includes receiving a j-th image (j is a natural number from 1 to c) Generating a plurality of transformed images by converting a slope or a scale of the j-th image into a predetermined size, extracting each of the feature points of the transformed image, Extracting each j-th feature vector of the partial image, generating a j-th category corresponding to the j-th image, mapping the j-th feature vector to the j-th category, and storing .
본 발명의 일 실시예에 따른 부분 이미지 기반의 데이터베이스를 생성하는 방법에 따라 생성된 데이터베이스를 사용하여 타겟 이미지 내의 객체를 판별하는 방법은 상기 타겟 이미지를 입력 받는 단계, 상기 타겟 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 복수의 변환 타겟 이미지를 생성하는 단계, 상기 복수의 변환 타겟 이미지의 각각의 타겟 특징점을 추출하는 단계, 상기 타겟 특징점을 기준으로 소정 크기의 타겟 부분 이미지를 생성하고, 상기 타겟 부분 이미지의 각각의 타겟 특징 벡터를 추출하는 단계, 상기 타겟 특징 벡터의 각각의 타겟 특징 벡터에 대하여, 상기 데이터베이스의 카테고리의 각각에서 상기 각각의 카테고리에 매핑된 특징 벡터 중 상기 각각의 타겟 특징 벡터와 거리가 가장 가까운 제1 특징 벡터를 추출하는 단계, 상기 각각의 타겟 특징 벡터와 상기 각각의 타겟 특징 벡터로부터 추출된 제1 특징 벡터와의 연관 관계를 나타내는 스파스 배열(sparse array)를 계산하는 단계, 상기 스파스 배열을 기초로 상기 각각의 타겟 특징 벡터로부터 추출된 상기 제1 특징 벡터 중 상기 각각의 타겟 특징 벡터와 연관 관계가 가장 큰 제1 특징 벡터의 카테고리를 판별하는 단계, 상기 판별된 카테고리 및 상기 스파스 배열의 각각을 기초로 상기 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별하는 단계 및 상기 타겟 이미지의 객체를 상기 판별된 카테고리와 대응되는 이미지의 객체로 판별하는 단계를 포함한다. A method of determining an object in a target image using a database generated according to a method of generating a partial image-based database according to an embodiment of the present invention includes receiving the target image, calculating a slope or a scale of the target image, Generating a plurality of conversion target images by converting the target feature points into predetermined sizes, extracting respective target feature points of the plurality of conversion target images, generating a target portion image of a predetermined size based on the target feature points, For each of the target feature vectors of the target feature vector, each of the feature vectors mapped to each of the categories in each of the categories of the database, The first feature vector having the closest distance is extracted Calculating a sparse array representing a relationship between each of the target feature vectors and a first feature vector extracted from the respective target feature vectors; Determining a category of a first feature vector having the largest correlation with each of the first feature vectors extracted from the target feature vector; determining, based on the determined category and the sparse arrangement, Determining a category having the largest correlation with the target image, and discriminating the object of the target image as an object of the image corresponding to the discriminated category.
이때 상기 복수의 변환 타겟 이미지를 생성하는 단계는 affine simulation을 사용하여 상기 타겟 이미지의 가로 기울기, 세로 기울기 또는 스케일을 변환하는 단계를 포함할 수 있다. The generating of the plurality of conversion target images may include transforming a horizontal slope, a vertical slope, or a scale of the target image using affine simulation.
또한 상기 타겟 특징점을 추출하는 단계는 harris corner detector를 이용하여 상기 타겟 특징점을 추출하는 단계를 포함할 수 있다. The step of extracting the target feature points may include extracting the target feature points using a harris corner detector.
더하여 상기 타겟 특징 벡터를 추출하는 단계는 intensity value, LBP(local binary pattern) 및 HOG(histogram of oriented gradient) 중 적어도 하나를 사용하여 상기 타겟 특징 벡터를 추출하는 단계를 포함할 수 있다. In addition, extracting the target feature vector may include extracting the target feature vector using at least one of an intensity value, a local binary pattern (LBP), and a histogram of oriented gradient (HOG).
아울러 상기 각각의 타겟 특징 벡터와 거리가 가장 가까운 제1 특징 벡터를 상기 카테고리 각각에서 추출하는 단계는 1-NN(1-nearest neighbor)을 이용하여 상기 각각의 카테고리에 매핑된 특징 벡터와 상기 각각의 타겟 특징 벡터와의 거리를 계산하는 단계를 포함할 수 있다. The step of extracting a first feature vector having a distance closest to each of the target feature vectors in each of the categories may include extracting feature vectors mapped to the respective categories using 1-nearest neighbor (NN) And calculating a distance to the target feature vector.
또한 상기 스파스 배열을 계산하는 단계는 [수학식 1] (는 i번째 타겟 특징 벡터, 는 각 카테고리 마다 추출된 i번째 타겟 특징 벡터와 거리가 가장 가까운 제1 특징 벡터들의 집합, 은 소정의 오차)을 만족하는 벡터() 중 [수학식 2] ( 는 상기 [수학식 1]을 만족하는 ) 에 따라 크기가 가장 작은 벡터()를 상기 스파스 배열로 계산하는 단계를 포함할 수 있다. In addition, the step of calculating the sparse array may be expressed by Equation (1) ( Is an i-th target feature vector, Is a set of first feature vectors having a distance closest to the i-th target feature vector extracted for each category, (A predetermined error) (2) ( Satisfies the above-described expression (1) The vector with the smallest size ( ) To the sparse array.
더하여 상기 카테고리를 판별하는 단계는 [수학식 3] (는 상기 타겟 특징 벡터, 는 상기 제1 특징 벡터들의 집합, 는 상기 스파스 배열, 는 상기 스파스 배열()의 j번째 원소 이외의 원소를 모두 0으로 만드는 함수, j는 j번째 카테고리의 식별자)을 만족하는 j번째 카테고리를 상기 타겟 특징 벡터()와 연관 관계가 가장 큰 카테고리로 판별하는 단계를 포함할 수 있다. In addition, the step of determining the category may comprise the steps of: ( The target feature vector, Is a set of the first feature vectors, Lt; RTI ID = 0.0 > Lt; RTI ID = 0.0 > (J is a function of making all elements other than the jth element of the jth category) 0, and j is an identifier of the jth category) ) And the category having the greatest association with each other.
아울러 상기 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별하는 단계는 상기 타겟 특징 벡터와 대응하는 상기 스파스 배열의 원소들의 값이 밀집된 정도를 나타내는 수치를 계산하는 단계 및 상기 판별된 카테고리마다 상기 수치를 부여하고, 상기 수치의 합이 가장 높은 카테고리를 상기 타겟 이미지와 연관 관계가 가장 큰 카테고리로 판별하는 단계를 포함할 수 있다. The step of determining a category having the largest correlation with the target image may further include the step of calculating a numerical value indicating the degree of densification of the values of the elements of the sparse array corresponding to the target feature vector, And determining the category having the highest sum of the numbers as the category having the largest correlation with the target image.
이때 상기 스파스 배열의 원소들의 값이 밀집된 정도를 나타내는 수치는 [수학식 4] (는 i번째 타겟 특징 벡터에 대응되는 스파스 배열, 는 상기 스파스 배열()의 j번째 원소 이외의 원소를 모두 0으로 만드는 함수, j는 j번째 카테고리의 식별자, c는 상기 데이터베이스의 카테고리의 수)에 의해 산출될 수 있다. In this case, the numerical value indicating the degree of densification of the elements of the sparse array is expressed by Equation (4) ( Is a sparse array corresponding to the i-th target feature vector, Lt; RTI ID = 0.0 > ), J is an identifier of the j-th category, and c is the number of categories of the database).
본 발명의 일 실시예에 따른 c개(c는 자연수)의 이미지를 이용하여 부분 이미지 기반의 데이터베이스를 생성하는 장치는 상기 c개의 이미지 중 j번째(j는 1부터 c의 자연수) 이미지를 입력 받는 입력부, 상기 j번째 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 복수의 변환 이미지를 생성하는 변환 이미지 생성부, 상기 변환 이미지의 각각의 특징점을 추출하는 특징점 추출부, 상기 특징점의 각각을 기준으로 소정 크기의 부분 이미지를 생성하고, 상기 부분 이미지의 각각의 j번째 특징 벡터를 추출하는 특징 벡터 추출부 및 상기 j번째 이미지와 대응하는 j번째 카테고리를 생성하고, 상기 j번째 특징 벡터를 상기 j번째 카테고리와 매핑하여 저장하는 매핑부를 포함한다. An apparatus for generating a partial image-based database using c (c is a natural number) image according to an embodiment of the present invention includes an input unit for receiving a j-th image (j is a natural number from 1 to c) An input unit, a transformed image generating unit for transforming the slope or scale of the j-th image into a predetermined size to generate a plurality of transformed images, a feature point extracting unit for extracting each feature point of the transformed image, A feature vector extractor for generating a partial image of a predetermined size and extracting each jth feature vector of the partial image and a jth category corresponding to the jth image, And a mapping unit for storing the mapping information.
본 발명의 일 실시예 따른 부분 이미지 기반의 데이터베이스 생성 장치에 의하여 생성된 데이터베이스를 사용하여 타겟 이미지 내의 객체를 판별하는 장치는 상기 타겟 이미지를 입력 받는 입력부, 상기 타겟 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 복수의 변환 타겟 이미지를 생성하는 변환 이미지 생성부, 상기 복수의 변환 타겟 이미지의 각각의 타겟 특징점을 추출하는 특징점 추출부, 상기 타겟 특징점을 기준으로 소정 크기의 타겟 부분 이미지를 생성하고, 상기 타겟 부분 이미지의 각각의 타겟 특징 벡터를 추출하고, 상기 타겟 특징 벡터의 각각의 타겟 특징 벡터에 대하여 상기 데이터베이스의 카테고리의 각각에서 상기 각각의 카테고리에 매핑된 특징 벡터 중 상기 각각의 타겟 특징 벡터와 거리가 가장 가까운 제1 특징 벡터를 추출하는 특징 벡터 추출부, 상기 각각의 타겟 특징 벡터와 상기 각각의 타겟 특징 벡터로부터 추출된 제1 특징 벡터와의 연관 관계를 나타내는 스파스 배열(sparse array)를 계산하는 스파스 배열 계산부, 상기 스파스 배열을 기초로 상기 각각의 타겟 특징 벡터로부터 추출된 상기 제1 특징 벡터 중 상기 각각의 타겟 특징 벡터와 연관 관계가 가장 큰 제1 특징 벡터의 카테고리를 판별하고, 상기 판별된 카테고리 및 상기 스파스 배열의 각각을 기초로 상기 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별하여, 상기 타겟 이미지의 객체를 상기 판별된 카테고리와 대응되는 이미지의 객체로 판별하는 객체 판별부를 포함한다. An apparatus for determining an object in a target image using a database generated by a partial image-based database generation apparatus according to an exemplary embodiment of the present invention includes an input unit for inputting the target image, an input unit for inputting a slope or a scale of the target image, A feature point extracting unit for extracting each of the target feature points of the plurality of conversion target images to generate a target portion image of a predetermined size based on the target feature points, Extracting each of the target feature vectors of the target portion image and for each target feature vector of the target feature vector, each of the feature vectors mapped to each of the categories in each of the categories of the database, The closest distance feature A sparse array calculation unit for calculating a sparse array indicating a relationship between each of the target feature vectors and a first feature vector extracted from each of the target feature vectors, Determining a category of a first feature vector having the largest correlation with each of the first feature vectors extracted from the respective target feature vectors based on the sparse array, And an object discrimination unit for discriminating an object of the target image as an object of an image corresponding to the discriminated category based on each of the sparse arrays.
본 발명의 실시예에 따르면, 얼굴의 부분적 특징은 변하지 않는다는 점에 착안하여, 얼굴 이미지의 특징점을 기준으로 부분 이미지를 생성하고 다른 부분 이미지들과 비교함으로써, 얼굴의 일부가 가리어지거나 표정에 따라 얼굴 텍스처가 변형된 이미지에서도 객체를 판별할 수 있게 한다. According to the embodiment of the present invention, considering that the partial characteristic of the face does not change, a partial image is generated based on the characteristic point of the face image and compared with other partial images, so that a part of the face becomes humorous, Allows the object to be identified even in images with deformed textures.
도 1은 본 발명의 일 실시예에 따른 부분 이미지 기반 데이터베이스 생성 장치의 기능 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 장치의 기능 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 방법의 전체적인 프로세스를 도식화한 개략도이다.
도 4는 본 발명의 일 실시예에 따른 부분 이미지 기반 데이터베이스 생성 방법의 프로세스를 도시하는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 방법의 프로세스를 도시하는 흐름도이다.
도 6은 본 발명의 일 실시예에 따라 변환 이미지를 생성하는 것을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따라 변환 이미지로부터 부분 이미지를 생성하고 특징 벡터를 추출하는 것을 설명하기 위한 예시도이다.
도 8은 본 발명의 일 실시예에 따라 타겟 이미지를 입력받아 스파스 배열을 계산하는 것을 설명하기 위한 예시도이다. 1 is a functional block diagram of a partial image-based database generation apparatus according to an embodiment of the present invention.
2 is a functional block diagram of a partial image-based object discrimination apparatus according to an embodiment of the present invention.
3 is a schematic diagram illustrating an overall process of a partial image-based object determination method according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a process of a partial image-based database generation method according to an embodiment of the present invention.
5 is a flowchart illustrating a process of a partial image-based object determination method according to an embodiment of the present invention.
6 is an exemplary diagram for illustrating generating a transformed image according to an embodiment of the present invention.
7 is an exemplary diagram for illustrating generating a partial image from a transformed image and extracting a feature vector according to an embodiment of the present invention.
8 is an exemplary diagram for explaining calculation of a sparse array by receiving a target image according to an embodiment of the present invention.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described in detail with reference to the accompanying drawings.
본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.The embodiments disclosed herein should not be construed or interpreted as limiting the scope of the present invention. It will be apparent to those of ordinary skill in the art that the description including the embodiments of the present specification has various applications. Accordingly, any embodiment described in the Detailed Description of the Invention is illustrative for a better understanding of the invention and is not intended to limit the scope of the invention to embodiments.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the drawings and described below are merely examples of possible implementations. In other implementations, other functional blocks may be used without departing from the spirit and scope of the following detailed description. Also, although one or more functional blocks of the present invention are represented as discrete blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.
또한, 어떤 구성 요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성 요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성 요소들을 배제하는 것으로 이해되어서는 안 된다.In addition, the expression "including any element" is merely an expression of an open-ended expression, and is not to be construed as excluding the additional elements.
나아가 어떤 구성 요소가 다른 구성 요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성 요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. Further, when a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it should be understood that there may be other components in between.
또한 '제1, 제2' 등과 같은 표현은 복수의 구성들을 구분하기 위한 용도로만 사용된 표현으로써, 구성들 사이의 순서나 기타 특징들을 한정하지 않는다. Also, the expressions such as 'first, second', etc. are used only to distinguish a plurality of configurations, and do not limit the order or other features between configurations.
이하에서는 도면들을 참조하여 본 발명의 실시예들에 대해 설명하도록 한다. Hereinafter, embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 부분 이미지 기반 데이터베이스 생성 장치(100)의 기능 블럭도이다. 1 is a functional block diagram of a partial image-based
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 부분 이미지 기반 데이터베이스 생성 장치(100)는 입력부(110), 변환 이미지 생성부(120), 특징점 추출부(130), 특징 벡터 추출부(140) 및 매핑부(150)를 포함한다. 1, an
입력부(110)는 이미지를 입력 받는다. 이때 입력 받는 이미지는 식별을 목적으로 입력되는 타겟 이미지를 식별하기 위한 대조군으로서 인물의 얼굴을 포함한다. 예를 들어, 입력 받는 이미지는 인물의 정면 이미지를 찍은 사진일 수 있다.The
변환 이미지 생성부(120)는 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환한 변환 이미지를 생성한다. 이때 도 7에 도시된 바와 같이, 변환하기 위한 기울기 또는 스케일을 다르게 하여 복수의 변환 이미지를 생성할 수 있다. The converted
특징점 추출부(130)는 변환 이미지로부터 특징점을 추출할 수 있다. 이때 도 8과 같이 하나의 변환 이미지로부터 하나 이상의 특징점을 추출할 수 있다.The feature
특징 벡터 추출부(140)는 도 8에 도시된 바와 같이, 특징점 추출부(130)가 추출한 특징점 각각을 기준으로 소정 크기의 부분 이미지를 생성하고, 부분 이미지의 특징 벡터를 추출할 수 있다. 8, the feature
매핑부(150)는 입력 받은 이미지와 대응하는 카테고리를 생성하고, 입력 받은 이미지로부터 추출된 특징 벡터를 생성한 카테고리와 매핑하여 저장할 수 있다. The
한편 상술한 실시예가 포함하는 입력부(110), 변환 이미지 생성부(120), 특징점 추출부(130), 특징 벡터 추출부(140) 및 매핑부(150)는 이들의 기능을 수행하도록 프로그램된 명령어를 포함하는 메모리, 및 이들 명령어를 수행하는 마이크로프로세서를 포함하는 연산 장치에 의해 구현될 수 있다. Meanwhile, the
도 2는 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 장치(200)의 기능 블럭도이다.FIG. 2 is a functional block diagram of a partial image-based
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 장치(200)는 입력부(210), 변환 이미지 생성부(220), 특징점 추출부(230), 특징 벡터 추출부(240), 스파스 배열 계산부(250) 및 객체 판별부(260)를 포함한다. 2, the partial image-based
한편, 후술할 변환 타겟 이미지, 타겟 부분 이미지, 타겟 특징점, 타겟 특징 벡터의 용어는 도 1에서 사용된 용어, 즉 변환 이미지, 부분 이미지, 특징점, 특징 벡터 등과 구분하여 식별하고자 하는 인물의 얼굴을 포함하는 타겟 이미지로부터 추출된 것임을 의미하는 것일 뿐, 특별한 한정을 표현하는 것은 아니다. On the other hand, the terms of the conversion target image, the target partial image, the target feature point, and the target feature vector to be described later include the face of a person to be identified by distinguishing the terms used in FIG. 1, But is not meant to imply any particular limitation.
입력부(210)는 타겟 이미지를 입력 받는다. 타겟 이미지는 판별하기 위한 객체의 얼굴을 포함하는 이미지로서 이미지의 조건에 대하여 제한이 없다. 예를 들어, 타겟 이미지는 장신구로 인해 판별하기 위한 객체의 얼굴 일부가 가리어진 이미지, 객체의 포즈 또는 표정에 의해 얼굴 텍스처가 변형된 이미지 또는 하나의 이미지 안에 다수의 인물들이 포함된 이미지일 수 있다. The
변환 이미지 생성부(220)는 타겟 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환한 변환 타겟 이미지를 생성한다. 이때 도 6과 같이 변환하기 위한 기울기 또는 스케일을 다르게 하여 복수의 변환 타겟 이미지를 생성할 수 있다.The converted
특징점 추출부(230)는 변환 타겟 이미지로부터 특징점을 추출할 수 있다. 이때 도 7과 같이 하나의 변환 타겟 이미지로부터 하나 이상의 특징점을 추출할 수 있다.The feature
특징 벡터 추출부(240)는 도 7과 같이 특징점 추출부(230)가 추출한 타겟 특징점을 기준으로 소정 크기의 타겟 부분 이미지를 생성하고, 타겟 부분 이미지의 타겟 특징 벡터를 추출하여, 부분 이미지 기반 데이터베이스 생성 장치(100)에 의해 생성된 데이터베이스에 저장되어 있는 각 카테고리마다, 각 카테고리에 매핑되어 있는 특징 벡터 중 타겟 특징 벡터와 거리가 가장 가까운 제1 특징 벡터를 추출할 수 있다. 7, the feature
스파스 배열 계산부(250)는 각 카테고리에서 추출된 제1 특징 벡터들과 타겟 특징 벡터와의 연관 관계를 나타내는 스파스 배열(sparse array)을 계산한다. The sparse
객체 판별부(260)는 스파스 배열을 기초로 각 카테고리에서 추출된 제1 특징 벡터들 중 타겟 특징 벡터와 연관 관계가 가장 큰 제1 특징 벡터의 카테고리를 판별할 수 있다. 이에, 객체 판별부(260)는 타겟 이미지로부터 도출된 모든 타겟 특징 벡터의 각각으로부터 연관 관계가 가장 큰 것으로 도출된 제1 특징 벡터의 카테고리 및 스파스 배열을 기초로 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별하여, 타겟 이미지의 객체를 판별된 카테고리와 대응되는 이미지의 객체로 판별할 수 있다. The
한편 상술한 실시예가 포함하는 입력부(210), 변환 이미지 생성부(220), 특징점 추출부(230), 특징 벡터 추출부(240), 스파스 배열 계산부(250) 및 객체 판별부(260)는 이들의 기능을 수행하도록 프로그램된 명령어를 포함하는 메모리, 및 이들 명령어를 수행하는 마이크로프로세서를 포함하는 연산 장치에 의해 구현될 수 있다. The feature
도 3은 본 발명의 일 실시예에 따른 부분 이미지 기반 데이터베이스 생성 방법 및 부분 이미지 기반 객체 판별 방법의 전체적인 프로세스를 도식화한 개략도이다. 3 is a schematic diagram illustrating an overall process of a partial image-based database generation method and a partial image-based object classification method according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 따른 부분 이미지 기반 데이터베이스 생성 방법은 얼굴을 포함하는 복수의 이미지를 입력 받아, 입력 받은 이미지를 변환하여 복수의 변환 이미지를 생성하고, 변환 이미지들의 특징점을 기준으로 부분 이미지를 생성하여, 부분 이미지의 특징 벡터를 추출하여 입력받은 이미지에 대응되는 카테고리를 생성하고 추출한 특징 벡터를 카테고리에 매핑하여 저장함으로써 데이터베이스를 생성한다. Referring to FIG. 3, a partial image-based database generation method according to an embodiment of the present invention includes receiving a plurality of images including faces, converting a received image to generate a plurality of converted images, Generates a partial image corresponding to the input image, generates a category corresponding to the input image, and maps the extracted feature vector to a category and stores the partial database.
이에, 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 방법은 식별하기 위한 객체의 얼굴을 포함하는 타겟 이미지를 입력 받아, 입력 받은 이미지를 변환하여 복수의 변환 타겟 이미지를 생성하고, 변환 타겟 이미지들의 특징점을 기준으로 타겟 부분 이미지를 생성하여, 타겟 부분 이미지의 타겟 특징 벡터를 추출하여 데이터베이스에 저장된 특징 벡터들과 비교하여 스파스 배열을 계산함으로써 타겟 이미지의 객체를 판별할 수 있다. According to an aspect of the present invention, there is provided a partial image-based object discrimination method comprising: receiving a target image including a face of an object to be identified; transforming the input image to generate a plurality of transformation target images; A target portion image of the target portion image is extracted based on the feature points of the target portion image, and the target feature vector of the target portion image is extracted and compared with the feature vectors stored in the database to calculate the sparse array.
이에, 도 4 및 도 5와 함께 각 단계를 보다 구체적으로 살펴보기로 한다. 4 and 5, each step will be described in more detail.
도 4는 본 발명의 일 실시예에 따른 부분 이미지 기반 데이터베이스 생성 방법의 프로세스를 도시하는 흐름도이다. 도 4에 따른 부분 이미지 기반 데이터베이스 생성 방법의 각 단계는 도 1을 통해 설명된 부분 이미지 기반 데이터베이스 생성 장치(100)에 의해 수행될 수 있으며, 각 단계를 설명하면 다음과 같다.4 is a flowchart illustrating a process of a partial image-based database generation method according to an embodiment of the present invention. Each step of the partial image-based database generation method according to FIG. 4 can be performed by the partial image-based
우선, 입력부(110)는 이미지를 입력 받는다(S410). 이때 입력 받는 이미지는 객체의 식별을 목적으로 입력되는 타겟 이미지를 식별하기 위한 대조군 이미지로서 인물의 얼굴을 포함한다. 예를 들어, 입력 받는 이미지는 인물의 정면 이미지를 찍은 사진일 수 있다.First, the
다음으로, 변환 이미지 생성부(120)는 이미지의 기울기 또는 스케일을 여러 가지로 변환하여 얻어지는 변환 이미지를 생성한다(S420). 도 6을 참조하면, 변환 이미지 생성부(120)는 입력 받은 이미지의 가로 기울기 또는 세로 기울기를 변환하거나, 가로/세로 스케일을 변환할 수 있다. Next, the transformed
이를 위해, 변환 이미지 생성부(120)는 아래 수학식 1의 affine simulation을 이용하여 변환 이미지를 생성할 수 있다. For this, the transformed
(는 입력받은 이미지의 좌표, T는 입력받은 이미지를 변환하기 위한 행렬, 는 변환 이미지의 좌표)( T is a matrix for transforming the input image, The coordinates of the transformed image)
이때 수학식 1의 는At this time, The
로 구성될 수 있으며, 및 은 각각 입력 받은 이미지의 가로 기울기 및 세로 기울기의 변환 정도를 나타내며, 는 x축 또는 y축 방향으로의 스케일링 정도를 나타내는 행렬이고, 이때 수학식 1의 t는 가로축을 기준으로 이미지의 변형된 기울기로 이며, 는 의 기울기에 따라 변환된 각도로 이다. , ≪ / RTI > And Represents the degree of horizontal slope and vertical slope of the input image, respectively, Is a matrix representing the degree of scaling in the x-axis or y-axis direction, where t in Equation (1) is the transformed slope of the image Lt; The At a converted angle according to the slope of to be.
또한 affine simulation을 컴퓨터로 구현 가능한 코드의 형식으로 나타내면 아래 표 1과 같다. Table 1 shows the affine simulation in the form of computer-executable code.
이후, 특징점 추출부(130)는 변환 이미지로부터 특징점을 추출할 수 있다(S430). 도 7에 도시된 바와 같이, 특징점 추출부(130)는 하나의 변환 이미지로부터 하나 이상의 특징점을 추출할 수 있다. 이때 특징점을 추출하기 위해 harris corner detector를 이용할 수 있다. Then, the feature
이에, 특징 벡터 추출부(140)는 도 7에 도시된 바와 같이 특징점 추출부(130)가 추출한 특징점을 기준으로 소정 크기의 부분 이미지를 생성할 수 있다(S440). 객체의 얼굴 일부가 가리어져 있거나, 표정에 따라 얼굴 텍스처의 변형이 발생하는 경우 얼굴 전체 이미지의 특징 벡터의 변화량은 크지만, 부분 이미지는 전체 얼굴의 특징점을 기준으로 분할하여 만들어진 이미지이기 때문에, 객체의 얼굴 일부가 가리어져 있거나 표정에 따라 얼굴 텍스처의 변형이 발생하더라도 부분 이미지의 특징 벡터는 변화량이 거의 없다는 장점이 있어, 부분 이미지를 기준으로 객체를 식별하기 용이하다는 효과가 있다. The feature
이때 특징 벡터 추출부(140)는 도 7에 도시된 바와 같이 부분 이미지로부터 특징 벡터를 추출할 수 있다(S450). 이를 위해, 특징 벡터 추출부(140)는 intensity value, LBP(local binary pattern) 및 HOG(histogram of oriented gradient) 등의 알고리즘을 통하여 특징 벡터를 추출할 수 있다. At this time, the feature
다음으로, 매핑부(150)는 입력 받은 이미지와 대응하는 카테고리를 생성하고, 입력 받은 이미지로부터 추출된 특징 벡터를 카테고리와 매핑하여 저장할 수 있다(S460).Next, the
예를 들어, 매핑부(150)는 입력 받은 이미지가 c개인 경우, 입력받은 이미지와 대응되는 c개의 카테고리 를 생성하고, c개의 이미지 중 j번째 입력받은 이미지로부터 추출된 j번째 특징 벡터들을 카테고리와 매핑하여 저장할 수 있다. 즉, j번째 카테고리 에는 j번째 이미지로부터 추출된 개의 j번째 특징 벡터들이 매핑되어 있다. For example, if the input image has a size of c, the
도 5는 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 방법의 프로세스를 도시하는 흐름도이다. 도 5는 본 발명의 일 실시예에 따른 부분 이미지 기반 객체 판별 방법을 설명하기 위한 도면이다. 도 5에 따른 부분 이미지 기반 객체 판별 방법의 각 단계는 도 2를 통해 설명된 부분 이미지 기반 객체 판별 장치(200)에 의해 수행될 수 있으며, 각 단계를 설명하면 다음과 같다.5 is a flowchart illustrating a process of a partial image-based object determination method according to an embodiment of the present invention. 5 is a view for explaining a partial image-based object discrimination method according to an embodiment of the present invention. Each step of the partial image-based object discrimination method according to FIG. 5 can be performed by the partial image-based
우선, 입력부(210)는 타겟 이미지를 입력 받는다(S510). 타겟 이미지는 판별하기 위한 객체의 얼굴을 포함하는 이미지로서 이미지의 조건에 대한 제한이 없다. 예를 들어, 타겟 이미지는 판별하기 위한 객체의 얼굴 일부가 가리어진 이미지, 표정에 의하여 얼굴 텍스처가 변형된 이미지 또는 하나의 이미지 안에 다수의 인물들이 포함된 이미지일 수 있다.First, the
다음으로, 변환 이미지 생성부(220)는 타겟 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환한 변환 타겟 이미지를 생성한다(S520). 이후, 특징점 추출부(230)는 변환 타겟 이미지로부터 타겟 특징점을 추출할 수 있다(S530). 이에, 특징 벡터 추출부(240)는 특징점 추출부(230)가 추출한 타겟 특징점을 기준으로 소정 크기의 타겟 부분 이미지를 생성할 수 있다(S540). 이후, 특징 벡터 추출부(240)는 타겟 부분 이미지로부터 타겟 특징 벡터를 추출할 수 있다(S550). 이때 S520, S530, S540, S550 단계의 구체적 과정은 도 4와 함께 설명된 S420, S430, S440, S450 단계의 과정과 동일하므로 중복된 설명은 생략한다. Next, the transformed
한편, S550 단계에서 타겟 이미지로부터 생성된 타겟 부분 이미지가 n개인 경우 타겟 특징 벡터 또한 n개이므로, n개의 타겟 특징 벡터()들로 이루어진 집합을 와 같이 표현할 수 있다. On the other hand, if the target partial image generated from the target image is n in step S550, the target feature vector is also n, so that n target feature vectors ), Can be expressed as
다음으로, 특징 벡터 추출부(240)는 부분 이미지 기반 데이터베이스 생성 장치에 의해 생성된 데이터베이스에 저장되어 있는 카테고리마다 각 카테고리의 특징 벡터 중 타겟 특징 벡터와 거리가 가장 가까운 제1 특징 벡터를 추출할 수 있다(S560).Next, the feature
즉, 데이터베이스에 저장된 c개의 카테고리 중 j번째 카테고리 에는 와 같이 j번째 특징 벡터들이 매핑되어 있다고 할 때, 데이터베이스에 저장되어 있는 카테고리 마다 각 카테고리의 특징 벡터 중 각 타겟 특징 벡터 와 거리가 가장 가까운 제1 특징 벡터를 추출하여, 타겟 특징 벡터 별로 추출된 제1 특징 벡터들의 집합을 로 표현할 수 있으며, 이때 의 원소 는 타겟 특징 벡터 에 대응하여 추출된 제1 특징 벡터들로 구성되어 있다. That is, c categories stored in the database The jth category There And the jth feature vectors are mapped as shown in FIG. Each target characteristic vector among the characteristic vectors of each category The first feature vector having the closest distance to the target feature vector is extracted, Can be expressed as Element of ≪ / RTI > The first feature vectors extracted corresponding to the first feature vectors.
이때 특징 벡터 추출부(240)는 아래 수학식 2와 같이 1-NN(1-nearest neighbor)를 통해 각 타겟 특징 벡터 마다 데이터베이스의 각 카테고리 에서 타겟 특징 벡터()와 거리가 가장 가까운 제1 특징 벡터()를 추출할 수 있다. At this time, the feature
(는 i번째 타겟 특징 벡터,는 j번째 카테고리에 매핑되어 있는 특징 벡터 중 h번째 특징 벡터, 는 j 번째 카테고리에 매핑되어 있는 특징 벡터 중 와 거리가 가장 가까운 제1 특징 벡터)( Is an i-th target feature vector, Is the h-th feature vector among the feature vectors mapped to the j-th category, Of the feature vectors mapped to the j-th category And the closest first feature vector)
이에, 스파스 배열 계산부(250)는 도 8과 같이 타겟 특징 벡터와 각 카테고리에서 추출된 제1 특징 벡터들과의 연관 관계를 나타내는 스파스 배열을 계산한다.8, the sparse
예를 들어, 스파스 배열은 아래 수학식 3을 만족하는 배열 일 수 있다. For example, the sparse array may be an array Lt; / RTI >
(는 i번째 타겟 특징 벡터, 는 각 카테고리 마다 추출된 i번째 타겟 특징 벡터와 거리가 가장 가까운 제1 특징 벡터들의 집합, 은 소정의 오차)( Is an i-th target feature vector, Is a set of first feature vectors having a distance closest to the i-th target feature vector extracted for each category, Is a predetermined error)
즉, 스파스 배열은 를 소정의 오차 정도로 벡터와 유사해지도록 하는 숫자들의 집합으로 구성되어 있다. That is, To a predetermined error About It consists of a set of numbers that are similar to a vector.
또한 수학식 3을 만족하는 스파스 배열 중 아래 수학식 4와 같이 l1-minimization 을 이용하여 크기가 가장 작은 스파스 배열 을 계산할 수 있다. Also, a sparse array satisfying expression (3) The smallest sparse array is obtained by using l1-minimization as shown in the following equation (4) Can be calculated.
(는 수학식 3의 와 으로부터 추출된 스파스 배열) ( (3) Wow Lt; RTI ID = 0.0 >
이후, 객체 판별부(260)는 스파스 배열을 기초로 각 카테고리 에서 추출된 제1 특징 벡터들 중 타겟 특징 벡터 ()와 연관 관계가 가장 큰 제1 특징 벡터의 카테고리를 판별할 수 있다(S580). Thereafter, the
예를 들어 아래 수학식 5와 같이, 를 이루는 벡터 중 와 가장 유사한 벡터를 를 통해 판별할 수 있다. 따라서 위 수학식 5를 통해 판별된 j는 타겟 특징 벡터 와 연관 관계가 가장 큰 제1 특징 벡터의 카테고리를 의미한다. For example, as shown in Equation (5) below, Of the vector The vector most similar to . ≪ / RTI > Therefore, j determined through Equation (5) And the category of the first feature vector having the largest correlation.
(는 상기 타겟 특징 벡터, 는 제1 특징 벡터들의 집합, 는 상기 스파스 배열, 는 스파스 배열()의 j번째 원소 이외의 원소를 모두 0으로 만드는 함수, j는 j번째 카테고리의 식별자)( The target feature vector, Is a set of first feature vectors, Lt; RTI ID = 0.0 > Is a sparse array ( ), And j is an identifier of the j-th category)
이에, 객체 판별부(260)는 타겟 이미지로부터 도출된 모든 타겟 특징 벡터의 각각 로부터 연관 관계가 가장 큰 것으로 도출된 제1 특징 벡터의 카테고리 및 스파스 배열을 기초로 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별할 수 있다(S590).Accordingly, the
한편, n개의 타겟 특징 벡터 로부터 각각 연관 관계가 가장 큰 것으로 도출된 제1 특징 벡터의 카테고리 j는 예를 들어, 와 같이 n개의 타겟 특징 벡터마다 다를 수 있다. On the other hand, n target characteristic vectors The category j of the first feature vector, which is derived from the largest correlation among the categories j, The target feature vector may be different for each of the n target feature vectors.
이때 객체 판별부(260)는 타겟 특징 벡터와 대응하는 스파스 배열의 원소들의 값이 밀집된 정도를 나타내는 수치를 계산한다. 스파스 배열의 원소들의 값이 밀집되어 있을수록 해당 S580 단계에서 도출된 제1 특징 벡터가 연관 정도가 큰 것을 의미하기 때문이다. At this time, the
이를 위해, 객체 판별부(260)는 아래 수학식 6을 통해 스파스 배열의 원소들의 값이 밀집된 정도를 구할 수 있다. For this, the
(는 i번째 타겟 특징 벡터에 대응되는 스파스 배열, 는 스파스 배열()의 j번째 원소 이외의 원소를 모두 0으로 만드는 함수, j는 j번째 카테고리의 식별자, c는 상기 데이터베이스의 카테고리의 수)( Is a sparse array corresponding to the i-th target feature vector, Is a sparse array ( ), J is an identifier of the j-th category, and c is the number of categories of the database)
이에, 객체 판별부(260)는 판별된 카테고리마다 수학식 6을 통해 도출된 수치를 부여하고, 각 카테고리 중 위 수치가 가장 높은 카테고리를 타겟 이미지와 연관 관계가 가장 큰 카테고리로 판별할 수 있다. Accordingly, the
예를 들어, 5개의 타겟 특징 벡터 로부터 각각 연관 관계가 가장 큰 것으로 도출된 제1 특징 벡터의 카테고리가 과 같은 경우, 각 타겟 특징 벡터에 대응되는 SCI 점수가 와 같다면, 카테고리 1에 부여된 점수는 0.4 + 0.1 + 0.1 = 0.6점이고, 카테고리 2에 부여된 점수는 0.8 + 0.9 =1.7로 카테고리 2를 최종적으로 타겟 이미지와 연관 관계가 가장 큰 카테고리로 판별할 수 있다. For example, five target feature vectors The category of the first feature vector, , The SCI score corresponding to each target feature vector is , The score assigned to category 1 is 0.4 + 0.1 + 0.1 = 0.6, and the score assigned to
이에, 객체 판별부(260)는 타겟 이미지의 객체를 상기 판별된 카테고리와 대응되는 이미지의 객체로 판별할 수 있다(S599). 즉, 최종적으로 카테고리 2가 타겟 이미지와 연관 관계가 가장 큰 카테고리로 판별된 경우, 카테고리 2에 저장된 이미지의 인물을 타겟 이미지의 인물과 동일한 것으로 결정한다.Accordingly, the
상술한 실시예에 따르면, 본 발명은 얼굴의 부분적 특징은 변하지 않는다는 점에 착안하여, 얼굴 이미지의 특징점을 기준으로 부분 이미지를 생성하고 다른 부분 이미지들과 비교함으로써, 얼굴이 일부가 가리워지거나 표정에 따라 얼굴 텍스처가 변형된 이미지에서도 객체를 판별할 수 있게 한다. According to the above-described embodiment, the present invention is based on the fact that the partial features of the face are not changed, so that a partial image is generated based on the feature points of the face image and compared with other partial images, This makes it possible to discriminate the object even in the image in which the face texture is deformed.
상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described embodiments of the present invention can be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention may be implemented in one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs) , FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, and the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure or a function for performing the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
100: 부분 이미지 기반 데이터베이스 생성 장치
200: 부분 이미지 기반 객체 판별 장치
110, 210: 입력부
120, 220: 변환 이미지 생성부
130, 230: 특징점 추출부
140, 240: 특징 벡터 추출부
150: 매핑부
250: 스파스 배열 계산부
260: 객체 판별부 100: Partial image-based database creation device
200: Partial image-based object discriminator
110, 210:
120, and 220:
130, and 230:
140, 240: a feature vector extracting unit
150:
250: Sparse array calculation unit
260:
Claims (14)
상기 복수의 이미지들 중 제1 이미지를 입력 받는 단계;
상기 제1 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 각각 서로 다른 기울기 또는 스케일을 갖는 복수의 변환 이미지들을 생성하는 단계;
상기 복수의 변환 이미지들 각각으로부터 복수의 특징점들을 추출하는 단계;
상기 복수의 특징점들 각각을 포함하는 소정 크기의 복수의 부분 이미지들을 생성하고, 상기 복수의 부분 이미지들 각각에 대한 특징 벡터를 각각 추출하는 단계; 및
상기 제1이미지와 대응하는 카테고리를 생성하고, 상기 추출된 상기 부분 이미지들 각각에 대한 특징 벡터를 상기 카테고리와 매핑하여 저장하는 단계를 포함하되, 상기 입력받는 단계, 상기 생성하는 단계, 상기 복수의 특징점들을 추출하는 단계, 상기 특징 벡터를 각각 추출하는 단계 및 상기 저장하는 단계를 상기 복수의 이미지들 모두에 대해 반복 수행하는
부분 이미지 기반의 데이터베이스 생성 방법.
A method of generating a partial image-based database using a plurality of images,
Receiving a first image of the plurality of images;
Converting a slope or a scale of the first image into a predetermined size to generate a plurality of transformed images each having a different slope or scale;
Extracting a plurality of feature points from each of the plurality of transformed images;
Generating a plurality of partial images of a predetermined size including each of the plurality of feature points, and extracting a feature vector for each of the plurality of partial images; And
Generating a category corresponding to the first image, and mapping and storing a feature vector for each of the extracted partial images with the category, wherein the step of receiving, the step of generating, Extracting the feature vectors, and repeating the storing step for all of the plurality of images
A method of generating a partial image based database.
복수의 이미지들 중 제1 이미지를 상기 타겟 이미지로서 입력 받는 단계;
상기 타겟 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 각각 서로 다른 기울기 또는 스케일을 갖는 복수의 변환 타겟 이미지들을 생성하는 단계;
상기 복수의 변환 타겟 이미지들 각각으로부터 복수의 타겟 특징점들을 추출하는 단계;
상기 복수의 타겟 특징점들을 각각 포함하는 소정 크기의 복수의 타겟 부분 이미지들을 생성하고, 상기 복수의 타겟 부분 이미지들 각각의 타겟 특징 벡터를 추출하는 단계;
상기 추출된 상기 복수의 타겟 부분 이미지들 각각의 타겟 특징 벡터에 대하여, 상기 데이터베이스 내에 포함된 복수의 카테고리들 각각에서, 상기 복수의 카테고리들 각각에 매핑된 복수의 특징 벡터들 중 상기 각각의 타겟 특징 벡터와 거리가 가장 가까운 특징 벡터를 추출하는 단계, -상기 복수의 카테고리들 각각은 상기 데이터베이스에 저장되어 있으며, 상기 복수의 이미지들은 상기 복수의 카테고리들 중 하나에 각각 대응됨-; 및
상기 복수의 카테고리들 각각에서 추출된 복수의 특징 벡터들을 이용하여 상기 타겟 이미지의 객체를 판별하는 단계를 포함하는
객체 판별 방법.
A method of determining an object in a target image using a database,
Receiving a first one of the plurality of images as the target image;
Converting a slope or a scale of the target image into a predetermined size to generate a plurality of conversion target images each having a different slope or scale;
Extracting a plurality of target feature points from each of the plurality of conversion target images;
Generating a plurality of target portion images of a predetermined size each including the plurality of target feature points and extracting a target feature vector of each of the plurality of target portion images;
For each of the plurality of target images of the extracted plurality of target partial images, in each of a plurality of categories included in the database, the target feature vector of each of the plurality of feature vectors mapped to each of the plurality of categories Extracting a feature vector closest to the vector, each of the plurality of categories being stored in the database, the plurality of images each corresponding to one of the plurality of categories; And
And determining an object of the target image using a plurality of feature vectors extracted from each of the plurality of categories
Object identification method.
상기 각각의 타겟 특징 벡터와 상기 각각의 타겟 특징 벡터로부터 추출된 복수의 특징 벡터들과의 연관 관계를 나타내는 스파스 배열(sparse array)를 계산하는 단계;
상기 스파스 배열을 기초로 상기 추출된 복수의 특징 벡터들 중 상기 각각의 타겟 특징 벡터와 연관 관계가 가장 큰 특징 벡터의 카테고리를 판별하는 단계;
상기 판별된 카테고리 및 상기 스파스 배열 각각을 기초로 상기 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별하는 단계; 및
상기 타겟 이미지의 객체를 상기 판별된 카테고리와 대응되는 이미지의 객체로 판별하는 단계를 포함하는
객체 판별 방법.
3. The method of claim 2, wherein the determining the object of the target image comprises:
Calculating a sparse array representing a relationship between each of the target feature vectors and a plurality of feature vectors extracted from the respective target feature vectors;
Determining a category of a feature vector having the largest correlation with each of the plurality of extracted feature vectors based on the sparse array;
Determining a category having the largest correlation with the target image based on the determined category and the sparse arrangement, respectively; And
And discriminating an object of the target image as an object of an image corresponding to the discriminated category
Object identification method.
상기 복수의 변환 타겟 이미지들을 생성하는 단계는, affine simulation을 사용하여 상기 타겟 이미지의 가로 기울기, 세로 기울기 또는 스케일을 변환하는 단계를 포함하고, 및
상기 타겟 특징점을 추출하는 단계는, harris corner detector를 이용하여 상기 타겟 특징점을 추출하는 단계를 포함하는
객체 판별 방법.
3. The method of claim 2,
Wherein the step of generating the plurality of transformation target images comprises transforming a horizontal slope, a vertical slope, or a scale of the target image using an affine simulation, and
Wherein the extracting of the target feature points comprises extracting the target feature points using a harris corner detector
Object identification method.
상기 타겟 특징 벡터를 추출하는 단계는,
intensity value, LBP(local binary pattern) 및 HOG(histogram of oriented gradient) 중 적어도 하나를 사용하여 상기 타겟 특징 벡터를 추출하는 단계를 포함하는
객체 판별 방법.
3. The method of claim 2,
Wherein the extracting of the target feature vector comprises:
extracting the target feature vector using at least one of an intensity value, a local binary pattern (LBP), and a histogram of oriented gradient (HOG)
Object identification method.
상기 각각의 타겟 특징 벡터와 거리가 가장 가까운 특징 벡터를 상기 복수의 카테고리들 각각에서 추출하는 단계는,
1-NN(1-nearest neighbor)을 이용하여 상기 복수의 카테고리들 각각에 매핑된 복수의 특징 벡터들과 상기 복수의 타겟 부분 이미지들 각각의 타겟 특징 벡터와의 거리를 계산하는 단계를 포함하는
객체 판별 방법.
The method of claim 3,
Wherein extracting, in each of the plurality of categories, a feature vector having a distance closest to the respective target feature vectors,
Calculating a distance between a plurality of feature vectors mapped to each of the plurality of categories and a target feature vector of each of the plurality of target partial images using 1-nearest neighbor (NN)
Object identification method.
상기 스파스 배열을 계산하는 단계는,
[수학식 1]
(는 i번째 타겟 특징 벡터, 는 각 카테고리 마다 추출된 i번째 타겟 특징 벡터와 거리가 가장 가까운 특징 벡터들의 집합, 은 소정의 오차)
을 만족하는 벡터() 중
[수학식 2]
( 는 상기 [수학식 1]을 만족하는 )
에 따라 크기가 가장 작은 벡터()를 상기 스파스 배열로 계산하는 단계를 포함하는
객체 판별 방법.
The method of claim 3,
Wherein the calculating the sparse array comprises:
[Equation 1]
( Is an i-th target feature vector, Is a set of feature vectors having a distance closest to the i-th target feature vector extracted for each category, Is a predetermined error)
( ) Of
&Quot; (2) "
( Satisfies the above-described expression (1) )
The smallest vector ( ) To the sparse array
Object identification method.
상기 카테고리를 판별하는 단계는,
[수학식 3]
(는 상기 타겟 특징 벡터, 는 상기 각각의 타겟 특징 벡터와 거리가 가장 가까운 특징 벡터들의 집합, 는 상기 스파스 배열, 는 상기 스파스 배열()의 j번째 원소 이외의 원소를 모두 0으로 만드는 함수, j는 j번째 카테고리의 식별자)
을 만족하는 j번째 카테고리를 상기 타겟 특징 벡터()와 연관 관계가 가장 큰 카테고리로 판별하는 단계를 포함하는
객체 판별 방법.
The method of claim 3,
Wherein the step of determining the category comprises:
&Quot; (3) "
( The target feature vector, Is a set of feature vectors that are closest in distance to the respective target feature vectors, Lt; RTI ID = 0.0 > Lt; RTI ID = 0.0 > ), And j is an identifier of the j-th category)
J < / RTI > category that satisfies < RTI ID = 0.0 & ) And the category having the largest correlation with the category
Object identification method.
상기 타겟 이미지와 연관 관계가 가장 큰 카테고리를 판별하는 단계는,
상기 타겟 특징 벡터와 대응하는 상기 스파스 배열의 원소들의 값이 밀집된 정도를 나타내는 수치를 계산하는 단계; 및
상기 판별된 카테고리마다 상기 수치를 부여하고, 상기 수치의 합이 가장 높은 카테고리를 상기 타겟 이미지와 연관 관계가 가장 큰 카테고리로 판별하는 단계를 포함하는
객체 판별 방법.
The method of claim 3,
Wherein the step of determining the category having the largest correlation with the target image comprises:
Calculating a numerical value indicating the degree of densification of the values of the elements of the sparse array corresponding to the target feature vector; And
Assigning the numerical value to each of the discriminated categories, and discriminating the category having the highest sum of the numerical values as a category having the largest correlation with the target image
Object identification method.
상기 스파스 배열의 원소들의 값이 밀집된 정도를 나타내는 수치는,
[수학식 4]
(는 i번째 타겟 특징 벡터에 대응되는 스파스 배열, 는 상기 스파스 배열()의 j번째 원소 이외의 원소를 모두 0으로 만드는 함수, j는 j번째 카테고리의 식별자, c는 상기 데이터베이스의 카테고리의 수)
에 의해 산출되는
객체 판별 방법.
10. The method of claim 9,
The numerical value indicating the degree of densification of the values of the elements of the sparse array,
&Quot; (4) "
( Is a sparse array corresponding to the i-th target feature vector, Lt; RTI ID = 0.0 > ), J is an identifier of the j-th category, and c is the number of categories of the database)
Calculated by
Object identification method.
상기 메모리와 동작 가능하게 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
상기 복수의 이미지들 중 제1 이미지를 입력 받고,
상기 제1 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 각각 서로 다른 기울기 또는 스케일을 갖는 복수의 변환 이미지들을 생성하고,
상기 복수의 변환 이미지들 각각으로부터 복수의 특징점들을 추출하고,상기 복수의 특징점들을 각각 포함하는 소정 크기의 복수의부분 이미지들을 생성하고, 상기 복수의 부분 이미지들 각각의 특징 벡터를 추출하고, 및
상기 제1 이미지와 대응하는 카테고리를 생성하고, 상기 추출된 상기 복수의 부분 이미지들 각각에 대한 특징 벡터를 상기 카테고리와 매핑하여 저장하되, 상기 제1 이미지를 입력받고, 상기 복수의 변환 이미지들을 생성하고, 상기 복수의 특징점들을 추출하고, 상기 특징 벡터를 각각 추출하고 상기 매핑하여 저장하는 것을 상기 복수의 이미지들 모두에 대해 반복 수행하기 위해 상기 저장된 명령어들을 실행하도록 설정되는
부분 이미지 기반의 데이터베이스 생성 장치.
An apparatus for generating a partial image-based database using a plurality of images, the apparatus comprising: a memory for storing instructions; And
And at least one processor operably coupled to the memory,
Receiving a first image of the plurality of images,
Converting a slope or a scale of the first image into a predetermined size to generate a plurality of transformed images having different slopes or scales,
Extracting a plurality of feature points from each of the plurality of transformed images, generating a plurality of partial images of a predetermined size each including the plurality of feature points, extracting a feature vector of each of the plurality of partial images, and
And generating a plurality of transformed images by generating a plurality of transformed images, generating a category corresponding to the first image, storing a feature vector for each of the plurality of extracted partial images with the category, Extracting the plurality of feature points, extracting each of the feature vectors, and mapping and storing the feature vectors to execute the stored instructions to perform repetition on all of the plurality of images
A partial image based database generation device.
명령어들을 저장하는 메모리; 및
상기 메모리와 동작 가능하게 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
복수의 이미지들 중 제1 이미지를 상기 타겟 이미지로서 입력받고,
상기 타겟 이미지의 기울기 또는 스케일을 기 설정된 크기로 변환하여 각각 서로 다른 기울기 또는 스케일을 갖는 복수의 변환 타겟 이미지들을 생성하고,
상기 복수의 변환 타겟 이미지들 각각으로부터 복수의 타겟 특징점들을 추출하고,
상기 복수의 타겟 특징점들을 각각 포함하는 소정 크기의 복수의 타겟 부분 이미지들을 생성하고, 상기 복수의 타겟 부분 이미지들 각각의 타겟 특징 벡터를 추출하고,
상기 추출된 상기 복수의 타겟 부분 이미지들 각각의 타겟 특징 벡터에 대하여, 상기 데이터베이스 내에 포함된 복수의 카테고리들 각각에서, 상기 복수의 카테고리들 각각에 매핑된 복수의 특징 벡터들 중 상기 각각의 타겟 특징 벡터와 거리가 가장 가까운 특징 벡터를 추출하고, -상기 복수의 카테고리들 각각은 상기 타겟 이미지의 객체를 판별하기 위해 상기 데이터베이스에 저장되어 있으며, 상기 복수의 이미지들은 상기 복수의 카테고리들 중 하나에 각각 대응됨-, 및
상기 복수의 카테고리들 각각에서 추출된 복수의 특징 벡터들을 이용하여 상기 타겟 이미지의 객체를 판별하기 위해 상기 저장된 명령어들을 실행하도록 설정되는
객체 판별 장치.
An apparatus for determining an object in a target image using a database,
A memory for storing instructions; And
And at least one processor operably coupled to the memory,
Receiving a first one of the plurality of images as the target image,
Converting a slope or a scale of the target image into a predetermined size to generate a plurality of conversion target images having different slopes or scales,
Extracting a plurality of target feature points from each of the plurality of conversion target images,
Generating a plurality of target portion images of a predetermined size each including the plurality of target feature points, extracting a target feature vector of each of the plurality of target portion images,
For each of the plurality of target images of the extracted plurality of target partial images, in each of a plurality of categories included in the database, the target feature vector of each of the plurality of feature vectors mapped to each of the plurality of categories Extracting a feature vector that is closest to the vector, and ??? each of the plurality of categories is stored in the database for determining an object of the target image, and the plurality of images are stored in one of the plurality of categories Corresponding -, and
And to execute the stored instructions to determine an object of the target image using a plurality of feature vectors extracted from each of the plurality of categories
Object discrimination device.
A program stored in a computer-readable medium for causing a processor to perform the method of any one of claims 2 to 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170009273A KR101884874B1 (en) | 2017-01-19 | 2017-01-19 | Method and apparatus for distinguishing object based on partial image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170009273A KR101884874B1 (en) | 2017-01-19 | 2017-01-19 | Method and apparatus for distinguishing object based on partial image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180085565A KR20180085565A (en) | 2018-07-27 |
KR101884874B1 true KR101884874B1 (en) | 2018-08-03 |
Family
ID=63078471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170009273A KR101884874B1 (en) | 2017-01-19 | 2017-01-19 | Method and apparatus for distinguishing object based on partial image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101884874B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102113756B1 (en) * | 2018-12-20 | 2020-05-21 | 주식회사 디알엠인사이드 | System and method for identifying online comics based on region of interest |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016042346A (en) * | 2014-08-18 | 2016-03-31 | 富士ゼロックス株式会社 | Method, system, and program for determining social type of person |
-
2017
- 2017-01-19 KR KR1020170009273A patent/KR101884874B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016042346A (en) * | 2014-08-18 | 2016-03-31 | 富士ゼロックス株式会社 | Method, system, and program for determining social type of person |
Non-Patent Citations (1)
Title |
---|
동일발명자논문* |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102113756B1 (en) * | 2018-12-20 | 2020-05-21 | 주식회사 디알엠인사이드 | System and method for identifying online comics based on region of interest |
Also Published As
Publication number | Publication date |
---|---|
KR20180085565A (en) | 2018-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Elmahmudi et al. | Deep face recognition using imperfect facial data | |
Yoon et al. | Hand gesture recognition using combined features of location, angle and velocity | |
JP5010905B2 (en) | Face recognition device | |
Lin et al. | RSCM: Region selection and concurrency model for multi-class weather recognition | |
Xu et al. | Data uncertainty in face recognition | |
RU2427911C1 (en) | Method to detect faces on image using classifiers cascade | |
KR20170006355A (en) | Method of motion vector and feature vector based fake face detection and apparatus for the same | |
Anand et al. | An improved local binary patterns histograms techniques for face recognition for real time application | |
Vishwakarma et al. | An efficient interpretation of hand gestures to control smart interactive television | |
Paul et al. | Extraction of facial feature points using cumulative histogram | |
Yin et al. | A face anti-spoofing method based on optical flow field | |
Haji et al. | Real time face recognition system (RTFRS) | |
CN109145704B (en) | Face portrait recognition method based on face attributes | |
Swamy et al. | Indian sign language interpreter with android implementation | |
Alghamdi et al. | Automated person identification framework based on fingernails and dorsal knuckle patterns | |
KR101884874B1 (en) | Method and apparatus for distinguishing object based on partial image | |
Fachrurrozi et al. | Real-time multi-object face recognition using content based image retrieval (CBIR) | |
Curran et al. | The use of neural networks in real-time face detection | |
Bulugu et al. | Higher-order local autocorrelation feature extraction methodology for hand gestures recognition | |
Elsayed et al. | Hybrid method based on multi-feature descriptor for static sign language recognition | |
Suzuki et al. | Illumination-invariant face identification using edge-based feature vectors in pseudo-2D Hidden Markov Models | |
Bingöl et al. | Facial action unit intensity estimation using rotation invariant features and regression analysis | |
Joshi et al. | CFS-InfoGain based Combined Shape-based Feature Vector for Signer Independent ISL Database | |
Singh et al. | Off-Line signature verification using sub uniform local binary patterns and support vector machine | |
Mahbub et al. | One-shot-learning gesture recognition using motion history based gesture silhouettes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |