KR101150944B1 - Apparatus and Method of searching for target based on matching possibility - Google Patents

Apparatus and Method of searching for target based on matching possibility Download PDF

Info

Publication number
KR101150944B1
KR101150944B1 KR1020100111181A KR20100111181A KR101150944B1 KR 101150944 B1 KR101150944 B1 KR 101150944B1 KR 1020100111181 A KR1020100111181 A KR 1020100111181A KR 20100111181 A KR20100111181 A KR 20100111181A KR 101150944 B1 KR101150944 B1 KR 101150944B1
Authority
KR
South Korea
Prior art keywords
target
user
image
shape
matching
Prior art date
Application number
KR1020100111181A
Other languages
Korean (ko)
Other versions
KR20120049761A (en
Inventor
유은정
김양웅
Original Assignee
김양웅
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김양웅 filed Critical 김양웅
Priority to KR1020100111181A priority Critical patent/KR101150944B1/en
Publication of KR20120049761A publication Critical patent/KR20120049761A/en
Application granted granted Critical
Publication of KR101150944B1 publication Critical patent/KR101150944B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

매칭 가능성에 기반한 타겟 탐색 장치, 그 방법, 및 그 기록매체가 개시된다. 본 발명의 일 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 장치는 제1사용자가 원하는 타겟의 얼굴 형태 및 체형이 저장된 타겟정보 데이터베이스; 상기 타겟의 얼굴 형태과 체형 간의 우선순위 정보를 입력받는 입력수단; 제2사용자의 영상을 입력받는 카메라; 상기 제2사용자의 영상을 전처리하여, 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 상기 제2사용자의 영상에서 상기 제2사용자의 팔, 다리, 몸에 해당하는 영역을 구분하는 전처리기; 상기 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하고, 상기 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류한 후 상기 타겟정보 데이터베이스에 저장된 타겟 체형과 비교하여 제1유사도를 산출하는 유사판단부; 및 상기 우선순위 정보에 따라 가중치를 상기 상관계수 및 상기 제1유사도에 적용하여 타겟 매칭 지수를 산출하는 타겟매칭 판단부를 포함한다.A target search apparatus based on matching possibility, a method thereof, and a recording medium therefor are disclosed. A target searching apparatus based on matching possibility according to an embodiment of the present invention includes a target information database storing a face shape and a body shape of a target desired by a first user; Input means for receiving priority information between a face shape and a body shape of the target; A camera for receiving an image of a second user; A preprocessor for preprocessing an image of the second user to recognize only a facial part and then recognizing a facial shape and distinguishing an area corresponding to an arm, a leg, and a body of the second user from the image of the second user; Calculating a correlation coefficient by comparing with a target face shape stored in the target information database, measuring a head size in the image of the second user, calculating a ratio of each part of the body using the measured head size, A similarity determination unit for comparing the body shape of the target body shape with the target body shape stored in the target information database to calculate a first degree of similarity; And a target matching determination unit that calculates a target matching index by applying a weight to the correlation coefficient and the first similarity according to the priority information.

Description

매칭 가능성에 기반한 타겟 탐색 장치, 그 방법, 및 그 기록매체 {Apparatus and Method of searching for target based on matching possibility}Field of the Invention [0001] The present invention relates to a target searching apparatus based on matching possibility, a method thereof, and a recording medium thereof.

본 발명은 인물과 인물이 어울리는 정도를 측정하는 기술에 관한 것으로, 특히, 매칭 가능성에 기반한 타겟 탐색 장치, 그 방법, 및 그 기록매체에 관한 것이다.More particularly, the present invention relates to a target search apparatus based on matching possibility, a method thereof, and a recording medium therefor.

영상을 통한 인식의 중요성이 날로 증대되면서 사람의 얼굴을 이용한 기술들이 늘어가고 있다. 특히 얼굴 검출 및 얼굴 인식 기능은 생체 인식, 보안 시스템, 동영상 검색 등 여러 분야에서 사용된다. 얼굴 검출 기능에 대한 연구가 가장 활발한 분야는 디지털 카메라이다. 카메라의 경우 인물이 주요한 촬영대상이 된다는 특성에 맞춰 얼굴 검출 기능이 기본 기능이 되어가는 추세이다. 또한 웹에서도 얼굴을 찾고 인물의 얼굴 유사도를 이용한 이미지 검색 서비스가 강화되고 있다.As the importance of recognition through video is increasing day by day, technologies using human face are increasing. In particular, face detection and face recognition are used in various fields such as biometrics, security systems, and video search. The most active area for researching face detection function is digital camera. In the case of a camera, the face detection function is becoming a basic function in accordance with the characteristic that a person is a main object to be photographed. In addition, image retrieval service using the face similarity of the person is being strengthened.

모바일폰이나 스마트폰에는 기본적으로 디지털 카메라가 내장되는데, 기존에 웹 기반으로 제공되던 얼굴 검색 서비스가 모바일 환경에서도 구현되고 있다. 그러나, 기존의 얼굴 검색 서비스는 몇 가지 특징점에 기반하여 유사한 사진을 검색해주는 것에 불과하므로, 정확도가 떨어지고 그 활용도가 한정되어 있었다.Mobile phones and smart phones basically have built-in digital cameras. Facial search service, which was previously provided on the web, is also being implemented in the mobile environment. However, the conventional face search service only searches for similar photographs based on several feature points, so accuracy is low and its utilization is limited.

본 발명이 이루고자 하는 첫 번째 기술적 과제는 정확하고 빠른 영상 인식에 기초하여 촬영된 대상이 사용자가 원하는 인물인지 아닌지를 인물의 다양한 특성을 반영하여 사용자에게 알려줄 수 있는 매칭 가능성에 기반한 타겟 탐색 장치를 제공하는 데 있다.A first object of the present invention is to provide a target searching apparatus based on matching possibility that can inform a user of various characteristics of a person whether a photographed object is a person desired by a user based on accurate and fast image recognition I have to.

본 발명이 이루고자 하는 두 번째 기술적 과제는 상기의 매칭 가능성에 기반한 타겟 탐색 장치에 적용되는 매칭 가능성에 기반한 타겟 탐색 방법을 제공하는 데 있다.A second object of the present invention is to provide a target searching method based on the matching possibility applied to a target searching apparatus based on the matching possibility.

본 발명이 이루고자 하는 세 번째 기술적 과제는 상기의 매칭 가능성에 기반한 타겟 탐색 방법을 컴퓨터 시스템에서 실행하기 위한 프로그램이 기록된 매체로서, 컴퓨터 시스템이 판독할 수 있는 기록매체를 제공하는 데 있다.A third object of the present invention is to provide a recording medium readable by a computer system for recording a program for executing a target searching method based on the matching possibility in a computer system.

상기의 첫 번째 과제를 이루기 위하여, 본 발명의 일 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 장치는 제1사용자가 원하는 타겟의 얼굴 형태 및 체형이 저장된 타겟정보 데이터베이스; 상기 타겟의 얼굴 형태과 체형 간의 우선순위 정보를 입력받는 입력수단; 제2사용자의 영상을 입력받는 카메라; 상기 제2사용자의 영상을 전처리하여, 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 상기 제2사용자의 영상에서 상기 제2사용자의 팔, 다리, 몸에 해당하는 영역을 구분하는 전처리기; 상기 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하고, 상기 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류한 후 상기 타겟정보 데이터베이스에 저장된 타겟 체형과 비교하여 제1유사도를 산출하는 유사판단부; 및 상기 우선순위 정보에 따라 가중치를 상기 상관계수 및 상기 제1유사도에 적용하여 타겟 매칭 지수를 산출하는 타겟매칭 판단부를 포함한다.According to an aspect of the present invention, there is provided a target search apparatus based on matching possibility according to an embodiment of the present invention includes a target information database storing a face shape and a body shape of a target desired by a first user; Input means for receiving priority information between a face shape and a body shape of the target; A camera for receiving an image of a second user; A preprocessor for preprocessing an image of the second user to recognize only a facial part and then recognizing a facial shape and distinguishing an area corresponding to an arm, a leg, and a body of the second user from the image of the second user; Calculating a correlation coefficient by comparing with a target face shape stored in the target information database, measuring a head size in the image of the second user, calculating a ratio of each part of the body using the measured head size, A similarity determination unit for comparing the body shape of the target body shape with the target body shape stored in the target information database to calculate a first degree of similarity; And a target matching determination unit that calculates a target matching index by applying a weight to the correlation coefficient and the first similarity according to the priority information.

상기의 두 번째 과제를 이루기 위하여, 본 발명의 일 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 방법은 제1사용자가 원하는 타겟의 얼굴 형태 및, 체형 이 저장된 타겟정보 데이터베이스를 포함하는 단말에서, 상기 타겟의 얼굴 형태 및 체형 간의 우선순위 정보를 입력받는 단계; 제2사용자의 영상을 입력받는 단계; 상기 제2사용자의 영상을 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하는 단계; 상기 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류하고, 상기 타겟정보 데이터베이스에 저장된 타겟 체형과 비교하여 제1유사도를 산출하는 단계; 및 상기 우선순위 정보에 따라 가중치를 상기 상관계수 및, 상기 제1유사도에 적용하여 타겟 매칭 지수를 산출하는 단계를 포함한다.In order to achieve the second object, in a target search method based on matching possibility according to an embodiment of the present invention, in a terminal including a target information database storing a face shape and a body shape of a target desired by a first user, Receiving priority information of a face shape and a body shape of the body; Receiving an image of a second user; Calculating a correlation coefficient by comparing a face shape of the second user with a target face shape stored in a target information database; A head size is measured in the image of the second user, a ratio of each part of the body is calculated using the measured head size, a body type is classified according to the calculated ratio, and the body shape is compared with the target body type stored in the target information database. 1 < / RTI > And calculating a target matching index by applying a weight to the correlation coefficient and the first similarity according to the priority information.

본 발명의 실시 예들에 의하면, 정확하고 빠른 영상 인식에 기초하여 촬영된 대상이 사용자가 원하는 인물인지 아닌지를 인물의 다양한 특성을 반영하여 사용자에게 알려줄 수 있으므로, 이상형 찾기, 친구 찾기, 미아 찾기, 궁합 등에 응용될 수 있다.According to the embodiments of the present invention, since the photographed object can be informed to the user by reflecting various characteristics of the person whether the photographed object is the person desired by the user or not based on accurate and fast image recognition, And the like.

도 1a는 본 발명의 일 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 장치의 블록도이다.
도 1b 내지 도 1d는 도 1a에서 얼굴 형태를 인식하는 과정의 예를 도시한 것이다.
도 2는 본 발명의 다른 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 방법의 흐름도이다.
도 4는 본 발명의 다른 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 방법의 흐름도이다.
도 5는 도 4에서 데이터베이스를 구성하는 과정의 예를 도시한 것이다.
FIG. 1A is a block diagram of a target searching apparatus based on matching possibility according to an embodiment of the present invention.
FIGS. 1B to 1D show an example of a process of recognizing a face shape in FIG. 1A.
2 is a block diagram of a target searching apparatus based on matching possibility according to another embodiment of the present invention.
3 is a flow chart of a target searching method based on matching possibility according to an embodiment of the present invention.
4 is a flowchart of a target search method based on matching possibility according to another embodiment of the present invention.
FIG. 5 shows an example of a process of configuring a database in FIG.

이하에서는 도면을 참조하여 본 발명의 바람직한 실시 예를 설명하기로 한다. 그러나, 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다.Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. However, the following embodiments of the present invention may be modified into various other forms, and the scope of the present invention is not limited to the embodiments described below.

도 1a는 본 발명의 일 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 장치의 블록도이다. 도 1a의 타겟 탐색 장치는 모바일폰, 스마트폰, PDA, 노트북, 랩탑, 타겟 매칭 여부를 판단하도록 제작된 전용 단말 등 사용자 단말에 내장되는 것을 전제로 한다.FIG. 1A is a block diagram of a target searching apparatus based on matching possibility according to an embodiment of the present invention. The target searching apparatus of FIG. 1A is assumed to be embedded in a user terminal such as a mobile phone, a smart phone, a PDA, a notebook, a laptop, and a dedicated terminal manufactured to determine whether a target is matched.

카메라(110)는 대상을 촬영하여 제2사용자의 영상을 생성하거나 입력받는 디지털 카메라이다.The camera 110 is a digital camera that captures an object and generates or receives an image of a second user.

전처리기(120)는 제2사용자의 영상을 전처리하여, 얼굴 부분만 검출한 후 얼굴 형태를 인식한다. 도 1b는 전처리를 통해 얼굴 부분을 검출하는 예를 보여준다. 영상에서 얼굴 부분만을 검출하는 부분, 얼굴 형태를 인식하거나 다른 사람의 얼굴과 비교하는 부분에는 Haar-like Feature 알고리즘이나 AdaBoost 알고리즘 등이 사용될 수 있다. Haar-like Feature 알고리즘은 촬영하거나 혹은 저장된 이미지를 기 선택한 타겟 이미지와 비교하기 위해서 이미지를 압축 혹은 간단화시키는 알고리즘이다. 도 1c의 "A"와 "B"는 에지 특성, "C"는 라인 특성, "D"는 대각선 특성을 검출하는데 사용되는 Haar-like feature를 나타낸다. The preprocessor 120 preprocesses the image of the second user and recognizes the facial shape after detecting only the face portion. FIG. 1B shows an example of detecting a face part through preprocessing. The Haar-like Feature algorithm or the AdaBoost algorithm can be used to detect only part of the face in the image, to recognize the face shape or to compare with other people's face. The Haar-like Feature algorithm is an algorithm that compresses or simplifies an image to compare it with a previously selected target image. &Quot; A " and " B " in Fig. 1C represent the edge characteristic, " C " represents the line characteristic, and " D " represents the Haar-

전처리기(120)는 제2사용자의 영상에서 제2사용자의 팔, 다리, 몸에 해당하는 영역을 구분하며, 이 부분에도 Haar-like Feature 알고리즘이나 AdaBoost 알고리즘 등이 사용될 수 있다.The preprocessor 120 distinguishes an area corresponding to an arm, a leg, and a body of a second user from an image of a second user, and a Haar-like feature algorithm or AdaBoost algorithm can be used for this part.

입력수단(130)은 타겟의 얼굴 형태, 체형 간의 우선순위 정보를 입력받는데, 키패드, 키보드, 터치 패널, 기타 포인팅 디바이스 등 다양한 형태를 가질 수 있다.The input means 130 receives the priority information of the face shape and the body shape of the target, and may have various forms such as a keypad, a keyboard, a touch panel, and other pointing devices.

타겟매칭 판단부(140)는 타겟정보 데이터베이스(150)에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출한다. 두 개의 이미지를 점(Pixel) 단위로 하나씩 비교를 하면 속도가 오래 걸리는 문제점이 발생한다. 따라서 이미지를 비교하기 편리하도록 압축하는 방법이 필요한데, Haar-like Features는 도 1c와 같이 일정한 크기의 박스(Box)를 다수 개 정의하고 각각의 박스에 들어 있는 점의 개수를 임계치 범위 내에서 같은지 비교한다. 비교 결과는 세 가지로 구분한다. 적은 경우, 같은 경우, 그리고 많은 경우가 있다. 결과에 따라서 각 박스의 해당위치를 특정한 색으로 전부 칠하여 이미지를 단순한 형태로 만든다. 구체적으로 예를 들어, 박스를 도 1c의 "A"와 같이 정의하면 두 개의 이미지에서 각각의 박스에 있는 점의 개수를 비교한다. 도 1d는 실제 얼굴 인식에 적용한 사례이다. 박스의 크기 및 위치는 다수개의 얼굴 데이터로 학습해서 결정한다. 이 알고리즘의 결과는 각각의 박스 영역에서 두 개 이미지가 얼마나 다른지를 나타내는 상관 계수이다. 상계 계수는 두 개 이미지의 비슷한 정도를 상대적으로 계산한다. 결과적으로 Haar-like features로 압축한 이미지끼리 상관계수를 구해서 상대적으로 다른 이미지와 얼마나 차이가 발생하는지를 비교하고 보여준다. 세부적으로는 두 영상에서 인물의 눈, 코, 입, 턱선, 신체, 스타일 등의 각 부분별로 닮은 정도를 비교하여 수치화할 수 있다. The target matching determination unit 140 compares the target face shape stored in the target information database 150 and calculates a correlation coefficient. If you compare two images one by one in pixel units, it will take a long time. Therefore, Haar-like Features defines a number of boxes of a certain size as shown in FIG. 1C, and the number of points included in each box is equal to or smaller than the threshold value within the range of the threshold value do. The comparison results are divided into three categories. There are few cases, the same case, and many cases. According to the result, the corresponding position of each box is painted with a specific color to make the image simple. Specifically, for example, if a box is defined as " A " in Fig. 1C, the number of points in each box in two images is compared. FIG. 1D shows an example applied to actual face recognition. The size and position of the box are determined by learning from a plurality of face data. The result of this algorithm is a correlation coefficient indicating how much the two images differ in each box area. The offset factor computes a comparable degree of similarity between the two images. As a result, the correlation coefficients between images compressed with Haar-like features are compared to show how much difference occurs with the other images. In detail, the degree of resemblance to each part of a person's eyes, nose, mouth, chin, body, and style can be compared and quantified in both images.

타겟매칭 판단부(140)는 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산한 후, 계산된 비율에 따라 체형을 분류한다. 예를 들어, 이 과정은 다음의 과정을 통해 구현될 수 있다. 머리에서 발까지의 전신영상을 이용하여 Haar-like Features로 인식 후 인식된 신체에서 머리만을 추출한다. 추출한 머리에서 크기를 산출한 후 나머지 신체길이를 비교하여 장신, 단신, 7등신, 8등신, 마른형, 통통한 형, 글래머형 등의 체형을 구할 수 있다. 신체 정보와 체형을 구분하는 기준은 신체 길이나 비율을 표준화하여 테이블과 같은 형태로 미리 정의될 수 있다.The target matching determining unit 140 measures the head size in the image of the second user, calculates the ratio of each part of the body using the measured head size, and classifies the body according to the calculated ratio. For example, this process can be implemented through the following process. Using the whole body image from head to foot, Haar-like Features are recognized and extracted from the recognized body only. After calculating the size from the extracted hair, the body lengths of the tall, short, seventh, eighth, dull, plump, and glamor types can be obtained by comparing the remaining lengths. The criteria for distinguishing between body information and body shape can be predefined in the form of a table by standardizing the body length or the ratio.

타겟매칭 판단부(140)는 타겟정보 데이터베이스(150)에 저장된 타겟 체형과 비교하여 유사한 정도를 나타내는 제1유사도를 산출한다. 이하에서 제1유사도, 제2유사도, 제3유사도 등은 타겟매칭 판단부(140)에서 구해진 특성과 타겟정보 데이터베이스(150)에 저장된 특성을 비교 대상으로 하여 구해지는 것으로, 각각의 특성을 이루는 요소(element)들의 총 개수 중 동일/유사한 요소의 개수의 비율을 계산하여 구해지거나 통계 분석에서 사용되는 확률 함수를 이용하여 구해질 수 있다.The target matching determination unit 140 calculates a first similarity degree that indicates a degree of similarity compared with the target object type stored in the target information database 150. [ Hereinafter, the first similarity degree, the second similarity degree, the third similarity degree, and the like are obtained by comparing the characteristics obtained by the target matching determination unit 140 and the characteristics stored in the target information database 150, the ratio of the number of identical / similar elements among the total number of elements, or can be obtained by using a probability function used in statistical analysis.

타겟매칭 판단부(140)는 앞서 입력받은 우선순위 정보에 따라 가중치를 상관계수, 제1유사도, 제2유사도 및 제3유사도에 적용하여 타겟 매칭 지수를 산출한다. 예를 들어, 우선순위 정보가 체형이 얼굴 형태에 우선함을 나타내는 경우, 체형에는 0.6의 가중치를, 얼굴 형태에는 0.4의 가중치를 부여할 수 있다.The target matching determining unit 140 calculates the target matching index by applying the weight to the correlation coefficient, the first similarity, the second similarity, and the third similarity according to the received priority information. For example, if the priority information indicates that the body type takes precedence over the face type, a weight of 0.6 may be assigned to the body type and a weight of 0.4 to the face type.

타겟정보 데이터베이스(150)는 제1사용자가 원하는 타겟의 얼굴 형태, 체형 등을 저장한다. 타겟의 얼굴 형태, 체형 등에 관한 정보를 생성/구축하는 방법은 제2사용자의 얼굴 형태, 체형 등에 관한 정보를 추출하는 방법과 동일하다.The target information database 150 stores the face shape, the body shape, and the like of the target desired by the first user. The method of generating / constructing the information about the face shape, the body shape, and the like of the target is the same as the method of extracting the information about the face shape, the body shape, etc. of the second user.

본 발명의 또 다른 실시 예에서는 사용자가 입력수단(130)을 통해 타겟정보 데이터베이스(150)에 미리 저장된 머리 이미지, 눈 이미지, 코 이미지, 입 이미지, 얼굴 모양 이미지 등 부분 이미지들을 선택하고 조합한 결과를 이용하여 타겟의 얼굴 형태나 체형 등을 결정하는 방식이 사용될 수 있다.In another embodiment of the present invention, a user selects and combines partial images such as a head image, a snow image, a nose image, a mouth image, a face image, and the like stored in advance in the target information database 150 through the input means 130 A method of determining the face shape, the body shape, etc. of the target can be used.

도 2는 본 발명의 다른 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 장치의 블록도이다.2 is a block diagram of a target searching apparatus based on matching possibility according to another embodiment of the present invention.

센서부(160)는 자이로센서(Gyro), 가속도센서(Acceleration), 적외선 센서, 초음파 센서 등을 포함한다. 체형을 판단하기 위한 전신 영상은 촬영각도에 따라 오류가 발생할 수 있으므로, 전처리기(120)에서 이러한 오류를 자이로센서(Gyro), 가속도센서(Acceleration)를 이용하여 보정할 수 있다. 거리에 대한 오차는 적외선 센서의 측정값을 이용하여 보정할 수 있다.The sensor unit 160 includes a gyro sensor, an acceleration sensor, an infrared sensor, an ultrasonic sensor, and the like. Since the whole body image for determining the body shape may have an error depending on the photographing angle, the preprocessor 120 can correct such an error using a gyro sensor and an acceleration sensor. The error of the distance can be corrected using the measurement value of the infrared sensor.

매칭테스트부(170)는 제2사용자에 대해 설문 방식의 매칭테스트를 수행한다. 이하에서는 매칭테스트 방법의 예를 설명한다. 매칭테스트는 연예성향, 성격, 심리, 혈액형 테스트 등을 통해 사람의 타입을 구분하는 것으로 설문 또는 통계자료를 이용한다. 문제의 유형은 구현하는 프로그램에 따라서 달라질 수도 있다. 예를 들어, 표 1과 같이, MBTI 심리 검사를 통해서 사람의 성격을 16가지 중에 하나로 나누어 볼 수 있다.The matching test unit 170 performs a questionnaire type matching test on the second user. Hereinafter, an example of the matching test method will be described. Matching tests use surveys or statistical data to distinguish between types of people through entertainment orientation, personality, psychology, blood type tests, and so on. The type of problem may vary depending on the program you are implementing. For example, as shown in Table 1, MBTI psychological tests can be used to divide the personality into one of 16 categories.

감각적Sensual 직관적Intuitive 내향적
Introverted
ISTJISTJ ISFJISFJ INFJINFJ INTJINTJ 판단적Judgmental
ISTPISTP ISFPISFP INFPINFP INTPINTP 인식적Cognitive 외향적
Extrovert
ESTPESTP ESFPESFP ENFPENFP ENTPENTP 인식적Cognitive
ESTJESTJ ESFJESFJ ENFJENFJ ENTJENTJ 판단적Judgmental 사고적Accidental 감정적Emotional 감정적Emotional 사고적Accidental

더불어 표 2와 같이 통계분석된 혈액형별 궁합 정보 등을 반영할 수 있다.In addition, as shown in Table 2, statistical analysis of blood type compatibility information and the like can be reflected.

여자/남자Woman Man AA OO BB ABAB AA 70%70% 95%95% 20%20% 65%65% OO 90%90% 40%40% 80%80% 30%30% BB 25%25% 75%75% 65%65% 80%80% ABAB 50%50% 35%35% 85%85% 90%90%

한편, 표 3 및 4와 같은 항목을 제시하는 연예심리테스트나 성격 테스트를 수행하면서 제1사용자가 각 항목에 대해 "O" 또는 "X"를 입력한 결과를 제2사용자의 입력 결과와 비교하는 방식으로 매칭테스트를 진행할 수도 있다.On the other hand, a result of inputting "O" or "X" for each item by the first user is compared with the input result of the second user while performing an entertaining psychological test or personality test showing items such as Tables 3 and 4 The matching test may be performed.

항목Item 설문survey 1One 퇴근 후 집으로 바로 가는 것을 좋아한다.I like to go straight home after work. 22 퇴근 후부터 출근 전가지 트레이닝 복 차림으로 지낸다.I go to work before going to work after work. 33 혼자 밥을 먹어도 외롭지 않다.It is not lonely even if you eat rice alone. 44 마음에 드는 사람의 명함을 어디다 두었는지 기억하지 못한다.I can not remember where I left my favorite card.

항목Item 설문survey 1One 감정이 얼굴에 잘 드러난다.Emotions are revealed on the face. 22 새로운 시도를 좋아한다.I like new attempts. 33 계획하기보다 그때그때 일을 처리하는 편이다.I tend to do things at that time rather than plan. 44 새로운 사람 만나는 것을 좋아한다.I like meeting new people.

입력수단(130)은 단말에서 매칭테스트가 수행되는 동안에 제2사용자로부터 설문에 대한 응답값, 개인적인 신상 정보 등을 포함하는 사용자 정보를 입력받는다.The input means 130 receives the user information including the response value of the questionnaire, personal information, and the like from the second user during the matching test at the terminal.

전처리기(120)는 제2사용자의 영상에서 제2사용자의 팔, 다리, 몸에 해당하는 영역을 구분할 뿐만 아니라, 제2사용자의 영상에서 제2사용자의 헤어, 제2사용자가 입은 의상, 액세서리 등에 대한 스타일 정보를 검출할 수 있다. 이 부분에도 Haar-like Feature 알고리즘이나 AdaBoost 알고리즘 등이 사용될 수 있다. 이하에서는 스타일을 구분하는 예시적인 방법을 설명한다. 패션 스타일의 구분은 헤어, 의상 그리고 기타 액세서리 등을 이용하여 구분할 수 있다. 입력된 영상정보를 Haar-like Features와 이용하여 헤어, 의상, 가방 등의 액세서리를 검출하고 상관계수를 이용하여 헤어스타일, 액세서리 종류 및 의상의 형태를 분석하여 정장, 캐주얼, 힙합 등으로 구분하여 전체적인 스타일을 유추할 수 있다. 또한, 헤어스타일, 의상, 액세서리 정보를 이용하여 적절한 스타일 조합인지도 판단하여 사용자 특성에 따라 단말이 타겟과의 매칭을 판단하는데 영향을 미칠 수도 있다. 스타일에 대한 정보는 영상 인식 이외에 질의 문항의 응답을 통해 관련 정보가 입력되도록 할 수도 있다.The preprocessor 120 not only distinguishes the areas corresponding to the arms, legs, and bodies of the second user from the images of the second user but also distinguishes the hair of the second user from the images of the second user, Style information can be detected. Haar-like feature algorithm or AdaBoost algorithm can also be used in this part. Hereinafter, an exemplary method of distinguishing styles will be described. The fashion style can be distinguished by hair, clothes and other accessories. Haar-like features are used to detect the accessibility of hair, clothing, bags, etc., and the correlation coefficient is used to analyze the types of hairstyle, accessories, and costumes, and classified into suits, casuals, and hip- Style can be inferred. In addition, it is also possible to determine whether a proper style combination is obtained by using hair style, costume, and accessory information, and may affect the determination of matching with a target according to a user characteristic. In addition to image recognition, information about the style may be input through the response of the question item.

타겟매칭 판단부(140)는 타겟정보 데이터베이스(150)에 저장된 스타일과 비교하여 제2유사도를 산출한다.The target matching determining unit 140 compares the style stored in the target information database 150 and calculates the second similarity.

타겟매칭 판단부(140)는 매칭테스트의 결과에 따라 제2사용자의 타입을 구분하고, 타겟정보 데이터베이스(150)에 저장된 타겟 타입과 비교하여 제3유사도를 산출한다. 제1사용자의 타입과 제2사용자의 타입을 비교하되 위와 같은 자료를 기반으로 하여 특정 항목은 유사할수록 특정 항목은 비유사할수록 높은 제3유사도를 산출하도록 할 수도 있다.The target matching determination unit 140 determines the type of the second user according to the result of the matching test and compares the type of the second user with the target type stored in the target information database 150 to calculate the third similarity. The type of the first user and the type of the second user are compared. Based on the above data, the higher the similarity of a specific item, the higher the degree of similarity of a specific item may be.

타겟매칭 판단부(140)는 우선순위 정보에 따라 가중치를 상관계수, 제1유사도, 제2유사도 및 제3유사도에 적용하여 타겟 매칭 지수를 산출한다.The target matching determination unit 140 calculates a target matching index by applying a weight to the correlation coefficient, the first similarity, the second similarity, and the third similarity according to the priority information.

디스플레이(190)는 타겟매칭 판단부(140)에서 산출된 각종 유사도나 타겟 매칭 지수를 화면에 표시한다.The display 190 displays various similarities or target matching indices calculated by the target matching determination unit 140 on the screen.

도 3은 본 발명의 일 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 방법의 흐름도이다.3 is a flow chart of a target searching method based on matching possibility according to an embodiment of the present invention.

먼저, 제1사용자가 원하는 타겟의 얼굴 형태 및 체형이 저장된 타겟정보 데이터베이스(150)를 포함하는 단말에서, 타겟의 얼굴 형태 및 체형 간의 우선순위 정보를 입력받는다(S310). 우선순위 정보를 미리 정의된 초기값으로 설정하는 경우 이 과정(S310)은 생략될 수도 있다.First, in the terminal including the target information database 150 storing the target face shape and body shape desired by the first user, priority information between the face shape and the body shape of the target is inputted (S310). If the priority information is set to a predefined initial value, this process (S310) may be omitted.

다음, 제2사용자의 영상을 입력받는다(S320). 이 과정(S320)은 제2사용자의 얼굴 영상과 전신 영상을 별도 입력받거나 얼굴과 신체가 같이 표현된 전신 영상을 입력받는 과정일 수 있다.Next, the image of the second user is inputted (S320). In step S320, the facial image and the whole body image of the second user may be separately input, or a whole body image may be input in which the face and the body are expressed in the same manner.

제2사용자의 영상이 입력되면, 영상을 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 타겟정보 데이터베이스(150)에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출한다(S330).When the image of the second user is inputted, the image is pre-processed to detect only the face part, and then the face shape is recognized and compared with the target face shape stored in the target information database 150 (S330).

다음, 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류하고, 타겟정보 데이터베이스(150)에 저장된 타겟 체형과 비교하여 제1유사도를 산출한다(S340).Next, the head size is measured in the image of the second user, the ratio of each part of the body is calculated using the measured head size, the body type is classified according to the calculated ratio, And the first degree of similarity is calculated (S340).

마지막으로, 우선순위 정보에 따라 가중치를 상관계수 및 제1유사도에 적용하여 타겟 매칭 지수를 산출한다(S370).Finally, the target matching index is calculated by applying the weights to the correlation coefficient and the first similarity according to the priority information (S370).

도 4는 본 발명의 다른 실시 예에 따른 매칭 가능성에 기반한 타겟 탐색 방법의 흐름도이다.4 is a flowchart of a target search method based on matching possibility according to another embodiment of the present invention.

먼저, 제1사용자가 원하는 타겟의 얼굴 형태, 체형, 타입 및 스타일이 저장된 타겟정보 데이터베이스(150)를 포함하는 단말에서, 타겟의 얼굴 형태, 체형, 타입 및 스타일 간의 우선순위 정보를 입력받는다(S410).First, the terminal including the target information database 150 storing the target face shape, body shape, type and style desired by the first user receives priority information among the face shape, body shape, type and style of the target (S410 ).

다음, 제2사용자의 영상을 입력받는다(S420).Next, the image of the second user is inputted (S420).

제2사용자의 영상이 입력되면, 영상을 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 타겟정보 데이터베이스(150)에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출한다(S430).If the second user's image is input, the image is pre-processed to detect only the face portion, and then the face shape is recognized and compared with the target face shape stored in the target information database 150 (S430).

다음, 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류하고, 타겟정보 데이터베이스(150)에 저장된 타겟 체형과 비교하여 제1유사도를 산출한다(S440).Next, the head size is measured in the image of the second user, the ratio of each part of the body is calculated using the measured head size, the body type is classified according to the calculated ratio, And the first degree of similarity is calculated (S440).

다음, 제2사용자의 영상에서 헤어, 의상 또는 액세서리 중 적어도 하나에 대한 정보를 검출하고, 타겟정보 데이터베이스(150)에 저장된 스타일과 비교하여 제2유사도를 산출한다(S450).Next, information about at least one of hair, clothes, or accessory is detected from the image of the second user, and the second similarity is calculated by comparing with the style stored in the target information database 150 (S450).

다음, 제2사용자의 사용자 정보를 입력받으면서 설문 방식의 매칭테스트를 수행하고, 매칭테스트의 결과에 따라 제2사용자의 타입을 구분하고, 타겟정보 데이터베이스(150)에 저장된 타겟 타입과 비교하여 제3유사도를 산출한다(S460).Next, the user type information of the second user is input, the questionnaire type matching test is performed, the type of the second user is classified according to the result of the matching test, the third type is compared with the target type stored in the target information database 150, The degree of similarity is calculated (S460).

마지막으로, 우선순위 정보에 따라 가중치를 상관계수, 제1유사도, 제2유사도 및 제3유사도에 적용하여 타겟 매칭 지수를 산출한다(S470).Finally, the target matching index is calculated by applying the weights to the correlation coefficient, the first similarity, the second similarity, and the third similarity according to the priority information (S470).

타겟 매칭 지수는 상관계수, 제1유사도, 제2유사도 및 제3유사도의 가중합인데, 두 사람의 호감, 궁합, 친밀도 등을 측정하는 용도로 사용될 수 있다.The target matching index is a weighted sum of the correlation coefficient, the first similarity, the second similarity, and the third similarity, and can be used for measuring the liking, compatibility, and intimacy of two people.

본 발명의 또 다른 실시 예에서, 타겟 매칭 지수는 제2사용자의 이름, 나이, 전화번호 등의 개인정보와 함께 타겟정보 데이터베이스나 단말의 메모리 등에 저장되도록 할수 있다. 보다 바람직하게는, 제1사용자가 단말에서 이름 등으로 검색하면, 해당 이름의 타겟 매칭 지수를 상기 단말이 표시하도록 할 수 있다.In another embodiment of the present invention, the target matching index may be stored in a target information database or a memory of the terminal together with personal information such as the name, age, and telephone number of the second user. More preferably, when the first user searches for a name or the like in the terminal, the terminal can display the target matching index of the corresponding name.

도 5는 도 4에서 데이터베이스를 구성하는 과정의 예를 도시한 것이다.FIG. 5 shows an example of a process of configuring a database in FIG.

먼저, 제1사용자는 타겟이라 생각하는 연예인의 사진 또는 자신의 사진 등 영상을 단말기에 입력한다(S501). First, the first user inputs a picture of a celebrity who thinks that he or she is a target, or a picture such as a photograph of himself or herself to the terminal (S501).

단말기는 입력된 영상을 Haar-like feature 알고리즘과 같은 영상 인식 알고리즘을 이용하여 얼굴을 분류한다. Haar-like feature 알고리즘은 영상에서 특징만을 추출하여 단순화시킴으로 빠른 분류가 가능하고 많은 얼굴학습을 통해 생성된 데이터를 이용함으로써 인식률이 상당히 높다. Haar-like feature 알고리즘을 이용하여 분류된 얼굴 데이터에서 눈, 눈썹, 코, 입, 턱선 등을 분류 Haar-like feature 알고리즘을 다시 적용하여 분류된 데이터를 각각 저장한다(S502).The terminal classifies the input image using face recognition algorithm such as Haar-like feature algorithm. The Haar-like feature algorithm extracts and simplifies the feature from the image, so that it can be classified quickly and the recognition rate is very high by using the data generated through many face learning. Eye, eyebrow, nose, mouth, jaw line, etc. from the classified face data using Haar-like feature algorithm (S502).

휴대 단말기는 입력된 영상에서 영상 인식 알고리즘을 이용하여 머리를 분류하고 머리 크기를 이용하여 전신의 비율을 저장하고 몸 크기 따른 체형을 분석하여 저장한다(S503). 타겟의 체형을 보다 정확하게 설정하기 위해 사용자는 타겟이라 생각하는 사람의 전신 영상을 별도로 휴대 단말기에 입력하게 할 수 있다.The portable terminal classifies the head using the image recognition algorithm in the input image, stores the ratio of the whole body using the head size, and analyzes the body shape according to the size of the body and stores it (S503). In order to more accurately set the body shape of the target, the user can separately input the whole body image of the person who is considered as the target to the portable terminal.

입력된 영상정보 또는 질의 문항을 통해 얻은 타겟의 패션 스타일 정보를 저장한다(S504). 패션 스타일의 구분은 헤어, 의상 그리고 기타 액세서리 등을 이용하여 구분할 수 있다. 입력된 영상에 영상 인식 알고리즘을 적용하여 헤어, 의상, 가방 등의 액세서리를 검출하고 상관계수를 이용하여 헤어스타일, 액세서리 종류 및 의상의 형태를 분석하여 정장, 캐주얼, 힙합 등으로 구분하여 전체적인 스타일을 유추할 수 있다. 또한, 헤어스타일, 의상, 액세서리 정보를 이용하여 적절한 패션 스타일 조합인지도 여부를 판단하여 스타일 정보에 반영할 수 있다.The fashion style information of the target obtained through the input image information or the query item is stored (S504). The fashion style can be distinguished by hair, clothes and other accessories. By applying the image recognition algorithm to the input image, it detects the accessories such as hair, clothes, and bags and analyzes the shape of hair style, accessories, and costumes by using correlation coefficient, and classifies them into suits, casuals and hip- Can be inferred. In addition, it is possible to judge whether or not an appropriate fashion style combination is determined by using hair style, costume, and accessory information, and reflect it on style information.

다음, 제1사용자는 단말기에서 제공하는 매칭테스트(연예성향, 성격, 심리, 혈액형 등)를 수행하고(S505) 단말기는 매칭테스트를 통해 얻은 데이터를 이용하여 자신의 타입을 추출하여 저장한다(S506). 이 과정에서, 제1사용자가 얼굴, 신체, 패션 스타일, 매칭테스트 각 항목의 중요순서를 임의로 설정하여 입력하도록 할 수도 있다.Next, the first user performs a matching test (entertainment disposition, personality, psychology, blood type, etc.) provided by the terminal (S505), and the terminal extracts and stores its type using data obtained through the matching test ). In this process, the first user may arbitrarily set and input the important order of each item of the face, the body, the fashion style, and the matching test.

본 발명은 소프트웨어를 통해 실행될 수 있다. 바람직하게는, 본 발명의 실시 예들에 따른 매칭 가능성에 기반한 타겟 탐색 방법을 컴퓨터에서 실행시키기 위한 프로그램을 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공할 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The present invention can be implemented through software. Preferably, a program for causing a computer to execute a target search method based on matching possibility according to embodiments of the present invention may be recorded on a computer-readable recording medium and provided. When executed in software, the constituent means of the present invention are code segments that perform the necessary tasks. The program or code segments may be stored in a processor readable medium or transmitted by a computer data signal coupled with a carrier wave in a transmission medium or a communication network.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는 ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer readable recording medium include ROM, RAM, CD-ROM, DVD 占 ROM, DVD-RAM, magnetic tape, floppy disk, hard disk, optical data storage, and the like. In addition, the computer-readable recording medium may be distributed to network-connected computer devices so that computer-readable codes can be stored and executed in a distributed manner.

본 발명은 도면에 도시된 일 실시 예를 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시 예의 변형이 가능하다는 점을 이해할 것이다. 그리고, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It should be understood that such modifications are within the technical scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

Claims (13)

제1사용자가 원하는 타겟의 얼굴 형태 및 체형이 저장된 타겟정보 데이터베이스를 포함하는 단말에서, 상기 타겟의 얼굴 형태 및 체형 간의 우선순위 정보를 입력받는 단계;
제2사용자의 영상을 입력받는 단계;
상기 제2사용자의 영상을 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하는 단계;
상기 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류하고, 상기 타겟정보 데이터베이스에 저장된 타겟 체형과 비교하여 제1유사도를 산출하는 단계; 및
상기 우선순위 정보에 따라 가중치를 상기 상관계수 및 상기 제1유사도에 적용하여 타겟 매칭 지수를 산출하는 단계
를 포함하는, 매칭 가능성에 기반한 타겟 탐색 방법.
Receiving priority information between a face type and a body type of the target in a terminal including a target information database in which a face shape and a body shape of a target desired by the first user are stored;
Receiving an image of a second user;
Calculating a correlation coefficient by comparing a face shape of the second user with a target face shape stored in a target information database;
A head size is measured in the image of the second user, a ratio of each part of the body is calculated using the measured head size, a body type is classified according to the calculated ratio, and the body shape is compared with the target body type stored in the target information database. 1 < / RTI > And
Calculating a target matching index by applying a weight to the correlation coefficient and the first similarity according to the priority information,
Based on the matching probability.
제 1 항에 있어서,
상기 얼굴 형태 및 상기 타겟의 얼굴 형태는
눈, 눈썹, 코, 입 또는 턱선 중 적어도 하나의 형태 정보를 포함하는 것을 특징으로 하는, 매칭 가능성에 기반한 타겟 탐색 방법.
The method according to claim 1,
The face shape and the face shape of the target
Characterized in that it comprises at least one of morphological information of the eye, eyebrow, nose, mouth or chin.
제 1 항에 있어서,
상기 제1유사도를 산출하는 단계는
상기 제2사용자의 영상에서 몸, 팔 및 다리를 분류하는 단계;
상기 얼굴 부분의 크기에 대한 상기 몸의 길이 비율, 상기 팔의 길이 비율 및 상기 다리의 길이 비율을 계산하는 단계;
상기 몸의 길이 비율, 상기 팔의 길이 비율 및 상기 다리의 길이 비율을 미리 정의된 체형 기준 정보와 비교하여 상기 제2사용자의 체형을 결정하는 단계를 포함하는 것을 특징으로 하는, 매칭 가능성에 기반한 타겟 탐색 방법.
The method according to claim 1,
The step of calculating the first degree of similarity
Classifying the body, arms and legs in the image of the second user;
Calculating a length ratio of the body to a size of the face portion, a length ratio of the arm, and a length ratio of the legs;
Determining a body shape of the second user by comparing the body length ratio, the arm length ratio, and the leg length ratio with predefined body shape reference information, Search method.
제 1 항에 있어서,
상기 제2사용자의 영상을 입력받는 단계는
자이로센서 또는 가속도센서를 이용하여 상기 제2사용자의 영상을 보정하는 단계를 포함하는 것을 특징으로 하는, 매칭 가능성에 기반한 타겟 탐색 방법.
The method according to claim 1,
The step of receiving the image of the second user
And correcting the image of the second user using a gyro sensor or an acceleration sensor.
제 4 항에 있어서,
상기 제1유사도를 산출하는 단계는
적외선 센서를 이용하여 상기 단말과 상기 제2사용자 사이의 거리를 측정하고, 상기 측정된 거리를 반영하여 상기 신체 각 부분의 비율을 계산하는 단계를 포함하는 것을 특징으로 하는, 매칭 가능성에 기반한 타겟 탐색 방법.
5. The method of claim 4,
The step of calculating the first degree of similarity
Measuring a distance between the terminal and the second user using an infrared sensor and calculating a ratio of each part of the body by reflecting the measured distance, Way.
제 1 항에 있어서,
상기 체형은
장신, 단신, 7등신, 8등신, 마른형, 통통한 형, 뚱뚱한 형 또는 글래머 형 중 적어도 하나를 포함하는 정보인 것을 특징으로 하는, 매칭 가능성에 기반한 타겟 탐색 방법.
The method according to claim 1,
The body shape
Wherein the information is information including at least one of a long, short, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh, seventh,
제 1 항에 있어서,
상기 우선순위 정보를 입력받기 이전에,
타겟 영상을 입력받아 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 상기 타겟 영상에서 검출된 얼굴 부분의 크기를 이용하여 상기 타겟 영상에서 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류하며, 제1사용자의 사용자 정보를 입력받으면서 설문 방식의 매칭테스트를 수행하고, 상기 매칭테스트의 결과에 따라 상기 제1사용자의 타입을 구분하여 상기 타겟정보 데이터베이스를 구축하는 단계를 더 포함하는 것을 특징으로 하는, 매칭 가능성에 기반한 타겟 탐색 방법.
The method according to claim 1,
Prior to receiving the priority information,
A ratio of each part of the body in the target image is calculated using the size of the face part detected in the target image, and the shape of the body part is calculated according to the calculated ratio, Further comprising the step of performing a matching test of the questionnaire system while receiving the user information of the first user and constructing the target information database by classifying the type of the first user according to the result of the matching test ≪ / RTI > wherein the matching is based on matching possibilities.
제1사용자가 원하는 타겟의 얼굴 형태, 체형 및 스타일이 저장된 타겟정보 데이터베이스를 포함하는 단말에서, 상기 타겟의 얼굴 형태, 체형 및 스타일 간의 우선순위 정보를 입력받는 단계;
제2사용자의 영상을 입력받는 단계;
상기 제2사용자의 영상을 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하는 단계;
상기 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류하고, 상기 타겟정보 데이터베이스에 저장된 타겟 체형과 비교하여 제1유사도를 산출하는 단계;
상기 제2사용자의 영상에서 헤어, 의상 또는 액세서리 중 적어도 하나에 대한 정보를 검출하고, 상기 타겟정보 데이터베이스에 저장된 스타일과 비교하여 제2유사도를 산출하는 단계; 및
상기 우선순위 정보에 따라 가중치를 상기 상관계수, 상기 제1유사도 및 상기 제2유사도에 적용하여 타겟 매칭 지수를 산출하는 단계
를 포함하는, 매칭 가능성에 기반한 타겟 탐색 방법.
Receiving priority information between a face shape, a body shape, and a style of the target in a terminal including a target information database in which a face shape, a body shape, and a style of a target desired by the first user are stored;
Receiving an image of a second user;
Calculating a correlation coefficient by comparing a face shape of the second user with a target face shape stored in a target information database;
A head size is measured in the image of the second user, a ratio of each part of the body is calculated using the measured head size, a body type is classified according to the calculated ratio, and the body shape is compared with the target body type stored in the target information database. 1 < / RTI >
Detecting information on at least one of hair, clothing, or accessories in the image of the second user, and comparing the style with the style stored in the target information database to calculate a second similarity; And
Calculating a target matching index by applying a weight to the correlation coefficient, the first similarity, and the second similarity according to the priority information,
Based on the matching probability.
제1사용자가 원하는 타겟의 얼굴 형태, 체형 및 타입이 저장된 타겟정보 데이터베이스를 포함하는 단말에서, 상기 타겟의 얼굴 형태, 체형, 및 타입 간의 우선순위 정보를 입력받는 단계;
제2사용자의 영상을 입력받는 단계;
상기 제2사용자의 영상을 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하는 단계;
상기 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류하고, 상기 타겟정보 데이터베이스에 저장된 타겟 체형과 비교하여 제1유사도를 산출하는 단계;
상기 제2사용자의 사용자 정보를 입력받으면서 설문 방식의 매칭테스트를 수행하고, 매칭테스트의 결과에 따라 상기 제2사용자의 타입을 구분하고, 상기 타겟정보 데이터베이스에 저장된 타겟 타입과 비교하여 제3유사도를 산출하는 단계; 및
상기 우선순위 정보에 따라 가중치를 상기 상관계수, 상기 제1유사도 및 상기 제3유사도에 적용하여 타겟 매칭 지수를 산출하는 단계
를 포함하는, 매칭 가능성에 기반한 타겟 탐색 방법.
Receiving priority information of a face type, a body type, and a type of the target in a terminal including a target information database storing a face shape, a body shape and a type of a target desired by the first user;
Receiving an image of a second user;
Calculating a correlation coefficient by comparing a face shape of the second user with a target face shape stored in a target information database;
A head size is measured in the image of the second user, a ratio of each part of the body is calculated using the measured head size, a body type is classified according to the calculated ratio, and the body shape is compared with the target body type stored in the target information database. 1 < / RTI >
A third type of user is identified by comparing the type of the second user with the target type stored in the target information database, Calculating; And
Calculating a target matching index by applying a weight to the correlation coefficient, the first similarity, and the third similarity according to the priority information,
Based on the matching probability.
제 9 항에 있어서,
상기 매칭 테스트는
연예 성향, 성격, 심리 또는 혈액형 테스트 중 어느 하나를 위한 설문 정보를 상기 단말에 표시하고 상기 제2사용로부터 응답 정보를 입력받는 방식으로 수행되는 것을 특징으로 하는, 매칭 가능성에 기반한 타겟 탐색 방법.
10. The method of claim 9,
The matching test
The method comprising: displaying the questionnaire information for any one of the first, second, third, fourth, fifth, sixth, seventh, eighth,
제1사용자가 원하는 타겟의 얼굴 형태 및 스타일이 저장된 타겟정보 데이터베이스를 포함하는 단말에서, 상기 타겟의 얼굴 형태 및 스타일 간의 우선순위 정보를 입력받는 단계;
제2사용자의 영상을 입력받는 단계;
상기 제2사용자의 영상을 전처리하여 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하는 단계;
상기 제2사용자의 영상에서 헤어, 의상 또는 액세서리 중 적어도 하나에 대한 정보를 검출하고, 상기 타겟정보 데이터베이스에 저장된 스타일과 비교하여 제2유사도를 산출하는 단계; 및
상기 우선순위 정보에 따라 가중치를 상기 상관계수 및 상기 제2유사도에 적용하여 타겟 매칭 지수를 산출하는 단계
를 포함하는, 매칭 가능성에 기반한 타겟 탐색 방법.
Receiving priority information between a face type and a style of the target in a terminal including a target information database storing a face shape and a style of a target desired by the first user;
Receiving an image of a second user;
Calculating a correlation coefficient by comparing a face shape of the second user with a target face shape stored in a target information database;
Detecting information on at least one of hair, clothing, or accessories in the image of the second user, and comparing the style with the style stored in the target information database to calculate a second similarity; And
Calculating a target matching index by applying a weight to the correlation coefficient and the second similarity according to the priority information,
Based on the matching probability.
제1항 내지 제11항 중 어느 한 항의 방법을 컴퓨터 시스템에서 실행하기 위한 프로그램이 기록된, 컴퓨터 시스템이 판독할 수 있는 기록매체.12. A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1 to 11 in a computer system. 제1사용자가 원하는 타겟의 얼굴 형태 및 체형이 저장된 타겟정보 데이터베이스;
상기 타겟의 얼굴 형태과 체형 간의 우선순위 정보를 입력받는 입력수단;
제2사용자의 영상을 입력받는 카메라;
상기 제2사용자의 영상을 전처리하여, 얼굴 부분만 검출한 후 얼굴 형태를 인식하고, 상기 제2사용자의 영상에서 상기 제2사용자의 팔, 다리, 몸에 해당하는 영역을 구분하는 전처리기;
상기 타겟정보 데이터베이스에 저장된 타겟 얼굴 형태와 비교하여 상관계수를 산출하고, 상기 제2사용자의 영상에서 머리 크기를 측정하고, 측정된 머리 크기를 이용하여 신체 각 부분의 비율을 계산하고 계산된 비율에 따라 체형을 분류한 후 상기 타겟정보 데이터베이스에 저장된 타겟 체형과 비교하여 제1유사도를 산출하는 유사판단부; 및
상기 우선순위 정보에 따라 가중치를 상기 상관계수 및 상기 제1유사도에 적용하여 타겟 매칭 지수를 산출하는 타겟매칭 판단부
를 포함하는, 매칭 가능성에 기반한 타겟 탐색 장치.
A target information database storing a face shape and a body shape of a target desired by the first user;
Input means for receiving priority information between a face shape and a body shape of the target;
A camera for receiving an image of a second user;
A preprocessor for preprocessing an image of the second user to recognize only a facial part and then recognizing a facial shape and distinguishing an area corresponding to an arm, a leg, and a body of the second user from the image of the second user;
Calculating a correlation coefficient by comparing with a target face shape stored in the target information database, measuring a head size in the image of the second user, calculating a ratio of each part of the body using the measured head size, A similarity determination unit for comparing the body shape of the target body shape with the target body shape stored in the target information database to calculate a first degree of similarity; And
A target matching determination unit for calculating a target matching index by applying a weight to the correlation coefficient and the first similarity according to the priority information,
Wherein the matching means is based on a matching possibility.
KR1020100111181A 2010-11-09 2010-11-09 Apparatus and Method of searching for target based on matching possibility KR101150944B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100111181A KR101150944B1 (en) 2010-11-09 2010-11-09 Apparatus and Method of searching for target based on matching possibility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100111181A KR101150944B1 (en) 2010-11-09 2010-11-09 Apparatus and Method of searching for target based on matching possibility

Publications (2)

Publication Number Publication Date
KR20120049761A KR20120049761A (en) 2012-05-17
KR101150944B1 true KR101150944B1 (en) 2012-05-29

Family

ID=46267485

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100111181A KR101150944B1 (en) 2010-11-09 2010-11-09 Apparatus and Method of searching for target based on matching possibility

Country Status (1)

Country Link
KR (1) KR101150944B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101072A (en) * 2019-06-18 2020-12-18 北京陌陌信息技术有限公司 Face matching method, device, equipment and medium
KR102265120B1 (en) * 2019-11-01 2021-06-15 (주) 아이디얼랩스 Method and apparatus for providing matching service based on image analysis

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990050271A (en) * 1997-12-16 1999-07-05 구자홍 Method and apparatus for automatic detection of criminal face using face recognition
KR20000054824A (en) * 2000-06-27 2000-09-05 이성환 System for Searching Ideal Partners Using Face Image and Controlling Method
KR20010008122A (en) * 2000-11-09 2001-02-05 이웅진 A matching and introducting system for a ideal couple
KR20050045772A (en) * 2003-11-12 2005-05-17 (주)버추얼미디어 System and method for searching ideal 3d face using facial image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990050271A (en) * 1997-12-16 1999-07-05 구자홍 Method and apparatus for automatic detection of criminal face using face recognition
KR20000054824A (en) * 2000-06-27 2000-09-05 이성환 System for Searching Ideal Partners Using Face Image and Controlling Method
KR20010008122A (en) * 2000-11-09 2001-02-05 이웅진 A matching and introducting system for a ideal couple
KR20050045772A (en) * 2003-11-12 2005-05-17 (주)버추얼미디어 System and method for searching ideal 3d face using facial image

Also Published As

Publication number Publication date
KR20120049761A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
CN107633207B (en) AU characteristic recognition methods, device and storage medium
US11501514B2 (en) Universal object recognition
Wang et al. Human posture recognition based on images captured by the kinect sensor
CN105426850B (en) Associated information pushing device and method based on face recognition
JP6013241B2 (en) Person recognition apparatus and method
CN105426857B (en) Human face recognition model training method and device
US9224037B2 (en) Apparatus and method for controlling presentation of information toward human object
US20120308090A1 (en) Facial image search system and facial image search method
US20170140210A1 (en) Image processing apparatus and image processing method
US8472670B2 (en) Target detection device and target detection method
CN104408402A (en) Face identification method and apparatus
CN109297489B (en) Indoor navigation method based on user characteristics, electronic equipment and storage medium
Zhang et al. Emotion detection using Kinect 3D facial points
Lee et al. Emotional recognition from facial expression analysis using bezier curve fitting
JP6906273B2 (en) Programs, devices and methods that depict the trajectory of displacement of the human skeleton position from video data
Alrihaili et al. Music recommender system for users based on emotion detection through facial features
US20070253598A1 (en) Image monitoring apparatus
CN112541421A (en) Pedestrian reloading identification method in open space
JP6225612B2 (en) Program, information processing apparatus, and method
KR101150944B1 (en) Apparatus and Method of searching for target based on matching possibility
US20170262055A1 (en) Information processing device, information processing method, and program
WO2021250808A1 (en) Image processing device, image processing method, and program
JP2021026744A (en) Information processing device, image recognition method, and learning model generation method
KR20050112219A (en) Method for recognizing a face using haar-like feature/lda and apparatus thereof
KR102592601B1 (en) Face recognition method using facial emotion synthesys

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150521

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee