KR101170676B1 - Face searching system and method based on face recognition - Google Patents

Face searching system and method based on face recognition Download PDF

Info

Publication number
KR101170676B1
KR101170676B1 KR1020100112029A KR20100112029A KR101170676B1 KR 101170676 B1 KR101170676 B1 KR 101170676B1 KR 1020100112029 A KR1020100112029 A KR 1020100112029A KR 20100112029 A KR20100112029 A KR 20100112029A KR 101170676 B1 KR101170676 B1 KR 101170676B1
Authority
KR
South Korea
Prior art keywords
face
image
information
search
feature vector
Prior art date
Application number
KR1020100112029A
Other languages
Korean (ko)
Other versions
KR20120050660A (en
Inventor
박대희
이종욱
박승진
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020100112029A priority Critical patent/KR101170676B1/en
Publication of KR20120050660A publication Critical patent/KR20120050660A/en
Application granted granted Critical
Publication of KR101170676B1 publication Critical patent/KR101170676B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 얼굴 검색 시스템은, 탐지 대상을 촬영한 영상으로부터 수집된 얼굴 정보가 저장된 얼굴 정보 저장부, 검색 대상자에 대한 쿼리를 수신하는 쿼리 입력부 및 상기 수신된 쿼리에 기초하여 상기 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 얼굴 검색부를 포함하되, 상기 쿼리는 키워드, 정지 영상 및 동영상 중 적어도 어느 하나를 포함한다.The face search system of the present invention includes a face information storage unit storing face information collected from an image of a detection target, a query input unit receiving a query for a search target, and the search among the face information based on the received query. A face search unit for searching for face information corresponding to the target person, wherein the query includes at least one of a keyword, a still image, and a video.

Description

얼굴 인식 기반의 얼굴 검색 시스템 및 그 방법 {FACE SEARCHING SYSTEM AND METHOD BASED ON FACE RECOGNITION}Face recognition system based on face recognition and its method {FACE SEARCHING SYSTEM AND METHOD BASED ON FACE RECOGNITION}

본 발명은 얼굴 인식 기반의 얼굴 검색 시스템 및 그 방법에 관한 것이다.The present invention relates to a face recognition system based on face recognition and a method thereof.

최근 공항, 항만, 연구소 또는 특수 시설물 등에 CCTV를 이용한 영상 감시에 수요가 급속하게 증가하였다. 이와 같이 특정 지역의 보안 및 감시를 위한 영상 감시 시스템에서 가장 중요한 요소 중 하나는 관리자가 관심 있는 장면을 신속하고 정확하게 찾아주는 영상 검색 요소이다. 특히, 대용량으로 수집된 데이터베이스로부터 사람이 등장한 장면을 일일이 직접 확인하는 것은 한계가 있으므로, 빠르고 정확한 범죄 용의자 또는 특정 인물 검색을 지원하기 위해서는 사람이 등장한 장면에 대한 처리가 필요하였다. 즉 감시 영상 중 사람이 등장한 장면에 대해 선택적으로 처리하여 데이터베이스화하는 기술에 대한 수요가 있었다.Recently, the demand for video surveillance using CCTV in airports, harbors, research institutes or special facilities has increased rapidly. As such, one of the most important elements of a video surveillance system for security and surveillance in a specific area is a video search component that enables a manager to quickly and accurately find a scene of interest. In particular, since it is limited to directly check the scene where a person appeared from a large collection of databases, it was necessary to process the scene where a person appeared in order to support a quick and accurate search for a suspect or a specific person. In other words, there is a demand for a technology for selectively processing and databasening scenes of human appearance in surveillance images.

또한, 저장된 감시 영상에서 특정인에 대한 검색을 수행하기 위해 정지 영상을 이용한 질의 방법을 사용할 수 있다. 그러나 종래에는 탐지된 얼굴과 등록된 얼굴들과의 유사도를 비교하여 임계값보다 클 경우 등록된 얼굴과 동일한 사람의 얼굴로 판단하고, 임계값보다 작을 경우 등록된 다른 얼굴과의 비교를 반복하는 방식으로 이루어졌다. 그러나, 이러한 방식은 높은 인식률을 보장하는 반면, 처리속도가 느리기 때문에 대용량의 데이터베이스에서 실시간으로 인식작업을 수행해야 하는 검색 시스템에는 적합하지 못하다는 문제가 있었다. 따라서, 대용량의 데이터베이스에서 얼굴 인식 기반의 검색이 가능함과 동시에 높은 검색율을 갖는 새로운 형태의 시스템에 대한 필요성이 제기되어 왔다.In addition, a query method using a still image may be used to search for a specific person in the stored surveillance image. However, in the related art, the similarity between the detected face and the registered faces is compared to determine that the face of the same person as the registered face is larger than the threshold, and the comparison is repeated with other registered faces when smaller than the threshold. Was done. However, this method guarantees a high recognition rate, but has a problem that it is not suitable for a retrieval system that needs to perform recognition in real time on a large database because of its low processing speed. Accordingly, there is a need for a new type of system having a high retrieval rate while enabling face recognition based search in a large database.

본 발명은 전술한 필요에 위한 것으로, 키워드, 정지 영상 또는 동영상을 이용하여 얼굴 정보를 검색하는 시스템 및 그 방법을 제공하는 것을 목적으로 한다. An object of the present invention is to provide a system and method for retrieving face information using keywords, still images or moving images.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 얼굴 검색 시스템은, 탐지 대상을 촬영한 영상으로부터 수집된 얼굴 정보가 저장된 얼굴 정보 저장부, 검색 대상자에 대한 쿼리를 수신하는 쿼리 입력부 및 상기 수신된 쿼리에 기초하여 상기 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 얼굴 검색부를 포함하되, 상기 쿼리는 키워드, 정지 영상 및 동영상 중 적어도 어느 하나를 포함한다.As a technical means for achieving the above-described technical problem, the face retrieval system according to the first aspect of the present invention, the face information storage unit that stores the face information collected from the image photographing the detection target, the query for the search target And a face search unit that searches for face information corresponding to the search target among the face information based on the query input unit and the received query, wherein the query includes at least one of a keyword, a still image, and a video.

또한, 본 발명의 제 2 측면에 따른 얼굴 검색 방법은, 탐지 대상을 촬영한 영상으로부터 얼굴 정보를 수집하는 단계, 검색 대상자에 대한 정지 영상을 수신하는 단계 및 상기 수신한 정지 영상에 기초하여 상기 수집된 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 단계를 포함하되, 상기 얼굴 정보는, 상기 촬영한 영상으로부터 캡쳐한 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 생성한 얼굴 이미지 데이터, 상기 얼굴 이미지 데이터로부터 추출한 특징 벡터 데이터, 상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 생성한 분할 영상 데이터 및 상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 생성한 메타데이터를 포함한다.The face searching method according to the second aspect of the present invention may further include collecting face information from an image of an object to be detected, receiving a still image of a person to be searched, and collecting the face image based on the received still image. And searching for face information corresponding to the search target among the extracted face information, wherein the face information includes face image data generated by dividing an area where a face is detected among captured images captured from the captured image, And feature vector data extracted from face image data, divided image data generated by temporally dividing a face-detected image among the captured images, and metadata generated by using face detection information of the captured image.

또한, 본 발명의 제 3 측면에 따른 얼굴 정보의 저장 방법은, 탐지 대상을 촬영한 영상을 캡쳐하여 캡쳐 이미지를 생성하는 단계, 상기 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 얼굴 이미지 데이터를 생성하는 단계, 상기 얼굴 이미지로부터 특징 벡터 데이터를 추출하는 단계, 상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 분할 영상 데이터를 생성하는 단계 및 상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 메타데이터를 생성하는 단계를 포함하되, 상기 메타데이터는, 상기 캡쳐 이미지로부터 얼굴이 탐지된 날짜를 나타내는 탐지 날짜 데이터, 상기 캡쳐 이미지로부터 얼굴이 탐지된 시간을 나타내는 탐지 시간 데이터 및 상기 탐지 대상을 촬영한 장치에 관한 정보를 나타내는 영상 촬영부 정보 데이터 중 적어도 하나를 포함한다. In addition, the method for storing face information according to the third aspect of the present invention comprises: generating a captured image by capturing an image of a detection target; generating face image data by dividing an area where a face is detected among the captured images; Extracting feature vector data from the face image, time-dividing a face-detected image of the captured image to generate split image data, and using face detection information on the captured image. Generating metadata, wherein the metadata includes: detection date data indicating a date when a face was detected from the captured image, detection time data indicating a time when a face was detected from the captured image, and the detection target; At least one of image capturing unit information data indicating information about a device It includes.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자는 키워드뿐만 아니라 정지 영상 또는 동영상을 쿼리로 이용하여 얼굴 검색을 수행할 수 있으므로, 대용량의 얼굴 정보 데이터베이스 처리에 용이하다는 장점이 있다.According to any one of the above-described problem solving means of the present invention, the user can perform a face search using a still image or a video as a query as well as a keyword, there is an advantage that it is easy to process a large face information database.

또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, SR(sparse representation) 알고리즘을 이용할 경우 다양한 조명 변화, 원 이미지에 다른 이미지가 겹치거나 변장한 경우, 원 이미지가 변질된 경우, 저해상도 등 인식 성능을 저해하는 다양한 환경에서도 정면 얼굴 이미지를 차원 축소 방법을 사용하지 않고서도 매우 높은 얼굴 인식률을 보장한다는 장점이 있다.In addition, according to any one of the problem solving means of the present invention described above, when using the SR (sparse representation) algorithm, various lighting changes, when the other image overlaps or disguises the original image, when the original image is altered, low resolution, etc. Even in a variety of environments that impair recognition performance, there is an advantage of ensuring a very high face recognition rate without using the front face image reduction method.

또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 새로운 얼굴 정보가 추가되더라도, 얼굴 검색 시 모든 얼굴 정보에 대해 재학습을 수행할 필요 없이, 기생성된 행렬에 새로운 얼굴 정보에 대한 학습 결과만 열 데이터로 추가하면 되므로, 확장성이 뛰어나며, 대용량의 이미지 처리에 유리하다는 장점이 있다.In addition, according to any one of the above-described problem solving means of the present invention, even if new face information is added, learning about the new face information in the parasitic matrix, without having to re-learn all the face information during face search Since only the result needs to be added as column data, it is excellent in scalability and advantageous for processing a large amount of images.

또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 영상을 쿼리로 이용하여 얼굴 검색을 수행하는 경우, CCTV와 같은 감시 장치와 결합하여 실시간으로 특정인에 대한 검색을 실시할 수 있다.In addition, according to any one of the above-described problem solving means of the present invention, when performing a face search using the image as a query, it is possible to perform a search for a specific person in real time in combination with a monitoring device such as CCTV.

또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자가 특정 검색 대상자에 대한 이미지나 영상을 검색할 경우, 검색 대상자에 대한 이미지나 영상뿐만 아니라 이에 대한 메타데이터도 함께 검색할 수 있다는 장점이 있다. In addition, according to any one of the above-described problem solving means of the present invention, when a user searches for an image or video for a specific search target, it is possible to search not only the image or video for the search target, but also metadata thereof. There is an advantage.

도 1은 본 발명의 일실시예에 따른 얼굴 검색 시스템을 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 얼굴 정보 생성부를 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 얼굴 정보 데이터를 도시한 구조도이다.
도 4는 본 발명의 일실시예에 따른 얼굴 검색 알고리즘을 도시한 순서도이다.
도 5는 본 발명의 일실시예에 따른 SR 알고리즘을 나타낸 도면이다.
도 6은 본 발명의 일실시예에 따른 디스플레이부를 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 얼굴 검색 누적 정확도를 도시한다.
도 8은 본 발명의 일실시예에 따른 얼굴 검색 방법을 도시한 순서도이다.
1 is a block diagram illustrating a face searching system according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating a face information generator according to an exemplary embodiment of the present invention.
3 is a structural diagram showing face information data according to an embodiment of the present invention.
4 is a flowchart illustrating a face search algorithm according to an embodiment of the present invention.
5 is a diagram illustrating an SR algorithm according to an embodiment of the present invention.
6 is a view showing a display unit according to an embodiment of the present invention.
7 illustrates face search cumulative accuracy according to an embodiment of the present invention.
8 is a flowchart illustrating a face searching method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . In addition, when a part is said to "include" a certain component, which means that it may further include other components, except to exclude other components unless otherwise stated.

도 1은 본 발명의 일실시예에 따른 얼굴 검색 시스템을 도시한 블록도이다. 또한, 도 2는 본 발명의 일실시예에 따른 얼굴 정보 생성부를 도시한 블록도이고, 도 3은 본 발명의 일실시예에 따른 얼굴 정보 데이터를 도시한 구조도이다.1 is a block diagram illustrating a face searching system according to an exemplary embodiment of the present invention. 2 is a block diagram illustrating a face information generation unit according to an embodiment of the present invention, and FIG. 3 is a structural diagram showing face information data according to an embodiment of the present invention.

본 발명의 일실시예에 따른 얼굴 검색 시스템(10)은 검색 대상자에 대한 쿼리를 키워드, 동영상 또는 정지 영상 형태로 수신하고, 수신된 쿼리를 기초로 SR(sparse representation) 알고리즘을 이용하여 얼굴 검색을 수행한다.The face retrieval system 10 according to an embodiment of the present invention receives a query for a search target in the form of a keyword, a video, or a still image, and performs face retrieval using a sparse representation algorithm based on the received query. Perform.

특히, 본 발명의 일실시예에 따른 얼굴 검색 시스템(10)은 얼굴 정보(260)가 저장된 데이터베이스로부터 검색 대상자에 대한 얼굴 검색을 수행하며, 얼굴 정보(260)는 영상, 이미지 및 이에 대한 메타데이터를 포함한다.In particular, the face retrieval system 10 according to an embodiment of the present invention performs a face search for a search target from a database in which the face information 260 is stored, and the face information 260 includes an image, an image, and metadata thereof. It includes.

얼굴 검색 시스템(10)은 도 1에 도시된 바와 같이, 영상 촬영부(100), 얼굴 정보 생성부(200), 얼굴 정보 생성부(200), 얼굴 정보 저장부(300), 쿼리 입력부(400), 얼굴 검색부(500) 및 디스플레이부(600)를 포함한다.As shown in FIG. 1, the face searching system 10 includes an image capturing unit 100, a face information generating unit 200, a face information generating unit 200, a face information storing unit 300, and a query input unit 400. ), A face searching unit 500 and a display unit 600.

영상 촬영부(100)는 탐지 대상에 대한 영상을 촬영한다. 영상 촬영부(100)는 예컨대 CCTV와 같은 영상 생성 장치일 수 있으며, 탐지 대상을 촬영하여 영상을 생성한다. 탐지 대상은 불특정 대상 예컨대 임의의 사람이나 사물일 수 있으며, 생성된 영상은 얼굴 정보 생성부(200)로 전송될 수 있다.The image capturing unit 100 captures an image of a detection target. The image capturing unit 100 may be, for example, an image generating apparatus such as CCTV, and generates an image by photographing a detection target. The detection target may be an unspecified target, such as an arbitrary person or an object, and the generated image may be transmitted to the face information generator 200.

얼굴 정보 생성부(200)는 영상 촬영부(100)로부터 수신한 영상을 이용하여 얼굴 정보(260)를 생성한다. 얼굴 정보(260)는 얼굴이 탐지된 영상, 이미지, 특징 벡터 및 얼굴 탐지 환경과 관련된 메타데이터를 포함할 수 있다. 얼굴 정보 생성부(200) 및 얼굴 정보(260)는 도 2 및 도 3을 참조하여 상세히 설명한다.The face information generator 200 generates the face information 260 using the image received from the image capturing unit 100. The face information 260 may include metadata related to an image, an image, a feature vector, and a face detection environment where a face is detected. The face information generator 200 and the face information 260 will be described in detail with reference to FIGS. 2 and 3.

얼굴 정보 생성부(200)는 도 2에 도시된 바와 같이, 이미지 캡쳐부(210), 얼굴 탐지부(220), 얼굴 특징 추출부(230), 영상 분할부(240) 및 탐지 정보 생성부(250)를 포함한다. 또한, 얼굴 정보 생성부(200)에서 생성된 얼굴 정보(260)는 도 3에 도시된 바와 같이, 얼굴 이미지 데이터(261), 특징 벡터 데이터(262), 분할 영상 데이터(263), 탐지 날짜 데이터(266), 탐지 시간 데이터(267) 및 영상 촬영부 정보 데이터(268)를 포함한다.As illustrated in FIG. 2, the face information generator 200 may include an image capture unit 210, a face detector 220, a face feature extractor 230, an image divider 240, and a detection information generator ( 250). In addition, the face information 260 generated by the face information generator 200 may include face image data 261, feature vector data 262, split image data 263, and detection date data, as illustrated in FIG. 3. 266, detection time data 267, and image capturing unit information data 268.

이미지 캡쳐부(210)는 영상 촬영부(100)로부터 수신한 영상을 캡쳐하여 이미지로 변환한다. 또한 이미지 캡쳐부(210)는 캡쳐된 이미지를 전처리하는 과정을 더 포함할 수 있다. 예를 들어 이미지 캡쳐부(210)는 캡쳐된 이미지에 대해 흑백 변환(gray color conversion), 보간(interpolation), 히스토그램 평활화(equalization of histogram), 스무딩(smoothing), 리사이징(resizing), 잡음 제거(noise cancelling) 등을 수행할 수 있다.The image capture unit 210 captures an image received from the image capturing unit 100 and converts the image into an image. In addition, the image capture unit 210 may further include a process of preprocessing the captured image. For example, the image capture unit 210 may perform gray color conversion, interpolation, histogram smoothing, smoothing, resizing, and noise reduction on the captured image. cancelling).

이미지 캡쳐부(210)에 의해 캡쳐된 이미지는 복수개로 구성될 수 있다. 또한, 이미지는 재생되는 영상을 캡쳐한 것이므로 동일 대상에 대해 다양한 각도, 표정이 담긴 복수의 이미지를 캡쳐할 수 있다.The image captured by the image capture unit 210 may be configured in plurality. Also, since the image is a captured image of a reproduced image, a plurality of images containing various angles and expressions of the same object may be captured.

얼굴 탐지부(220)는 캡쳐한 이미지를 이용하여 얼굴 이미지를 탐지한다. 이미지 캡쳐부(210)에서 제공된 이미지는 불특정 탐지 대상을 촬영하여 캡쳐한 것이므로, 탐지 대상자를 포함하지 않을 수 있으며, 탐지 대상자를 포함한다 하더라도 탐지 대상자의 얼굴뿐만 아니라, 전신, 의상, 배경 등을 더 포함할 수 있다.The face detector 220 detects a face image by using the captured image. Since the image provided by the image capturing unit 210 is captured by capturing an unspecified detection target, the image may not include the detection target. It may include.

한편, 본 발명에 따른 얼굴 검색 시스템(10)은 탐지 대상자의 얼굴을 생체 특징으로 하여 검색을 수행하므로, 얼굴 탐지부(220)는 얼굴 검색에 사용될 데이터베이스를 생성하기 위해 캡쳐된 이미지 중 얼굴 이미지를 탐지한다. 얼굴 탐지부(220)는 Haar-like feature 방법을 이용할 수 있다. 그러나 이에 한정되지는 않고 임의의 방법을 이용하여 얼굴 탐지를 수행할 수 있다. 얼굴 탐지부(220)에 의해 탐지된 얼굴 이미지는 도 3에 도시된 바와 같이 얼굴 정보(260) 중 얼굴 이미지 데이터(261)를 구성할 수 있다.Meanwhile, since the face search system 10 according to the present invention performs a search using a face of a subject as a biometric feature, the face detector 220 detects a face image of the captured image to generate a database to be used for face search. Detect. The face detector 220 may use a haar-like feature method. However, the present invention is not limited thereto, and face detection may be performed using any method. The face image detected by the face detector 220 may configure face image data 261 of the face information 260 as shown in FIG. 3.

얼굴 특징 추출부(230)는 얼굴 탐지부(220)에서 탐지된 얼굴 이미지로부터 특징 벡터를 추출한다. 얼굴 특징 추출부(230)는 예컨대, NMF(non-negative matrix factorization) 알고리즘을 사용할 수 있다. NMF 알고리즘은 데이터 세트에서 독립적인 특성을 추출하기 위해 사용되는 것으로, NMF에 의해 유도된 특징 공간의 기저 벡터는 눈, 코, 입 등과 유사한 부분 이미지 형태를 보이며, 기저 벡터의 선형 결합으로 얼굴 이미지를 나타낼 수 있다. 본 실시예에 따른 얼굴 특징 추출부(230)는 NMF 알고리즘을 사용하는 것으로 예시하고 있으나 이에 한정되는 것은 아니며, SVD(singular value decomposition) 방법이나 PCA 방법(principal component analysis) 등 얼굴 특징 추출에 사용될 수 있는 임의의 방법을 사용할 수 있다. 얼굴 특징 추출부(230)에 의해 추출된 특징 벡터는 도 3에 도시된 바와 같이 얼굴 정보(260) 중 특징 벡터 데이터(262)를 구성할 수 있다.The facial feature extractor 230 extracts a feature vector from the face image detected by the face detector 220. The facial feature extractor 230 may use, for example, a non-negative matrix factorization (NMF) algorithm. NMF algorithms are used to extract independent features from a data set. The basis vectors of feature spaces derived by the NMF show partial image shapes similar to eyes, noses, mouths, and so on. Can be represented. The facial feature extractor 230 according to the present embodiment is illustrated as using an NMF algorithm, but is not limited thereto. The facial feature extractor 230 may be used for facial feature extraction such as a SVD (singular value decomposition) method or a PCA method (principal component analysis). Any method can be used. The feature vector extracted by the face feature extractor 230 may configure feature vector data 262 of the face information 260 as shown in FIG. 3.

영상 분할부(240)는 영상 촬영부(100)에서 수신한 영상에서 얼굴이 탐지된 영상 부분을 분할한다. 영상 분할부(240)는 영상 촬영부(100)에서 수신한 영상에서 얼굴이 탐지될 경우, 영상을 시간적으로 분할할 수 있다. 그러나 영상 분할부(240)는 실시예에 따라 얼굴 부분에 대한 공간적 분할을 추가적으로 더 수행할 수 있다. 영상 분할부(240)에 의해 분할된 영상은 도 3에 도시된 바와 같이 얼굴 정보(260) 중 분할 영상 데이터(263)를 구성할 수 있다.The image dividing unit 240 divides the image portion in which the face is detected from the image received by the image capturing unit 100. When the face is detected in the image received by the image capturing unit 100, the image divider 240 may divide the image in time. However, the image splitter 240 may further perform spatial segmentation on the face part according to an exemplary embodiment. As shown in FIG. 3, the image divided by the image splitter 240 may configure the divided image data 263 among the face information 260.

탐지 정보 생성부(250)는 얼굴이 탐지된 시간적 공간적 환경에 관한 메타데이터(metadata)(265)를 생성한다. 시간적 환경은 탐지 날짜 정보, 탐지 시간 정보 등을 포함할 수 있으며, 공간적 환경은 영상 촬영부 정보 등을 포함할 수 있다. 만약, 영상 촬영부(100)가 복수 개 고정 설치된 경우, 얼굴 탐지의 공간적 정보는 영상 촬영부 정보 예를 들어 영상 촬영부(100)의 레퍼런스 번호 정보 등을 통해 획득할 수 있다.The detection information generator 250 generates metadata 265 about the temporal and spatial environment where the face is detected. The temporal environment may include detection date information, detection time information, and the like, and the spatial environment may include image capturing information. If a plurality of image capturing units 100 are fixedly installed, spatial information of face detection may be obtained through image capturing unit information, for example, reference number information of the image capturing unit 100.

탐지 정보 생성부(250)에 의해 생성된 메타데이터(265)는 얼굴 이미지 데이터(261) 또는 분할 영상 데이터(263)에 대한 데이터로 기능할 수 있다. 만약, 사용자가 특정 검색 대상자에 대한 이미지 또는 영상을 검색할 경우, 얼굴 검색 시스템(10)은 검색 대상자에 대한 얼굴 이미지 데이터(261) 또는 분할 영상 데이터(263)뿐만 아니라 이에 대한 메타데이터(265)도 함께 검색할 수 있다. 또한, 사용자가 메타데이터(265)에 대한 정보를 조건으로 검색을 요청할 경우, 얼굴 검색 시스템(10)은 이를 기준으로 하여 검색을 수행할 수 있다.The metadata 265 generated by the detection information generator 250 may function as data for the face image data 261 or the divided image data 263. If the user searches for an image or an image of a specific search target, the face search system 10 may not only face image data 261 or the divided image data 263 of the search target but also metadata 265 thereof. You can also search together. In addition, when the user requests a search based on the information on the metadata 265, the face search system 10 may perform the search based on this.

탐지 정보 생성부(250)에 의해 생성된 메타데이터는 도 3에 도시된 바와 같이 얼굴 정보(260) 중 탐지 날짜 데이터(266), 탐지 시간 데이터(267) 및 영상 촬영부 정보 데이터(268) 중 적어도 하나를 포함할 수 있다. 그러나 이에 한정되는 것은 아니며, 메타데이터(265)는 얼굴이 탐지된 환경과 관련된 임의의 정보를 포함할 수 있다.As shown in FIG. 3, the metadata generated by the detection information generator 250 may include the detection date data 266, the detection time data 267, and the image capturing information 268 of the face information 260. It may include at least one. However, the present invention is not limited thereto, and the metadata 265 may include any information related to an environment in which a face is detected.

다시 도 1을 참조하면, 얼굴 정보 저장부(300)는 얼굴 정보 생성부(200)에 의해 생성된 얼굴 정보(260)를 저장한다. 얼굴 정보(260)는 영상 촬영부(100)에 의해 촬영된 영상 또는 이를 캡쳐한 이미지 중 얼굴이 탐지될 때 생성되므로, 얼굴 정보 저장부(300)는 복수의 탐지 대상자로부터 복수의 얼굴 정보(260)를 저장할 수 있다. 얼굴 정보(260)가 누적됨에 따라 얼굴 정보 저장부(300)는 대용량의 얼굴 정보 데이터베이스를 구축할 수 있다. 구축된 얼굴 정보 데이터베이스는 사용자에 의해 입력된 쿼리에 의해 검색을 수행할 수 있으며 이와 관련해서는 하기에서 상세히 설명한다.Referring back to FIG. 1, the face information storage unit 300 stores the face information 260 generated by the face information generator 200. Since the face information 260 is generated when a face is detected in the image photographed by the image capturing unit 100 or the image captured by the image capturing unit 100, the face information storage unit 300 receives a plurality of face information 260 from a plurality of detection targets. ) Can be stored. As the face information 260 accumulates, the face information storage unit 300 may build a large face information database. The constructed face information database may perform a search by a query input by a user, which will be described in detail below.

쿼리 입력부(400)는 사용자로부터 검색 대상자에 대한 쿼리를 수신한다. 쿼리(Query)는 얼굴이 탐지된 영상 또는 이미지를 검색하기 위한 검색 조건이다. 얼굴 정보 저장부(300)에 저장된 대용량의 얼굴 정보 데이터베이스를 사용자가 직접 확인하는 것은 한계가 있으므로, 쿼리를 이용하여 빠르고 정확한 검색을 수행할 수 있다.The query input unit 400 receives a query for a search target from a user. A query is a search condition for searching for an image or an image in which a face is detected. Since a user directly checks the large-scale face information database stored in the face information storage unit 300, there is a limit, and thus, a quick and accurate search can be performed using a query.

쿼리는 키워드에 의한 쿼리(Query-by-keyword) 및 예제에 의한 쿼리(Query-by-example)를 포함할 수 있다. 키워드에 의한 쿼리는 키워드를 이용하여 검색을 수행하는 것으로, 키워드는 얼굴 정보(260) 중 탐지 날짜 데이터, 탐지 시간 데이터 및 영상 촬영부 정보 데이터와 관련된 것일 수 있다. 예를 들어, 키워드는 `2010년 11월 1일`, `오후 10시~오후 11시` 및 `3번 CCTV`일 수 있다.The query may include a query-by-keyword and a query-by-example. The query by keyword is a search performed by using a keyword, and the keyword may be related to detection date data, detection time data, and image capturing unit information data in the face information 260. For example, the keywords may be 'November 1, 2010', '10 pm to 11 pm ', and' 3 CCTV '.

또한, 예제에 의한 쿼리는 정지 영상 또는 동영상을 이용하여 검색을 수행하는 것으로, 사용자는 검색하고자 하는 대상에 대한 정지 영상 또는 동영상을 이용하여 검색을 수행할 수 있다.In addition, the query according to the example is to perform a search using a still image or a video, and a user may perform a search using a still image or a video of a target to be searched.

얼굴 검색부(500)는 쿼리 입력부(400)에 의해 수신된 쿼리에 기초하여 얼굴 정보 저장부(300)에 저장된 얼굴 정보(260)에 대한 검색을 수행한다. 쿼리는 키워드에 의한 쿼리 및 예제에 의한 쿼리를 포함할 수 있으므로, 얼굴 검색부(500)는 쿼리에 따라 다른 방법을 이용하여 검색을 수행할 수 있다. 이와 관련해서는 도 4를 참조하여 상세히 설명한다.The face search unit 500 searches for the face information 260 stored in the face information storage unit 300 based on the query received by the query input unit 400. Since the query may include a query by keyword and a query by example, the face search unit 500 may perform a search by using a different method according to the query. This will be described in detail with reference to FIG. 4.

도 4는 본 발명의 일실시예에 따른 얼굴 검색 알고리즘을 도시한 순서도이다.4 is a flowchart illustrating a face search algorithm according to an embodiment of the present invention.

얼굴 검색부(500)는 먼저 예제에 의한 쿼리인지 판단한다(S100). 사용자가 이미지 또는 영상을 입력한 경우 예제에 의한 쿼리로 판단하고, 키워드를 입력한 경우 키워드에 의한 쿼리로 판단한다.The face search unit 500 first determines whether the query is an example (S100). When the user inputs an image or a video, it is determined as a query by an example, and when a keyword is input, it is determined as a query by a keyword.

쿼리가 예제에 의한 쿼리로 판단된 경우, 정지 영상이 입력된 것인지 판단한다(S110). 예제에 의한 쿼리는 정지 영상의 입력과 동영상 입력을 포함할 수 있으므로, 입력된 대상이 정지 영상인지 동영상인지에 대해 판단한다.If it is determined that the query is a query by example, it is determined whether a still image is input (S110). The query according to the example may include input of a still image and input of a video, and thus, it is determined whether the input target is a still image or a video.

정지 영상이 아닌 동영상이 입력된 경우 동영상을 캡쳐한 후 얼굴 탐지를 수행한다(S120, S130). 또한, 정지 영상이 입력된 경우, 정지 영상에 대한 얼굴 탐지를 수행한다(S130). 본 발명에 따른 얼굴 검색 시스템(10)은 탐지 대상자의 얼굴을 생체 특징으로 하여 검색을 수행하므로, 얼굴 검색부(500)는 사용자에 의해 입력된 정지 영상 중 얼굴 이미지를 탐지한다. 얼굴 탐지는 Haar-like feature 방법 등을 이용하여 수행할 수 있다.If a video other than a still image is input, face detection is performed after capturing the video (S120 and S130). In addition, when a still image is input, face detection is performed on the still image (S130). Since the face retrieval system 10 according to the present invention performs a search using a face of a subject as a biometric feature, the face retrieval unit 500 detects a face image among still images input by a user. Face detection can be performed using a Haar-like feature method.

얼굴 탐지가 완료되면, 특징 벡터를 추출한다(S140). 특징 벡터 추출은 NMF(non-negative matrix factorization) 알고리즘 등을 이용하여 수행할 수 있다. 이 경우, 특징 벡터 추출은 얼굴 정보 생성부(200)에 의해 사용된 추출 방법과 동일한 방법을 사용한 것일 수 있다.When face detection is completed, a feature vector is extracted (S140). Feature vector extraction may be performed using a non-negative matrix factorization (NMF) algorithm. In this case, the feature vector extraction may use the same method as the extraction method used by the face information generator 200.

다음으로, SR 알고리즘을 이용한 검색을 수행한다(S150). 이와 관련해서는 도 5를 참조하여 설명한다.Next, a search using the SR algorithm is performed (S150). This will be described with reference to FIG. 5.

도 5는 본 발명의 일실시예에 따른 SR 알고리즘을 나타낸 도면이다.5 is a diagram illustrating an SR algorithm according to an embodiment of the present invention.

도 5를 참조하면, 먼저 얼굴 정보 저장부(300)에 저장된 얼굴 정보(260)를 이용하여 행렬 A를 생성한다. 구체적으로 얼굴 정보 저장부(300)에 저장된 얼굴 정보(260) 중 특징 벡터 데이터를 이용하여 n차원을 가지는 고차원 데이터 행렬 A를 생성한다. 행렬 A의 각각의 열 데이터는 얼굴 정보 각각에 대한 특징 벡터일 수 있다. 예를 들어, i개의 클래스, n개의 얼굴 정보(260)로부터 행렬 A를 생성할 경우, i번째 클래스에 속하는 n번째 학습 이미지 특징 벡터는 행렬

Figure 112010073640140-pat00001
의 열로 정렬 될 수 있다. 사용자로부터 입력된 이미지로부터 추출된 특징 벡터가 y라면 y는 A에 대한 하기 수학식 1로 표현될 수 있다.Referring to FIG. 5, first, a matrix A is generated by using face information 260 stored in the face information storage unit 300. In detail, a high dimensional data matrix A having n dimensions is generated using the feature vector data among the face information 260 stored in the face information storage unit 300. Each column data of the matrix A may be a feature vector for each face information. For example, when generating the matrix A from the i class, n face information 260, the n th training image feature vector belonging to the i th class is matrix
Figure 112010073640140-pat00001
Can be sorted in columns. If the feature vector extracted from the image input from the user is y, y may be represented by Equation 1 for A.

[수학식 1][Equation 1]

Figure 112010073640140-pat00002
Figure 112010073640140-pat00002

수학식 1에서 x는 계수 벡터(coefficient vector)이다. 특징 벡터가 클래스 i에 속한다면, 계수 벡터 x는 i와 관련된 학습 데이터 값을 제외하고는 0 또는 0에 근사한 값을 갖고, 하기 수학식 2와 같이 표현된다.In Equation 1, x is a coefficient vector. If the feature vector belongs to class i, the coefficient vector x has a value equal to 0 or 0 except for the training data value associated with i, and is represented by Equation 2 below.

[수학식 2][Equation 2]

Figure 112010073640140-pat00003
Figure 112010073640140-pat00003

수학식 2는 수학식 1을 풀어 x값을 얻을 수 있으며, x의 최적해(optimization)를 구하는 문제로 변경할 수 있다.Equation 2 can be solved by solving Equation 1 to obtain an x value, and may be changed to a problem of obtaining an optimization of x.

[수학식 3]&Quot; (3) "

Figure 112010073640140-pat00004
Figure 112010073640140-pat00004

수학식 3을 이용하여 해를 찾는 것은 NP-hard 문제이며 해를 찾기 어렵다. 그러나 만약 x의 해가 충분히 스파스(sparse)하다면,

Figure 112010073640140-pat00005
-노름(norm) 최소화 문제(수학식 3)는 다음 컨벡스 관련 최적화 문제를 이용하여, 근사해인
Figure 112010073640140-pat00006
-노름 최소화 문제로 풀 수 있다.Finding a solution using Equation 3 is an NP-hard problem and difficult to find. But if the solution of x is sparse enough,
Figure 112010073640140-pat00005
The norm minimization problem (Equation 3) is approximated using the following convex-related optimization problem.
Figure 112010073640140-pat00006
Can be solved by the problem of minimizing gambling.

[수학식 4]&Quot; (4) "

Figure 112010073640140-pat00007
Figure 112010073640140-pat00007

얼굴 검색부(500)는 상대적으로 높은 값을 갖는 클래스에 해당하는 검색 대상자를 추출할 수 있다.The face search unit 500 may extract a search target person corresponding to a class having a relatively high value.

SR(sparse representation) 알고리즘을 이용할 경우 다양한 조명 변화, 원 이미지에 다른 이미지가 겹치거나 변장한 경우, 원 이미지가 변질된 경우, 저해상도 등 인식 성능을 저해하는 다양한 환경에서도 정면 얼굴 이미지를 차원 축소 방법을 사용하지 않고서도 매우 높은 얼굴 인식률을 보장한다는 장점이 있다.When using the SR (Sparse Representation) algorithm, the front face image is reduced in various environments such as various lighting changes, overlapping or disguising other images on the original image, altering the original image, and low resolution. It has the advantage of ensuring a very high face recognition rate without using it.

다음으로, 검색 결과를 디스플레이부(600)로 전송한다(S160). 검색 결과는 검색 대상자에 대한 모든 얼굴 정보를 포함할 수 있다. 예를 들어, 검색 결과는 검색 대상자의 얼굴 이미지 데이터, 특징 벡터 데이터, 분할 영상 데이터, 탐지 날짜 데이터, 탐지 시간 데이터, 영상 촬영부 정보 데이터 등을 포함할 수 있다. 전송된 검색 결과는 디스플레이부(600)에 의해 디스플레이된다.Next, the search result is transmitted to the display unit 600 (S160). The search result may include all face information about the search subject. For example, the search result may include face image data, feature vector data, split image data, detection date data, detection time data, image capturing unit information data, and the like of the search target. The transmitted search result is displayed by the display unit 600.

한편 도 4에 도시된 바와 같이, 사용자로부터 예제에 의한 쿼리가 아닌 키워드에 의한 쿼리가 수신된 경우, 메타데이터를 이용한 검색을 수행한다(S170). On the other hand, as shown in Figure 4, when the query by the keyword is received from the user instead of the query by the example, the search using the metadata is performed (S170).

키워드는 얼굴 정보 중 탐지 날짜 데이터, 탐지 시간 데이터 및 영상 촬영부 정보 데이터와 관련된 것일 수 있다. 예를 들어, 키워드가 `2010년 11월 1일`, `오후 10시~오후 11시` 및 `3번 CCTV`인 경우, 얼굴 검색부(500)는 얼굴 정보 저장부(300)를 검색하여 키워드 조건에 대응하는 얼굴 정보를 검색할 수 있다. 검색된 얼굴 정보는 예제에 의한 쿼리와 동일하게 디스플레이부(600)로 전송된다.The keyword may be related to detection date data, detection time data, and image capturing unit information data in the face information. For example, when the keywords are 'November 1, 2010', '10 pm to 11 pm ', and' 3 CCTV ', the face search unit 500 searches for the face information storage unit 300. The face information corresponding to the keyword condition may be searched for. The retrieved face information is transmitted to the display unit 600 in the same manner as the query by the example.

사용자는 키워드뿐만 아니라 정지 영상 또는 동영상을 쿼리로 이용하여 얼굴 검색을 수행할 수 있으므로, 대용량의 얼굴 정보 데이터베이스 처리에 용이하다는 장점이 있다.The user can perform a face search using not only a keyword but also a still image or a video as a query, which is advantageous in processing a large face information database.

또한, 동영상을 쿼리로 이용하여 얼굴 검색을 수행하는 경우, CCTV와 같은 감시 장치와 결합하여 실시간으로 특정인에 대한 검색을 실시할 수 있다. 예를 들어, 범죄 용의자에 대한 얼굴 정보를 데이터베이스에 저장한 후, 실시간 CCTV를 통해 감지된 인물 중에 데이터베이스에 저장된 범죄 용의자와 동일한 인물이 있는지 자동으로 검색할 수 있다.In addition, when performing a face search using a video as a query, it is possible to perform a search for a specific person in real time by combining with a surveillance device such as CCTV. For example, after storing face information about a suspect in a database, the detected person can be automatically searched for the same person as the suspect in the database.

또한, 새로운 얼굴 정보가 추가되더라도, 얼굴 검색 시 모든 얼굴 정보에 대해 재학습을 수행할 필요 없이, 기생성된 행렬에 새로운 얼굴 정보에 대한 학습 결과만 열 데이터로 추가하면 되므로, 확장성이 뛰어나며, 대용량의 이미지 처리에 유리하다는 장점이 있다.In addition, even if new face information is added, the face search does not need to relearn all the face information, and only the learning results of the new face information need to be added as column data to the parametric matrix. There is an advantage that it is advantageous for processing a large amount of images.

다시 도 1을 참조하면, 디스플레이부(600)는 얼굴 검색부(500)에 의해 검색된 얼굴 정보를 디스플레이한다. 이와 관련해서는 도 6을 참조하여 상세히 설명한다.Referring back to FIG. 1, the display unit 600 displays face information retrieved by the face searching unit 500. This will be described in detail with reference to FIG. 6.

도 6은 본 발명의 일실시예에 따른 디스플레이부를 나타낸 도면이다.6 is a view showing a display unit according to an embodiment of the present invention.

도 6은 예제에 의한 쿼리 중 영상을 입력한 경우에 대한 디스플레이부(600)를 나타낸다. 디스플레이부(600)는 입력 영상 표시부(610), 입력 이미지 표시부(620), 입력 얼굴 이미지 표시부(630), 검색 이미지 표시부(640), 검색 영상 표시부(650) 및 검색 메타데이터 표시부(660)를 포함한다.6 illustrates the display unit 600 when a video is input during the query. The display unit 600 includes an input image display unit 610, an input image display unit 620, an input face image display unit 630, a search image display unit 640, a search image display unit 650, and a search metadata display unit 660. Include.

입력 영상 표시부(610), 입력 이미지 표시부(620) 및 입력 얼굴 이미지 표시부(630)는 쿼리 입력부(400)에 의해 수신한 입력 영상과 얼굴 검색부(500)에 의해 캡쳐되고 얼굴 탐지가 수행된 이미지를 디스플레이한다. 사용자가 입력 영상 표시부(610)에 도시된 바와 같이 영상을 입력하면, 입력 이미지 표시부(620)에 도시된 정지 영상으로 캡쳐되고, 탐지된 얼굴 이미지가 입력 얼굴 이미지 표시부(630)에 디스플레이된다. 이와 관련해서는 상기에서 상세히 설명하였다.The input image display unit 610, the input image display unit 620, and the input face image display unit 630 are input images received by the query input unit 400 and images captured by the face search unit 500 and face detection is performed. Is displayed. When a user inputs an image as shown in the input image display unit 610, it is captured as a still image shown in the input image display unit 620, and the detected face image is displayed on the input face image display unit 630. This has been described in detail above.

검색 이미지 표시부(640), 검색 영상 표시부(650) 및 검색 메타데이터 표시부(660)는 얼굴 검색부(500)에 의해 검색이 완료된 얼굴 정보를 도시한다. 검색 이미지 표시부(640)는 얼굴 검색부(500)에 의해 검색된 얼굴 정보(260) 중 얼굴 이미지 데이터(261)를 디스플레이하고, 검색 영상 표시부(650)는 얼굴 정보(260) 중 분할 영상 데이터(263)를 디스플레이한다. 또한, 메타데이터 표시부(660)는 검색된 얼굴 정보(260) 중 메타데이터(265)를 디스플레이한다. 예를 들어 메타데이터 표시부(660)는 얼굴 정보(260) 중 영상 촬영부 정보 데이터(268), 탐지 날짜 데이터(266) 및 탐지 시간 데이터(267)를 디스플레이할 수 있다(661, 662, 663).The search image display unit 640, the search image display unit 650, and the search metadata display unit 660 show face information on which the search is completed by the face search unit 500. The search image display unit 640 displays the face image data 261 of the face information 260 searched by the face search unit 500, and the search image display unit 650 displays the divided image data 263 of the face information 260. ) Is displayed. In addition, the metadata display unit 660 displays the metadata 265 of the found face information 260. For example, the metadata display unit 660 may display the image capturing unit information data 268, the detection date data 266, and the detection time data 267 among the face information 260 (661, 662, 663). .

도 7은 본 발명의 일실시예에 따른 얼굴 검색 누적 정확도를 도시한다.7 illustrates face search cumulative accuracy according to an embodiment of the present invention.

도 7은 본 발명의 일실시예에 따른 얼굴 검색 시스템의 검색 성능을 나타낸다. 실험에서 얼굴 정보 데이터베이스는 총 28명, 한 명당 15장의 얼굴 이미지를 이용하여 수집하였다. 얼굴 정보 데이터베이스에 사용된 얼굴 이미지와 다른 이미지를 한 명당 15장씩 준비한 후, 이를 쿼리로 사용하여 검색 성능을 테스트하였다. 예제에 의한 질의를 이용한 검색 결과 첫 번째 추천 이미지의 정확도는 도 7에 도시된 바와 같이 99.5%의 높은 성능을 기록하였다.7 illustrates a search performance of the face search system according to an embodiment of the present invention. In the experiment, the face information database was collected using a total of 28 face images and 15 face images per person. After preparing 15 images of each face and other images used in the face information database, we used this as a query to test the search performance. As a result of the search using the example query, the accuracy of the first recommendation image recorded a high performance of 99.5% as shown in FIG. 7.

도 8은 본 발명의 일실시예에 따른 얼굴 검색 방법을 도시한 순서도이다.8 is a flowchart illustrating a face searching method according to an embodiment of the present invention.

먼저, 얼굴 정보를 수집한다(S200).First, face information is collected (S200).

탐지 대상을 촬영한 영상으로부터 얼굴 정보를 수집한다. 탐지 대상은 불특정 대상 예컨대 임의의 사람이나 사물일 수 있으며, CCTV와 같은 영상 생성 장치를 이용하여 촬영할 수 있다. 얼굴 정보는 얼굴 이미지 데이터, 특징 벡터 데이터, 분할 영상 데이터 및 메타데이터를 포함한다.Face information is collected from the image of the detection target. The detection target may be an unspecified object such as an arbitrary person or an object, and may be photographed using an image generating device such as CCTV. The face information includes face image data, feature vector data, segmented image data, and metadata.

촬영된 영상은 캡쳐 이미지로 캡쳐된 후, 얼굴 영역이 탐지된다. 켭쳐 이미지를 기초로 얼굴 영역이 분할된 얼굴 이미지가 생성된다. 또한, 얼굴 이미지에 대해 특징 벡터를 추출한다. 특징 벡터는 예컨대, NMF(non-negative matrix factorization) 알고리즘 등을 사용하여 추출될 수 있다. 한편, 촬영된 영상 중 얼굴이 탐지된 영상에 대해 분할된 분할 영상을 생성한다. 분할 영상은 촬영된 영상을 시간적으로 분할하여 생성된 것일 수 있다.The captured image is captured as a captured image, and then a face region is detected. When turned on, a face image in which the face area is divided based on the image is generated. In addition, a feature vector is extracted from the face image. The feature vector may be extracted using, for example, a non-negative matrix factorization (NMF) algorithm. Meanwhile, the divided image is generated from the image of the face of the captured image. The divided image may be generated by dividing the captured image in time.

또한, 영상에 대한 얼굴 탐지 정보를 이용하여 메타데이터를 생성한다. 메타데이터는 얼굴 탐지에 대한 시간적, 공간적 환경에 관한 데이터로서, 시간적 환경은 탐지 날짜 정보, 탐지 시간 정보 등을 포함할 수 있으며, 공간적 환경은 영상 촬영부 정보 등을 포함할 수 있다. 메타데이터는 탐지 날짜 데이터, 탐지 시간 데이터 및 영상 촬영부 정보 데이터 중 적어도 하나를 포함할 수 있다.In addition, metadata is generated using face detection information of an image. The metadata is data regarding temporal and spatial environments for face detection, and the temporal environment may include detection date information, detection time information, and the like, and the spatial environment may include image capturing information. The metadata may include at least one of detection date data, detection time data, and image capturing unit information data.

다음으로, 검색 대상자에 대한 쿼리를 수신한다(S210).Next, a query for a search target is received (S210).

쿼리(Query)는 얼굴이 탐지된 영상 또는 이미지를 검색하기 위한 검색 조건으로 키워드에 의한 쿼리(Query-by-keyword) 및 예제에 의한 쿼리(Query-by-example)를 포함할 수 있다. 키워드에 의한 쿼리는 키워드를 이용하여 검색을 수행하는 것이고, 예제에 의한 쿼리는 동영상 또는 정지 영상을 이용하여 검색을 수행하는 것이다.A query is a search condition for searching for an image or an image in which a face is detected, and may include a query by keyword and a query by example. The query by keyword is to search by keyword, and the example query is to search by video or still image.

다음으로, 쿼리에 기초하여 수집된 얼굴 정보 중 검색 대상자에 대응되는 얼굴 정보를 검색한다(S220).Next, the face information corresponding to the search target is searched among the collected face information based on the query (S220).

수신된 쿼리에 기초하여 얼굴 정보에 대한 검색을 수행할 수 있다. 쿼리는 키워드에 의한 쿼리 및 예제에 의한 쿼리를 포함할 수 있으므로, 쿼리에 따라 다른 방법을 이용하여 검색을 수행할 수 있다. 이와 관련해서는 도 4를 참조하여 상세히 설명하였다.The face information may be searched based on the received query. The query can include a query by keyword and a query by example, so that the search can be performed using different methods depending on the query. This has been described in detail with reference to FIG. 4.

특히, 정지 영상을 쿼리로 수신한 경우, 정지 영상으로부터 특징 벡터를 추출하고, 수집된 얼굴 정보 중 특징 벡터 데이터 중에서 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색한다. 또한, 특징 벡터 데이터에 대한 검색은 SR(sparse representation) 알고리즘을 이용하여 수행할 수 있다. 이와 관련해서는 도 5를 참조하여 상세히 설명하였다.In particular, when the still image is received as a query, the feature vector is extracted from the still image, and the feature vector data corresponding to the extracted feature vector is searched among the collected feature vector data. In addition, the search for the feature vector data may be performed using a sparse representation (SR) algorithm. This has been described in detail with reference to FIG. 5.

다음으로, 검색된 얼굴 정보를 디스플레이 한다(S230).Next, the detected face information is displayed (S230).

수집되었던 얼굴 정보의 모든 데이터가 디스플레이될 수 있으며 이와 관련해서는 도 6을 참조하여 상세히 설명하였다.All data of the collected face information may be displayed, and this is described in detail with reference to FIG. 6.

참고로, 본 발명의 실시예에 따른 도 1 및 도 2에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.For reference, components shown in FIGS. 1 and 2 according to an embodiment of the present invention mean software components or hardware components such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and have a predetermined role. Perform them.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within those components may be combined into a smaller number of components or further separated into additional components.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

10: 얼굴 검색 시스템 100: 영상 촬영부
200: 얼굴 정보 생성부 210: 이미지 캡쳐부
220: 얼굴 탐지부 230: 얼굴 특징 추출부
240: 영상 분할부 250: 탐지 정보 생성부
260: 얼굴 정보 300: 얼굴 정보 저장부
400: 쿼리 입력부 500: 얼굴 검색부
600: 디스플레이부
10: face detection system 100: video recording unit
200: face information generation unit 210: image capture unit
220: face detection unit 230: facial feature extraction unit
240: Image segmentation unit 250: Detection information generation unit
260: face information 300: face information storage unit
400: query input unit 500: face search unit
600: display unit

Claims (14)

얼굴 검색 시스템에 있어서,
탐지 대상을 촬영한 영상으로부터 수집된 얼굴 정보가 저장된 얼굴 정보 저장부,
검색 대상자에 대한 쿼리를 수신하는 쿼리 입력부 및
상기 수신된 쿼리에 기초하여 상기 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 얼굴 검색부를 포함하되,
상기 쿼리는 키워드, 정지 영상 및 동영상 중 적어도 어느 하나를 포함하고,
상기 수신된 쿼리가 동영상 또는 정지 영상인 경우, 상기 얼굴 검색부는 SR(sparse representation) 알고리즘에 따라 검색을 수행하는 것인 얼굴 검색 시스템.
In the face search system,
A face information storage unit storing face information collected from an image of a detection target;
A query input that receives a query for the search target, and
A face searching unit searching for face information corresponding to the search target among the face information based on the received query,
The query includes at least one of a keyword, a still image, and a video.
And if the received query is a moving picture or a still image, the face search unit performs a search according to a sparse representation algorithm.
제 1 항에 있어서,
상기 얼굴 정보는,
상기 촬영한 영상으로부터 캡쳐한 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 생성한 얼굴 이미지 데이터,
상기 얼굴 이미지 데이터로부터 추출한 특징 벡터 데이터,
상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 생성한 분할 영상 데이터 및
상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 생성한 메타데이터
를 포함하는 얼굴 검색 시스템.
The method of claim 1,
The face information is,
Face image data generated by dividing an area where a face is detected among captured images captured from the captured image;
Feature vector data extracted from the face image data;
Divided image data generated by temporally dividing an image of a face detected among the photographed images;
Metadata generated using face detection information of the captured image
Face search system comprising a.
제 2 항에 있어서,
상기 메타데이터는,
상기 캡쳐 이미지로부터 얼굴이 탐지된 날짜를 나타내는 탐지 날짜 데이터,
상기 캡쳐 이미지로부터 얼굴이 탐지된 시간을 나타내는 탐지 시간 데이터 및
상기 탐지 대상을 촬영한 장치에 관한 정보를 나타내는 영상 촬영부 정보 데이터 중 적어도 하나를 포함하는 얼굴 검색 시스템.
The method of claim 2,
The metadata,
Detection date data indicating a date when a face was detected from the captured image;
Detection time data indicating a time when a face was detected from the captured image;
And at least one of image capturing unit information data representing information about a device photographing the detection target.
제 2 항에 있어서,
상기 수신된 쿼리가 정지 영상인 경우,
상기 얼굴 검색부는 상기 정지 영상으로부터 특징 벡터를 추출하고, 상기 얼굴 정보 저장부에 저장된 상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 얼굴 검색 시스템.
The method of claim 2,
If the received query is a still image,
And a face search unit extracting a feature vector from the still image and searching for feature vector data corresponding to the extracted feature vector among the feature vector data stored in the face information storage unit.
제 2 항에 있어서,
상기 수신된 쿼리가 동영상인 경우,
상기 얼굴 검색부는 상기 동영상을 캡쳐하고, 상기 동영상의 캡쳐 이미지로부터 특징 벡터를 추출하고, 상기 얼굴 정보 저장부에 저장된 상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 얼굴 검색 시스템.
The method of claim 2,
If the received query is a video,
The face search unit captures the video, extracts a feature vector from the captured image of the video, and searches a feature vector data corresponding to the extracted feature vector among the feature vector data stored in the face information storage unit. system.
제 2 항에 있어서,
상기 수신된 쿼리가 키워드인 경우,
상기 얼굴 검색부는 상기 얼굴 정보 저장부에 저장된 메타데이터 중 상기 키워드에 대응되는 메타데이터를 검색하는 얼굴 검색 시스템.
The method of claim 2,
If the received query is a keyword,
And the face searching unit searches for metadata corresponding to the keyword among metadata stored in the face information storage unit.
삭제delete 제 1 항에 있어서,
상기 검색된 얼굴 정보를 디스플레이하는 디스플레이부를 더 포함하는 얼굴 검색 시스템.
The method of claim 1,
And a display unit which displays the retrieved face information.
얼굴 검색 방법에 있어서,
탐지 대상을 촬영한 영상으로부터 얼굴 정보를 수집하는 단계,
검색 대상자에 대한 정지 영상을 수신하는 단계 및
상기 수신한 정지 영상에 기초하여 상기 수집된 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 단계를 포함하되,
상기 얼굴 정보는,
상기 촬영한 영상으로부터 캡쳐한 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 생성한 얼굴 이미지 데이터,
상기 얼굴 이미지 데이터로부터 추출한 특징 벡터 데이터,
상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 생성한 분할 영상 데이터 및
상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 생성한 메타데이터를 포함하고,
상기 얼굴 정보를 검색하는 단계는,
상기 수신된 정지 영상으로부터 특징 벡터를 추출하는 단계 및
상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 단계를 포함하며,
상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 단계는 SR(sparse representation) 알고리즘에 따라 검색을 수행하는 것인 얼굴 검색 방법.
In the face search method,
Collecting face information from an image of the detection target;
Receiving a still image for the search target; and
Searching for face information corresponding to the search target among the collected face information based on the received still image;
The face information is,
Face image data generated by dividing an area where a face is detected among captured images captured from the captured image;
Feature vector data extracted from the face image data;
Divided image data generated by temporally dividing an image of a face detected among the photographed images;
Include metadata generated by using the face detection information for the captured image,
Searching for the face information,
Extracting a feature vector from the received still image; and
Retrieving feature vector data corresponding to the extracted feature vector from the feature vector data;
And retrieving feature vector data corresponding to the extracted feature vector from the feature vector data is performing a search according to a sparse representation algorithm.
제 9 항에 있어서,
상기 얼굴 정보를 수집하는 단계는,
탐지 대상을 촬영한 영상을 캡쳐하여 캡쳐 이미지를 생성하는 단계,
상기 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 얼굴 이미지 데이터를 생성하는 단계,
상기 얼굴 이미지로부터 특징 벡터 데이터를 추출하는 단계,
상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 분할 영상 데이터를 생성하는 단계 및
상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 메타데이터를 생성하는 단계
를 포함하는 얼굴 검색 방법.
The method of claim 9,
Collecting the face information,
Generating a captured image by capturing an image of a detection target;
Generating face image data by dividing an area where a face is detected among the captured images;
Extracting feature vector data from the face image;
Generating segmented image data by temporally dividing an image of a face detected from the photographed images;
Generating metadata using face detection information of the captured image;
Face detection method comprising a.
제 9 항에 있어서,
상기 메타데이터는,
상기 캡쳐 이미지로부터 얼굴이 탐지된 날짜를 나타내는 탐지 날짜 데이터,
상기 캡쳐 이미지로부터 얼굴이 탐지된 시간을 나타내는 탐지 시간 데이터 및
상기 탐지 대상을 촬영한 장치에 관한 정보를 나타내는 영상 촬영부 정보 데이터 중 적어도 하나를 포함하는 얼굴 검색 방법.
The method of claim 9,
The metadata,
Detection date data indicating a date when a face was detected from the captured image;
Detection time data indicating a time when a face was detected from the captured image;
And at least one of image capturing unit information data representing information about a device photographing the detection target.
삭제delete 삭제delete 삭제delete
KR1020100112029A 2010-11-11 2010-11-11 Face searching system and method based on face recognition KR101170676B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100112029A KR101170676B1 (en) 2010-11-11 2010-11-11 Face searching system and method based on face recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100112029A KR101170676B1 (en) 2010-11-11 2010-11-11 Face searching system and method based on face recognition

Publications (2)

Publication Number Publication Date
KR20120050660A KR20120050660A (en) 2012-05-21
KR101170676B1 true KR101170676B1 (en) 2012-08-07

Family

ID=46268019

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100112029A KR101170676B1 (en) 2010-11-11 2010-11-11 Face searching system and method based on face recognition

Country Status (1)

Country Link
KR (1) KR101170676B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039277B1 (en) 2018-12-07 2019-10-31 장승현 Pedestrian face recognition system and method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6299299B2 (en) * 2014-03-14 2018-03-28 オムロン株式会社 Event detection apparatus and event detection method
CN113050464A (en) * 2019-12-27 2021-06-29 广州市双敏电子产品有限公司 Intelligent monitoring method and system based on Internet of things
CN117812381A (en) * 2023-12-05 2024-04-02 世优(北京)科技有限公司 Video content making method based on artificial intelligence

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039277B1 (en) 2018-12-07 2019-10-31 장승현 Pedestrian face recognition system and method thereof

Also Published As

Publication number Publication date
KR20120050660A (en) 2012-05-21

Similar Documents

Publication Publication Date Title
KR102560308B1 (en) System and method for exterior search
Sun et al. SG-FCN: A motion and memory-based deep learning model for video saliency detection
CN111291633B (en) Real-time pedestrian re-identification method and device
US9208226B2 (en) Apparatus and method for generating evidence video
US10025854B2 (en) Video searching
Ding et al. Violence detection in video by using 3D convolutional neural networks
US9176987B1 (en) Automatic face annotation method and system
US11527000B2 (en) System and method for re-identifying target object based on location information of CCTV and movement information of object
JP6516832B2 (en) Image retrieval apparatus, system and method
US11256945B2 (en) Automatic extraction of attributes of an object within a set of digital images
KR20180015101A (en) Method and apparatus of extracting region-of-interest video in source video
KR101170676B1 (en) Face searching system and method based on face recognition
CN111241872A (en) Video image shielding method and device
Fritz et al. Generalization ability of region proposal networks for multispectral person detection
Khan et al. Dimension invariant model for human head detection
CN112949539A (en) Pedestrian re-identification interactive retrieval method and system based on camera position
Krishna et al. Hybrid method for moving object exploration in video surveillance
e Souza et al. Survey on visual rhythms: A spatio-temporal representation for video sequences
CN104680143B (en) A kind of fast image retrieval method for video investigation
CN107729379B (en) Specific vehicle retrieval method based on deep learning algorithm
Kansal et al. CARF-Net: CNN attention and RNN fusion network for video-based person reidentification
Nautiyal et al. An automated technique for criminal face identification using biometric approach
Malik et al. A Simplified Skeleton Joints Based Approach For Human Action Recognition
US11403880B2 (en) Method and apparatus for facilitating identification
Bouma et al. Video content analysis on body-worn cameras for retrospective investigation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151026

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160615

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee