KR101170676B1 - Face searching system and method based on face recognition - Google Patents
Face searching system and method based on face recognition Download PDFInfo
- Publication number
- KR101170676B1 KR101170676B1 KR1020100112029A KR20100112029A KR101170676B1 KR 101170676 B1 KR101170676 B1 KR 101170676B1 KR 1020100112029 A KR1020100112029 A KR 1020100112029A KR 20100112029 A KR20100112029 A KR 20100112029A KR 101170676 B1 KR101170676 B1 KR 101170676B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- image
- information
- search
- feature vector
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명의 얼굴 검색 시스템은, 탐지 대상을 촬영한 영상으로부터 수집된 얼굴 정보가 저장된 얼굴 정보 저장부, 검색 대상자에 대한 쿼리를 수신하는 쿼리 입력부 및 상기 수신된 쿼리에 기초하여 상기 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 얼굴 검색부를 포함하되, 상기 쿼리는 키워드, 정지 영상 및 동영상 중 적어도 어느 하나를 포함한다.The face search system of the present invention includes a face information storage unit storing face information collected from an image of a detection target, a query input unit receiving a query for a search target, and the search among the face information based on the received query. A face search unit for searching for face information corresponding to the target person, wherein the query includes at least one of a keyword, a still image, and a video.
Description
본 발명은 얼굴 인식 기반의 얼굴 검색 시스템 및 그 방법에 관한 것이다.The present invention relates to a face recognition system based on face recognition and a method thereof.
최근 공항, 항만, 연구소 또는 특수 시설물 등에 CCTV를 이용한 영상 감시에 수요가 급속하게 증가하였다. 이와 같이 특정 지역의 보안 및 감시를 위한 영상 감시 시스템에서 가장 중요한 요소 중 하나는 관리자가 관심 있는 장면을 신속하고 정확하게 찾아주는 영상 검색 요소이다. 특히, 대용량으로 수집된 데이터베이스로부터 사람이 등장한 장면을 일일이 직접 확인하는 것은 한계가 있으므로, 빠르고 정확한 범죄 용의자 또는 특정 인물 검색을 지원하기 위해서는 사람이 등장한 장면에 대한 처리가 필요하였다. 즉 감시 영상 중 사람이 등장한 장면에 대해 선택적으로 처리하여 데이터베이스화하는 기술에 대한 수요가 있었다.Recently, the demand for video surveillance using CCTV in airports, harbors, research institutes or special facilities has increased rapidly. As such, one of the most important elements of a video surveillance system for security and surveillance in a specific area is a video search component that enables a manager to quickly and accurately find a scene of interest. In particular, since it is limited to directly check the scene where a person appeared from a large collection of databases, it was necessary to process the scene where a person appeared in order to support a quick and accurate search for a suspect or a specific person. In other words, there is a demand for a technology for selectively processing and databasening scenes of human appearance in surveillance images.
또한, 저장된 감시 영상에서 특정인에 대한 검색을 수행하기 위해 정지 영상을 이용한 질의 방법을 사용할 수 있다. 그러나 종래에는 탐지된 얼굴과 등록된 얼굴들과의 유사도를 비교하여 임계값보다 클 경우 등록된 얼굴과 동일한 사람의 얼굴로 판단하고, 임계값보다 작을 경우 등록된 다른 얼굴과의 비교를 반복하는 방식으로 이루어졌다. 그러나, 이러한 방식은 높은 인식률을 보장하는 반면, 처리속도가 느리기 때문에 대용량의 데이터베이스에서 실시간으로 인식작업을 수행해야 하는 검색 시스템에는 적합하지 못하다는 문제가 있었다. 따라서, 대용량의 데이터베이스에서 얼굴 인식 기반의 검색이 가능함과 동시에 높은 검색율을 갖는 새로운 형태의 시스템에 대한 필요성이 제기되어 왔다.In addition, a query method using a still image may be used to search for a specific person in the stored surveillance image. However, in the related art, the similarity between the detected face and the registered faces is compared to determine that the face of the same person as the registered face is larger than the threshold, and the comparison is repeated with other registered faces when smaller than the threshold. Was done. However, this method guarantees a high recognition rate, but has a problem that it is not suitable for a retrieval system that needs to perform recognition in real time on a large database because of its low processing speed. Accordingly, there is a need for a new type of system having a high retrieval rate while enabling face recognition based search in a large database.
본 발명은 전술한 필요에 위한 것으로, 키워드, 정지 영상 또는 동영상을 이용하여 얼굴 정보를 검색하는 시스템 및 그 방법을 제공하는 것을 목적으로 한다. An object of the present invention is to provide a system and method for retrieving face information using keywords, still images or moving images.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 얼굴 검색 시스템은, 탐지 대상을 촬영한 영상으로부터 수집된 얼굴 정보가 저장된 얼굴 정보 저장부, 검색 대상자에 대한 쿼리를 수신하는 쿼리 입력부 및 상기 수신된 쿼리에 기초하여 상기 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 얼굴 검색부를 포함하되, 상기 쿼리는 키워드, 정지 영상 및 동영상 중 적어도 어느 하나를 포함한다.As a technical means for achieving the above-described technical problem, the face retrieval system according to the first aspect of the present invention, the face information storage unit that stores the face information collected from the image photographing the detection target, the query for the search target And a face search unit that searches for face information corresponding to the search target among the face information based on the query input unit and the received query, wherein the query includes at least one of a keyword, a still image, and a video.
또한, 본 발명의 제 2 측면에 따른 얼굴 검색 방법은, 탐지 대상을 촬영한 영상으로부터 얼굴 정보를 수집하는 단계, 검색 대상자에 대한 정지 영상을 수신하는 단계 및 상기 수신한 정지 영상에 기초하여 상기 수집된 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 단계를 포함하되, 상기 얼굴 정보는, 상기 촬영한 영상으로부터 캡쳐한 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 생성한 얼굴 이미지 데이터, 상기 얼굴 이미지 데이터로부터 추출한 특징 벡터 데이터, 상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 생성한 분할 영상 데이터 및 상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 생성한 메타데이터를 포함한다.The face searching method according to the second aspect of the present invention may further include collecting face information from an image of an object to be detected, receiving a still image of a person to be searched, and collecting the face image based on the received still image. And searching for face information corresponding to the search target among the extracted face information, wherein the face information includes face image data generated by dividing an area where a face is detected among captured images captured from the captured image, And feature vector data extracted from face image data, divided image data generated by temporally dividing a face-detected image among the captured images, and metadata generated by using face detection information of the captured image.
또한, 본 발명의 제 3 측면에 따른 얼굴 정보의 저장 방법은, 탐지 대상을 촬영한 영상을 캡쳐하여 캡쳐 이미지를 생성하는 단계, 상기 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 얼굴 이미지 데이터를 생성하는 단계, 상기 얼굴 이미지로부터 특징 벡터 데이터를 추출하는 단계, 상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 분할 영상 데이터를 생성하는 단계 및 상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 메타데이터를 생성하는 단계를 포함하되, 상기 메타데이터는, 상기 캡쳐 이미지로부터 얼굴이 탐지된 날짜를 나타내는 탐지 날짜 데이터, 상기 캡쳐 이미지로부터 얼굴이 탐지된 시간을 나타내는 탐지 시간 데이터 및 상기 탐지 대상을 촬영한 장치에 관한 정보를 나타내는 영상 촬영부 정보 데이터 중 적어도 하나를 포함한다. In addition, the method for storing face information according to the third aspect of the present invention comprises: generating a captured image by capturing an image of a detection target; generating face image data by dividing an area where a face is detected among the captured images; Extracting feature vector data from the face image, time-dividing a face-detected image of the captured image to generate split image data, and using face detection information on the captured image. Generating metadata, wherein the metadata includes: detection date data indicating a date when a face was detected from the captured image, detection time data indicating a time when a face was detected from the captured image, and the detection target; At least one of image capturing unit information data indicating information about a device It includes.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자는 키워드뿐만 아니라 정지 영상 또는 동영상을 쿼리로 이용하여 얼굴 검색을 수행할 수 있으므로, 대용량의 얼굴 정보 데이터베이스 처리에 용이하다는 장점이 있다.According to any one of the above-described problem solving means of the present invention, the user can perform a face search using a still image or a video as a query as well as a keyword, there is an advantage that it is easy to process a large face information database.
또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, SR(sparse representation) 알고리즘을 이용할 경우 다양한 조명 변화, 원 이미지에 다른 이미지가 겹치거나 변장한 경우, 원 이미지가 변질된 경우, 저해상도 등 인식 성능을 저해하는 다양한 환경에서도 정면 얼굴 이미지를 차원 축소 방법을 사용하지 않고서도 매우 높은 얼굴 인식률을 보장한다는 장점이 있다.In addition, according to any one of the problem solving means of the present invention described above, when using the SR (sparse representation) algorithm, various lighting changes, when the other image overlaps or disguises the original image, when the original image is altered, low resolution, etc. Even in a variety of environments that impair recognition performance, there is an advantage of ensuring a very high face recognition rate without using the front face image reduction method.
또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 새로운 얼굴 정보가 추가되더라도, 얼굴 검색 시 모든 얼굴 정보에 대해 재학습을 수행할 필요 없이, 기생성된 행렬에 새로운 얼굴 정보에 대한 학습 결과만 열 데이터로 추가하면 되므로, 확장성이 뛰어나며, 대용량의 이미지 처리에 유리하다는 장점이 있다.In addition, according to any one of the above-described problem solving means of the present invention, even if new face information is added, learning about the new face information in the parasitic matrix, without having to re-learn all the face information during face search Since only the result needs to be added as column data, it is excellent in scalability and advantageous for processing a large amount of images.
또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 영상을 쿼리로 이용하여 얼굴 검색을 수행하는 경우, CCTV와 같은 감시 장치와 결합하여 실시간으로 특정인에 대한 검색을 실시할 수 있다.In addition, according to any one of the above-described problem solving means of the present invention, when performing a face search using the image as a query, it is possible to perform a search for a specific person in real time in combination with a monitoring device such as CCTV.
또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자가 특정 검색 대상자에 대한 이미지나 영상을 검색할 경우, 검색 대상자에 대한 이미지나 영상뿐만 아니라 이에 대한 메타데이터도 함께 검색할 수 있다는 장점이 있다. In addition, according to any one of the above-described problem solving means of the present invention, when a user searches for an image or video for a specific search target, it is possible to search not only the image or video for the search target, but also metadata thereof. There is an advantage.
도 1은 본 발명의 일실시예에 따른 얼굴 검색 시스템을 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 얼굴 정보 생성부를 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 얼굴 정보 데이터를 도시한 구조도이다.
도 4는 본 발명의 일실시예에 따른 얼굴 검색 알고리즘을 도시한 순서도이다.
도 5는 본 발명의 일실시예에 따른 SR 알고리즘을 나타낸 도면이다.
도 6은 본 발명의 일실시예에 따른 디스플레이부를 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 얼굴 검색 누적 정확도를 도시한다.
도 8은 본 발명의 일실시예에 따른 얼굴 검색 방법을 도시한 순서도이다.1 is a block diagram illustrating a face searching system according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating a face information generator according to an exemplary embodiment of the present invention.
3 is a structural diagram showing face information data according to an embodiment of the present invention.
4 is a flowchart illustrating a face search algorithm according to an embodiment of the present invention.
5 is a diagram illustrating an SR algorithm according to an embodiment of the present invention.
6 is a view showing a display unit according to an embodiment of the present invention.
7 illustrates face search cumulative accuracy according to an embodiment of the present invention.
8 is a flowchart illustrating a face searching method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . In addition, when a part is said to "include" a certain component, which means that it may further include other components, except to exclude other components unless otherwise stated.
도 1은 본 발명의 일실시예에 따른 얼굴 검색 시스템을 도시한 블록도이다. 또한, 도 2는 본 발명의 일실시예에 따른 얼굴 정보 생성부를 도시한 블록도이고, 도 3은 본 발명의 일실시예에 따른 얼굴 정보 데이터를 도시한 구조도이다.1 is a block diagram illustrating a face searching system according to an exemplary embodiment of the present invention. 2 is a block diagram illustrating a face information generation unit according to an embodiment of the present invention, and FIG. 3 is a structural diagram showing face information data according to an embodiment of the present invention.
본 발명의 일실시예에 따른 얼굴 검색 시스템(10)은 검색 대상자에 대한 쿼리를 키워드, 동영상 또는 정지 영상 형태로 수신하고, 수신된 쿼리를 기초로 SR(sparse representation) 알고리즘을 이용하여 얼굴 검색을 수행한다.The
특히, 본 발명의 일실시예에 따른 얼굴 검색 시스템(10)은 얼굴 정보(260)가 저장된 데이터베이스로부터 검색 대상자에 대한 얼굴 검색을 수행하며, 얼굴 정보(260)는 영상, 이미지 및 이에 대한 메타데이터를 포함한다.In particular, the
얼굴 검색 시스템(10)은 도 1에 도시된 바와 같이, 영상 촬영부(100), 얼굴 정보 생성부(200), 얼굴 정보 생성부(200), 얼굴 정보 저장부(300), 쿼리 입력부(400), 얼굴 검색부(500) 및 디스플레이부(600)를 포함한다.As shown in FIG. 1, the
영상 촬영부(100)는 탐지 대상에 대한 영상을 촬영한다. 영상 촬영부(100)는 예컨대 CCTV와 같은 영상 생성 장치일 수 있으며, 탐지 대상을 촬영하여 영상을 생성한다. 탐지 대상은 불특정 대상 예컨대 임의의 사람이나 사물일 수 있으며, 생성된 영상은 얼굴 정보 생성부(200)로 전송될 수 있다.The
얼굴 정보 생성부(200)는 영상 촬영부(100)로부터 수신한 영상을 이용하여 얼굴 정보(260)를 생성한다. 얼굴 정보(260)는 얼굴이 탐지된 영상, 이미지, 특징 벡터 및 얼굴 탐지 환경과 관련된 메타데이터를 포함할 수 있다. 얼굴 정보 생성부(200) 및 얼굴 정보(260)는 도 2 및 도 3을 참조하여 상세히 설명한다.The
얼굴 정보 생성부(200)는 도 2에 도시된 바와 같이, 이미지 캡쳐부(210), 얼굴 탐지부(220), 얼굴 특징 추출부(230), 영상 분할부(240) 및 탐지 정보 생성부(250)를 포함한다. 또한, 얼굴 정보 생성부(200)에서 생성된 얼굴 정보(260)는 도 3에 도시된 바와 같이, 얼굴 이미지 데이터(261), 특징 벡터 데이터(262), 분할 영상 데이터(263), 탐지 날짜 데이터(266), 탐지 시간 데이터(267) 및 영상 촬영부 정보 데이터(268)를 포함한다.As illustrated in FIG. 2, the
이미지 캡쳐부(210)는 영상 촬영부(100)로부터 수신한 영상을 캡쳐하여 이미지로 변환한다. 또한 이미지 캡쳐부(210)는 캡쳐된 이미지를 전처리하는 과정을 더 포함할 수 있다. 예를 들어 이미지 캡쳐부(210)는 캡쳐된 이미지에 대해 흑백 변환(gray color conversion), 보간(interpolation), 히스토그램 평활화(equalization of histogram), 스무딩(smoothing), 리사이징(resizing), 잡음 제거(noise cancelling) 등을 수행할 수 있다.The
이미지 캡쳐부(210)에 의해 캡쳐된 이미지는 복수개로 구성될 수 있다. 또한, 이미지는 재생되는 영상을 캡쳐한 것이므로 동일 대상에 대해 다양한 각도, 표정이 담긴 복수의 이미지를 캡쳐할 수 있다.The image captured by the
얼굴 탐지부(220)는 캡쳐한 이미지를 이용하여 얼굴 이미지를 탐지한다. 이미지 캡쳐부(210)에서 제공된 이미지는 불특정 탐지 대상을 촬영하여 캡쳐한 것이므로, 탐지 대상자를 포함하지 않을 수 있으며, 탐지 대상자를 포함한다 하더라도 탐지 대상자의 얼굴뿐만 아니라, 전신, 의상, 배경 등을 더 포함할 수 있다.The
한편, 본 발명에 따른 얼굴 검색 시스템(10)은 탐지 대상자의 얼굴을 생체 특징으로 하여 검색을 수행하므로, 얼굴 탐지부(220)는 얼굴 검색에 사용될 데이터베이스를 생성하기 위해 캡쳐된 이미지 중 얼굴 이미지를 탐지한다. 얼굴 탐지부(220)는 Haar-like feature 방법을 이용할 수 있다. 그러나 이에 한정되지는 않고 임의의 방법을 이용하여 얼굴 탐지를 수행할 수 있다. 얼굴 탐지부(220)에 의해 탐지된 얼굴 이미지는 도 3에 도시된 바와 같이 얼굴 정보(260) 중 얼굴 이미지 데이터(261)를 구성할 수 있다.Meanwhile, since the
얼굴 특징 추출부(230)는 얼굴 탐지부(220)에서 탐지된 얼굴 이미지로부터 특징 벡터를 추출한다. 얼굴 특징 추출부(230)는 예컨대, NMF(non-negative matrix factorization) 알고리즘을 사용할 수 있다. NMF 알고리즘은 데이터 세트에서 독립적인 특성을 추출하기 위해 사용되는 것으로, NMF에 의해 유도된 특징 공간의 기저 벡터는 눈, 코, 입 등과 유사한 부분 이미지 형태를 보이며, 기저 벡터의 선형 결합으로 얼굴 이미지를 나타낼 수 있다. 본 실시예에 따른 얼굴 특징 추출부(230)는 NMF 알고리즘을 사용하는 것으로 예시하고 있으나 이에 한정되는 것은 아니며, SVD(singular value decomposition) 방법이나 PCA 방법(principal component analysis) 등 얼굴 특징 추출에 사용될 수 있는 임의의 방법을 사용할 수 있다. 얼굴 특징 추출부(230)에 의해 추출된 특징 벡터는 도 3에 도시된 바와 같이 얼굴 정보(260) 중 특징 벡터 데이터(262)를 구성할 수 있다.The
영상 분할부(240)는 영상 촬영부(100)에서 수신한 영상에서 얼굴이 탐지된 영상 부분을 분할한다. 영상 분할부(240)는 영상 촬영부(100)에서 수신한 영상에서 얼굴이 탐지될 경우, 영상을 시간적으로 분할할 수 있다. 그러나 영상 분할부(240)는 실시예에 따라 얼굴 부분에 대한 공간적 분할을 추가적으로 더 수행할 수 있다. 영상 분할부(240)에 의해 분할된 영상은 도 3에 도시된 바와 같이 얼굴 정보(260) 중 분할 영상 데이터(263)를 구성할 수 있다.The
탐지 정보 생성부(250)는 얼굴이 탐지된 시간적 공간적 환경에 관한 메타데이터(metadata)(265)를 생성한다. 시간적 환경은 탐지 날짜 정보, 탐지 시간 정보 등을 포함할 수 있으며, 공간적 환경은 영상 촬영부 정보 등을 포함할 수 있다. 만약, 영상 촬영부(100)가 복수 개 고정 설치된 경우, 얼굴 탐지의 공간적 정보는 영상 촬영부 정보 예를 들어 영상 촬영부(100)의 레퍼런스 번호 정보 등을 통해 획득할 수 있다.The
탐지 정보 생성부(250)에 의해 생성된 메타데이터(265)는 얼굴 이미지 데이터(261) 또는 분할 영상 데이터(263)에 대한 데이터로 기능할 수 있다. 만약, 사용자가 특정 검색 대상자에 대한 이미지 또는 영상을 검색할 경우, 얼굴 검색 시스템(10)은 검색 대상자에 대한 얼굴 이미지 데이터(261) 또는 분할 영상 데이터(263)뿐만 아니라 이에 대한 메타데이터(265)도 함께 검색할 수 있다. 또한, 사용자가 메타데이터(265)에 대한 정보를 조건으로 검색을 요청할 경우, 얼굴 검색 시스템(10)은 이를 기준으로 하여 검색을 수행할 수 있다.The
탐지 정보 생성부(250)에 의해 생성된 메타데이터는 도 3에 도시된 바와 같이 얼굴 정보(260) 중 탐지 날짜 데이터(266), 탐지 시간 데이터(267) 및 영상 촬영부 정보 데이터(268) 중 적어도 하나를 포함할 수 있다. 그러나 이에 한정되는 것은 아니며, 메타데이터(265)는 얼굴이 탐지된 환경과 관련된 임의의 정보를 포함할 수 있다.As shown in FIG. 3, the metadata generated by the
다시 도 1을 참조하면, 얼굴 정보 저장부(300)는 얼굴 정보 생성부(200)에 의해 생성된 얼굴 정보(260)를 저장한다. 얼굴 정보(260)는 영상 촬영부(100)에 의해 촬영된 영상 또는 이를 캡쳐한 이미지 중 얼굴이 탐지될 때 생성되므로, 얼굴 정보 저장부(300)는 복수의 탐지 대상자로부터 복수의 얼굴 정보(260)를 저장할 수 있다. 얼굴 정보(260)가 누적됨에 따라 얼굴 정보 저장부(300)는 대용량의 얼굴 정보 데이터베이스를 구축할 수 있다. 구축된 얼굴 정보 데이터베이스는 사용자에 의해 입력된 쿼리에 의해 검색을 수행할 수 있으며 이와 관련해서는 하기에서 상세히 설명한다.Referring back to FIG. 1, the face
쿼리 입력부(400)는 사용자로부터 검색 대상자에 대한 쿼리를 수신한다. 쿼리(Query)는 얼굴이 탐지된 영상 또는 이미지를 검색하기 위한 검색 조건이다. 얼굴 정보 저장부(300)에 저장된 대용량의 얼굴 정보 데이터베이스를 사용자가 직접 확인하는 것은 한계가 있으므로, 쿼리를 이용하여 빠르고 정확한 검색을 수행할 수 있다.The
쿼리는 키워드에 의한 쿼리(Query-by-keyword) 및 예제에 의한 쿼리(Query-by-example)를 포함할 수 있다. 키워드에 의한 쿼리는 키워드를 이용하여 검색을 수행하는 것으로, 키워드는 얼굴 정보(260) 중 탐지 날짜 데이터, 탐지 시간 데이터 및 영상 촬영부 정보 데이터와 관련된 것일 수 있다. 예를 들어, 키워드는 `2010년 11월 1일`, `오후 10시~오후 11시` 및 `3번 CCTV`일 수 있다.The query may include a query-by-keyword and a query-by-example. The query by keyword is a search performed by using a keyword, and the keyword may be related to detection date data, detection time data, and image capturing unit information data in the
또한, 예제에 의한 쿼리는 정지 영상 또는 동영상을 이용하여 검색을 수행하는 것으로, 사용자는 검색하고자 하는 대상에 대한 정지 영상 또는 동영상을 이용하여 검색을 수행할 수 있다.In addition, the query according to the example is to perform a search using a still image or a video, and a user may perform a search using a still image or a video of a target to be searched.
얼굴 검색부(500)는 쿼리 입력부(400)에 의해 수신된 쿼리에 기초하여 얼굴 정보 저장부(300)에 저장된 얼굴 정보(260)에 대한 검색을 수행한다. 쿼리는 키워드에 의한 쿼리 및 예제에 의한 쿼리를 포함할 수 있으므로, 얼굴 검색부(500)는 쿼리에 따라 다른 방법을 이용하여 검색을 수행할 수 있다. 이와 관련해서는 도 4를 참조하여 상세히 설명한다.The
도 4는 본 발명의 일실시예에 따른 얼굴 검색 알고리즘을 도시한 순서도이다.4 is a flowchart illustrating a face search algorithm according to an embodiment of the present invention.
얼굴 검색부(500)는 먼저 예제에 의한 쿼리인지 판단한다(S100). 사용자가 이미지 또는 영상을 입력한 경우 예제에 의한 쿼리로 판단하고, 키워드를 입력한 경우 키워드에 의한 쿼리로 판단한다.The
쿼리가 예제에 의한 쿼리로 판단된 경우, 정지 영상이 입력된 것인지 판단한다(S110). 예제에 의한 쿼리는 정지 영상의 입력과 동영상 입력을 포함할 수 있으므로, 입력된 대상이 정지 영상인지 동영상인지에 대해 판단한다.If it is determined that the query is a query by example, it is determined whether a still image is input (S110). The query according to the example may include input of a still image and input of a video, and thus, it is determined whether the input target is a still image or a video.
정지 영상이 아닌 동영상이 입력된 경우 동영상을 캡쳐한 후 얼굴 탐지를 수행한다(S120, S130). 또한, 정지 영상이 입력된 경우, 정지 영상에 대한 얼굴 탐지를 수행한다(S130). 본 발명에 따른 얼굴 검색 시스템(10)은 탐지 대상자의 얼굴을 생체 특징으로 하여 검색을 수행하므로, 얼굴 검색부(500)는 사용자에 의해 입력된 정지 영상 중 얼굴 이미지를 탐지한다. 얼굴 탐지는 Haar-like feature 방법 등을 이용하여 수행할 수 있다.If a video other than a still image is input, face detection is performed after capturing the video (S120 and S130). In addition, when a still image is input, face detection is performed on the still image (S130). Since the
얼굴 탐지가 완료되면, 특징 벡터를 추출한다(S140). 특징 벡터 추출은 NMF(non-negative matrix factorization) 알고리즘 등을 이용하여 수행할 수 있다. 이 경우, 특징 벡터 추출은 얼굴 정보 생성부(200)에 의해 사용된 추출 방법과 동일한 방법을 사용한 것일 수 있다.When face detection is completed, a feature vector is extracted (S140). Feature vector extraction may be performed using a non-negative matrix factorization (NMF) algorithm. In this case, the feature vector extraction may use the same method as the extraction method used by the
다음으로, SR 알고리즘을 이용한 검색을 수행한다(S150). 이와 관련해서는 도 5를 참조하여 설명한다.Next, a search using the SR algorithm is performed (S150). This will be described with reference to FIG. 5.
도 5는 본 발명의 일실시예에 따른 SR 알고리즘을 나타낸 도면이다.5 is a diagram illustrating an SR algorithm according to an embodiment of the present invention.
도 5를 참조하면, 먼저 얼굴 정보 저장부(300)에 저장된 얼굴 정보(260)를 이용하여 행렬 A를 생성한다. 구체적으로 얼굴 정보 저장부(300)에 저장된 얼굴 정보(260) 중 특징 벡터 데이터를 이용하여 n차원을 가지는 고차원 데이터 행렬 A를 생성한다. 행렬 A의 각각의 열 데이터는 얼굴 정보 각각에 대한 특징 벡터일 수 있다. 예를 들어, i개의 클래스, n개의 얼굴 정보(260)로부터 행렬 A를 생성할 경우, i번째 클래스에 속하는 n번째 학습 이미지 특징 벡터는 행렬 의 열로 정렬 될 수 있다. 사용자로부터 입력된 이미지로부터 추출된 특징 벡터가 y라면 y는 A에 대한 하기 수학식 1로 표현될 수 있다.Referring to FIG. 5, first, a matrix A is generated by using
[수학식 1][Equation 1]
수학식 1에서 x는 계수 벡터(coefficient vector)이다. 특징 벡터가 클래스 i에 속한다면, 계수 벡터 x는 i와 관련된 학습 데이터 값을 제외하고는 0 또는 0에 근사한 값을 갖고, 하기 수학식 2와 같이 표현된다.In
[수학식 2][Equation 2]
수학식 2는 수학식 1을 풀어 x값을 얻을 수 있으며, x의 최적해(optimization)를 구하는 문제로 변경할 수 있다.
[수학식 3]&Quot; (3) "
수학식 3을 이용하여 해를 찾는 것은 NP-hard 문제이며 해를 찾기 어렵다. 그러나 만약 x의 해가 충분히 스파스(sparse)하다면, -노름(norm) 최소화 문제(수학식 3)는 다음 컨벡스 관련 최적화 문제를 이용하여, 근사해인 -노름 최소화 문제로 풀 수 있다.Finding a
[수학식 4]&Quot; (4) "
얼굴 검색부(500)는 상대적으로 높은 값을 갖는 클래스에 해당하는 검색 대상자를 추출할 수 있다.The
SR(sparse representation) 알고리즘을 이용할 경우 다양한 조명 변화, 원 이미지에 다른 이미지가 겹치거나 변장한 경우, 원 이미지가 변질된 경우, 저해상도 등 인식 성능을 저해하는 다양한 환경에서도 정면 얼굴 이미지를 차원 축소 방법을 사용하지 않고서도 매우 높은 얼굴 인식률을 보장한다는 장점이 있다.When using the SR (Sparse Representation) algorithm, the front face image is reduced in various environments such as various lighting changes, overlapping or disguising other images on the original image, altering the original image, and low resolution. It has the advantage of ensuring a very high face recognition rate without using it.
다음으로, 검색 결과를 디스플레이부(600)로 전송한다(S160). 검색 결과는 검색 대상자에 대한 모든 얼굴 정보를 포함할 수 있다. 예를 들어, 검색 결과는 검색 대상자의 얼굴 이미지 데이터, 특징 벡터 데이터, 분할 영상 데이터, 탐지 날짜 데이터, 탐지 시간 데이터, 영상 촬영부 정보 데이터 등을 포함할 수 있다. 전송된 검색 결과는 디스플레이부(600)에 의해 디스플레이된다.Next, the search result is transmitted to the display unit 600 (S160). The search result may include all face information about the search subject. For example, the search result may include face image data, feature vector data, split image data, detection date data, detection time data, image capturing unit information data, and the like of the search target. The transmitted search result is displayed by the
한편 도 4에 도시된 바와 같이, 사용자로부터 예제에 의한 쿼리가 아닌 키워드에 의한 쿼리가 수신된 경우, 메타데이터를 이용한 검색을 수행한다(S170). On the other hand, as shown in Figure 4, when the query by the keyword is received from the user instead of the query by the example, the search using the metadata is performed (S170).
키워드는 얼굴 정보 중 탐지 날짜 데이터, 탐지 시간 데이터 및 영상 촬영부 정보 데이터와 관련된 것일 수 있다. 예를 들어, 키워드가 `2010년 11월 1일`, `오후 10시~오후 11시` 및 `3번 CCTV`인 경우, 얼굴 검색부(500)는 얼굴 정보 저장부(300)를 검색하여 키워드 조건에 대응하는 얼굴 정보를 검색할 수 있다. 검색된 얼굴 정보는 예제에 의한 쿼리와 동일하게 디스플레이부(600)로 전송된다.The keyword may be related to detection date data, detection time data, and image capturing unit information data in the face information. For example, when the keywords are 'November 1, 2010', '10 pm to 11 pm ', and' 3 CCTV ', the
사용자는 키워드뿐만 아니라 정지 영상 또는 동영상을 쿼리로 이용하여 얼굴 검색을 수행할 수 있으므로, 대용량의 얼굴 정보 데이터베이스 처리에 용이하다는 장점이 있다.The user can perform a face search using not only a keyword but also a still image or a video as a query, which is advantageous in processing a large face information database.
또한, 동영상을 쿼리로 이용하여 얼굴 검색을 수행하는 경우, CCTV와 같은 감시 장치와 결합하여 실시간으로 특정인에 대한 검색을 실시할 수 있다. 예를 들어, 범죄 용의자에 대한 얼굴 정보를 데이터베이스에 저장한 후, 실시간 CCTV를 통해 감지된 인물 중에 데이터베이스에 저장된 범죄 용의자와 동일한 인물이 있는지 자동으로 검색할 수 있다.In addition, when performing a face search using a video as a query, it is possible to perform a search for a specific person in real time by combining with a surveillance device such as CCTV. For example, after storing face information about a suspect in a database, the detected person can be automatically searched for the same person as the suspect in the database.
또한, 새로운 얼굴 정보가 추가되더라도, 얼굴 검색 시 모든 얼굴 정보에 대해 재학습을 수행할 필요 없이, 기생성된 행렬에 새로운 얼굴 정보에 대한 학습 결과만 열 데이터로 추가하면 되므로, 확장성이 뛰어나며, 대용량의 이미지 처리에 유리하다는 장점이 있다.In addition, even if new face information is added, the face search does not need to relearn all the face information, and only the learning results of the new face information need to be added as column data to the parametric matrix. There is an advantage that it is advantageous for processing a large amount of images.
다시 도 1을 참조하면, 디스플레이부(600)는 얼굴 검색부(500)에 의해 검색된 얼굴 정보를 디스플레이한다. 이와 관련해서는 도 6을 참조하여 상세히 설명한다.Referring back to FIG. 1, the
도 6은 본 발명의 일실시예에 따른 디스플레이부를 나타낸 도면이다.6 is a view showing a display unit according to an embodiment of the present invention.
도 6은 예제에 의한 쿼리 중 영상을 입력한 경우에 대한 디스플레이부(600)를 나타낸다. 디스플레이부(600)는 입력 영상 표시부(610), 입력 이미지 표시부(620), 입력 얼굴 이미지 표시부(630), 검색 이미지 표시부(640), 검색 영상 표시부(650) 및 검색 메타데이터 표시부(660)를 포함한다.6 illustrates the
입력 영상 표시부(610), 입력 이미지 표시부(620) 및 입력 얼굴 이미지 표시부(630)는 쿼리 입력부(400)에 의해 수신한 입력 영상과 얼굴 검색부(500)에 의해 캡쳐되고 얼굴 탐지가 수행된 이미지를 디스플레이한다. 사용자가 입력 영상 표시부(610)에 도시된 바와 같이 영상을 입력하면, 입력 이미지 표시부(620)에 도시된 정지 영상으로 캡쳐되고, 탐지된 얼굴 이미지가 입력 얼굴 이미지 표시부(630)에 디스플레이된다. 이와 관련해서는 상기에서 상세히 설명하였다.The input
검색 이미지 표시부(640), 검색 영상 표시부(650) 및 검색 메타데이터 표시부(660)는 얼굴 검색부(500)에 의해 검색이 완료된 얼굴 정보를 도시한다. 검색 이미지 표시부(640)는 얼굴 검색부(500)에 의해 검색된 얼굴 정보(260) 중 얼굴 이미지 데이터(261)를 디스플레이하고, 검색 영상 표시부(650)는 얼굴 정보(260) 중 분할 영상 데이터(263)를 디스플레이한다. 또한, 메타데이터 표시부(660)는 검색된 얼굴 정보(260) 중 메타데이터(265)를 디스플레이한다. 예를 들어 메타데이터 표시부(660)는 얼굴 정보(260) 중 영상 촬영부 정보 데이터(268), 탐지 날짜 데이터(266) 및 탐지 시간 데이터(267)를 디스플레이할 수 있다(661, 662, 663).The search
도 7은 본 발명의 일실시예에 따른 얼굴 검색 누적 정확도를 도시한다.7 illustrates face search cumulative accuracy according to an embodiment of the present invention.
도 7은 본 발명의 일실시예에 따른 얼굴 검색 시스템의 검색 성능을 나타낸다. 실험에서 얼굴 정보 데이터베이스는 총 28명, 한 명당 15장의 얼굴 이미지를 이용하여 수집하였다. 얼굴 정보 데이터베이스에 사용된 얼굴 이미지와 다른 이미지를 한 명당 15장씩 준비한 후, 이를 쿼리로 사용하여 검색 성능을 테스트하였다. 예제에 의한 질의를 이용한 검색 결과 첫 번째 추천 이미지의 정확도는 도 7에 도시된 바와 같이 99.5%의 높은 성능을 기록하였다.7 illustrates a search performance of the face search system according to an embodiment of the present invention. In the experiment, the face information database was collected using a total of 28 face images and 15 face images per person. After preparing 15 images of each face and other images used in the face information database, we used this as a query to test the search performance. As a result of the search using the example query, the accuracy of the first recommendation image recorded a high performance of 99.5% as shown in FIG. 7.
도 8은 본 발명의 일실시예에 따른 얼굴 검색 방법을 도시한 순서도이다.8 is a flowchart illustrating a face searching method according to an embodiment of the present invention.
먼저, 얼굴 정보를 수집한다(S200).First, face information is collected (S200).
탐지 대상을 촬영한 영상으로부터 얼굴 정보를 수집한다. 탐지 대상은 불특정 대상 예컨대 임의의 사람이나 사물일 수 있으며, CCTV와 같은 영상 생성 장치를 이용하여 촬영할 수 있다. 얼굴 정보는 얼굴 이미지 데이터, 특징 벡터 데이터, 분할 영상 데이터 및 메타데이터를 포함한다.Face information is collected from the image of the detection target. The detection target may be an unspecified object such as an arbitrary person or an object, and may be photographed using an image generating device such as CCTV. The face information includes face image data, feature vector data, segmented image data, and metadata.
촬영된 영상은 캡쳐 이미지로 캡쳐된 후, 얼굴 영역이 탐지된다. 켭쳐 이미지를 기초로 얼굴 영역이 분할된 얼굴 이미지가 생성된다. 또한, 얼굴 이미지에 대해 특징 벡터를 추출한다. 특징 벡터는 예컨대, NMF(non-negative matrix factorization) 알고리즘 등을 사용하여 추출될 수 있다. 한편, 촬영된 영상 중 얼굴이 탐지된 영상에 대해 분할된 분할 영상을 생성한다. 분할 영상은 촬영된 영상을 시간적으로 분할하여 생성된 것일 수 있다.The captured image is captured as a captured image, and then a face region is detected. When turned on, a face image in which the face area is divided based on the image is generated. In addition, a feature vector is extracted from the face image. The feature vector may be extracted using, for example, a non-negative matrix factorization (NMF) algorithm. Meanwhile, the divided image is generated from the image of the face of the captured image. The divided image may be generated by dividing the captured image in time.
또한, 영상에 대한 얼굴 탐지 정보를 이용하여 메타데이터를 생성한다. 메타데이터는 얼굴 탐지에 대한 시간적, 공간적 환경에 관한 데이터로서, 시간적 환경은 탐지 날짜 정보, 탐지 시간 정보 등을 포함할 수 있으며, 공간적 환경은 영상 촬영부 정보 등을 포함할 수 있다. 메타데이터는 탐지 날짜 데이터, 탐지 시간 데이터 및 영상 촬영부 정보 데이터 중 적어도 하나를 포함할 수 있다.In addition, metadata is generated using face detection information of an image. The metadata is data regarding temporal and spatial environments for face detection, and the temporal environment may include detection date information, detection time information, and the like, and the spatial environment may include image capturing information. The metadata may include at least one of detection date data, detection time data, and image capturing unit information data.
다음으로, 검색 대상자에 대한 쿼리를 수신한다(S210).Next, a query for a search target is received (S210).
쿼리(Query)는 얼굴이 탐지된 영상 또는 이미지를 검색하기 위한 검색 조건으로 키워드에 의한 쿼리(Query-by-keyword) 및 예제에 의한 쿼리(Query-by-example)를 포함할 수 있다. 키워드에 의한 쿼리는 키워드를 이용하여 검색을 수행하는 것이고, 예제에 의한 쿼리는 동영상 또는 정지 영상을 이용하여 검색을 수행하는 것이다.A query is a search condition for searching for an image or an image in which a face is detected, and may include a query by keyword and a query by example. The query by keyword is to search by keyword, and the example query is to search by video or still image.
다음으로, 쿼리에 기초하여 수집된 얼굴 정보 중 검색 대상자에 대응되는 얼굴 정보를 검색한다(S220).Next, the face information corresponding to the search target is searched among the collected face information based on the query (S220).
수신된 쿼리에 기초하여 얼굴 정보에 대한 검색을 수행할 수 있다. 쿼리는 키워드에 의한 쿼리 및 예제에 의한 쿼리를 포함할 수 있으므로, 쿼리에 따라 다른 방법을 이용하여 검색을 수행할 수 있다. 이와 관련해서는 도 4를 참조하여 상세히 설명하였다.The face information may be searched based on the received query. The query can include a query by keyword and a query by example, so that the search can be performed using different methods depending on the query. This has been described in detail with reference to FIG. 4.
특히, 정지 영상을 쿼리로 수신한 경우, 정지 영상으로부터 특징 벡터를 추출하고, 수집된 얼굴 정보 중 특징 벡터 데이터 중에서 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색한다. 또한, 특징 벡터 데이터에 대한 검색은 SR(sparse representation) 알고리즘을 이용하여 수행할 수 있다. 이와 관련해서는 도 5를 참조하여 상세히 설명하였다.In particular, when the still image is received as a query, the feature vector is extracted from the still image, and the feature vector data corresponding to the extracted feature vector is searched among the collected feature vector data. In addition, the search for the feature vector data may be performed using a sparse representation (SR) algorithm. This has been described in detail with reference to FIG. 5.
다음으로, 검색된 얼굴 정보를 디스플레이 한다(S230).Next, the detected face information is displayed (S230).
수집되었던 얼굴 정보의 모든 데이터가 디스플레이될 수 있으며 이와 관련해서는 도 6을 참조하여 상세히 설명하였다.All data of the collected face information may be displayed, and this is described in detail with reference to FIG. 6.
참고로, 본 발명의 실시예에 따른 도 1 및 도 2에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.For reference, components shown in FIGS. 1 and 2 according to an embodiment of the present invention mean software components or hardware components such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and have a predetermined role. Perform them.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within those components may be combined into a smaller number of components or further separated into additional components.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.
10: 얼굴 검색 시스템 100: 영상 촬영부
200: 얼굴 정보 생성부 210: 이미지 캡쳐부
220: 얼굴 탐지부 230: 얼굴 특징 추출부
240: 영상 분할부 250: 탐지 정보 생성부
260: 얼굴 정보 300: 얼굴 정보 저장부
400: 쿼리 입력부 500: 얼굴 검색부
600: 디스플레이부10: face detection system 100: video recording unit
200: face information generation unit 210: image capture unit
220: face detection unit 230: facial feature extraction unit
240: Image segmentation unit 250: Detection information generation unit
260: face information 300: face information storage unit
400: query input unit 500: face search unit
600: display unit
Claims (14)
탐지 대상을 촬영한 영상으로부터 수집된 얼굴 정보가 저장된 얼굴 정보 저장부,
검색 대상자에 대한 쿼리를 수신하는 쿼리 입력부 및
상기 수신된 쿼리에 기초하여 상기 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 얼굴 검색부를 포함하되,
상기 쿼리는 키워드, 정지 영상 및 동영상 중 적어도 어느 하나를 포함하고,
상기 수신된 쿼리가 동영상 또는 정지 영상인 경우, 상기 얼굴 검색부는 SR(sparse representation) 알고리즘에 따라 검색을 수행하는 것인 얼굴 검색 시스템.
In the face search system,
A face information storage unit storing face information collected from an image of a detection target;
A query input that receives a query for the search target, and
A face searching unit searching for face information corresponding to the search target among the face information based on the received query,
The query includes at least one of a keyword, a still image, and a video.
And if the received query is a moving picture or a still image, the face search unit performs a search according to a sparse representation algorithm.
상기 얼굴 정보는,
상기 촬영한 영상으로부터 캡쳐한 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 생성한 얼굴 이미지 데이터,
상기 얼굴 이미지 데이터로부터 추출한 특징 벡터 데이터,
상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 생성한 분할 영상 데이터 및
상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 생성한 메타데이터
를 포함하는 얼굴 검색 시스템.
The method of claim 1,
The face information is,
Face image data generated by dividing an area where a face is detected among captured images captured from the captured image;
Feature vector data extracted from the face image data;
Divided image data generated by temporally dividing an image of a face detected among the photographed images;
Metadata generated using face detection information of the captured image
Face search system comprising a.
상기 메타데이터는,
상기 캡쳐 이미지로부터 얼굴이 탐지된 날짜를 나타내는 탐지 날짜 데이터,
상기 캡쳐 이미지로부터 얼굴이 탐지된 시간을 나타내는 탐지 시간 데이터 및
상기 탐지 대상을 촬영한 장치에 관한 정보를 나타내는 영상 촬영부 정보 데이터 중 적어도 하나를 포함하는 얼굴 검색 시스템.
The method of claim 2,
The metadata,
Detection date data indicating a date when a face was detected from the captured image;
Detection time data indicating a time when a face was detected from the captured image;
And at least one of image capturing unit information data representing information about a device photographing the detection target.
상기 수신된 쿼리가 정지 영상인 경우,
상기 얼굴 검색부는 상기 정지 영상으로부터 특징 벡터를 추출하고, 상기 얼굴 정보 저장부에 저장된 상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 얼굴 검색 시스템.
The method of claim 2,
If the received query is a still image,
And a face search unit extracting a feature vector from the still image and searching for feature vector data corresponding to the extracted feature vector among the feature vector data stored in the face information storage unit.
상기 수신된 쿼리가 동영상인 경우,
상기 얼굴 검색부는 상기 동영상을 캡쳐하고, 상기 동영상의 캡쳐 이미지로부터 특징 벡터를 추출하고, 상기 얼굴 정보 저장부에 저장된 상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 얼굴 검색 시스템.
The method of claim 2,
If the received query is a video,
The face search unit captures the video, extracts a feature vector from the captured image of the video, and searches a feature vector data corresponding to the extracted feature vector among the feature vector data stored in the face information storage unit. system.
상기 수신된 쿼리가 키워드인 경우,
상기 얼굴 검색부는 상기 얼굴 정보 저장부에 저장된 메타데이터 중 상기 키워드에 대응되는 메타데이터를 검색하는 얼굴 검색 시스템.
The method of claim 2,
If the received query is a keyword,
And the face searching unit searches for metadata corresponding to the keyword among metadata stored in the face information storage unit.
상기 검색된 얼굴 정보를 디스플레이하는 디스플레이부를 더 포함하는 얼굴 검색 시스템.
The method of claim 1,
And a display unit which displays the retrieved face information.
탐지 대상을 촬영한 영상으로부터 얼굴 정보를 수집하는 단계,
검색 대상자에 대한 정지 영상을 수신하는 단계 및
상기 수신한 정지 영상에 기초하여 상기 수집된 얼굴 정보 중 상기 검색 대상자에 대응되는 얼굴 정보를 검색하는 단계를 포함하되,
상기 얼굴 정보는,
상기 촬영한 영상으로부터 캡쳐한 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 생성한 얼굴 이미지 데이터,
상기 얼굴 이미지 데이터로부터 추출한 특징 벡터 데이터,
상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 생성한 분할 영상 데이터 및
상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 생성한 메타데이터를 포함하고,
상기 얼굴 정보를 검색하는 단계는,
상기 수신된 정지 영상으로부터 특징 벡터를 추출하는 단계 및
상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 단계를 포함하며,
상기 특징 벡터 데이터 중 상기 추출된 특징 벡터에 대응되는 특징 벡터 데이터를 검색하는 단계는 SR(sparse representation) 알고리즘에 따라 검색을 수행하는 것인 얼굴 검색 방법.
In the face search method,
Collecting face information from an image of the detection target;
Receiving a still image for the search target; and
Searching for face information corresponding to the search target among the collected face information based on the received still image;
The face information is,
Face image data generated by dividing an area where a face is detected among captured images captured from the captured image;
Feature vector data extracted from the face image data;
Divided image data generated by temporally dividing an image of a face detected among the photographed images;
Include metadata generated by using the face detection information for the captured image,
Searching for the face information,
Extracting a feature vector from the received still image; and
Retrieving feature vector data corresponding to the extracted feature vector from the feature vector data;
And retrieving feature vector data corresponding to the extracted feature vector from the feature vector data is performing a search according to a sparse representation algorithm.
상기 얼굴 정보를 수집하는 단계는,
탐지 대상을 촬영한 영상을 캡쳐하여 캡쳐 이미지를 생성하는 단계,
상기 캡쳐 이미지 중 얼굴이 탐지된 영역을 분할하여 얼굴 이미지 데이터를 생성하는 단계,
상기 얼굴 이미지로부터 특징 벡터 데이터를 추출하는 단계,
상기 촬영한 영상 중 얼굴이 탐지된 영상을 시간적으로 분할하여 분할 영상 데이터를 생성하는 단계 및
상기 촬영한 영상에 대한 얼굴 탐지 정보를 이용하여 메타데이터를 생성하는 단계
를 포함하는 얼굴 검색 방법.
The method of claim 9,
Collecting the face information,
Generating a captured image by capturing an image of a detection target;
Generating face image data by dividing an area where a face is detected among the captured images;
Extracting feature vector data from the face image;
Generating segmented image data by temporally dividing an image of a face detected from the photographed images;
Generating metadata using face detection information of the captured image;
Face detection method comprising a.
상기 메타데이터는,
상기 캡쳐 이미지로부터 얼굴이 탐지된 날짜를 나타내는 탐지 날짜 데이터,
상기 캡쳐 이미지로부터 얼굴이 탐지된 시간을 나타내는 탐지 시간 데이터 및
상기 탐지 대상을 촬영한 장치에 관한 정보를 나타내는 영상 촬영부 정보 데이터 중 적어도 하나를 포함하는 얼굴 검색 방법.
The method of claim 9,
The metadata,
Detection date data indicating a date when a face was detected from the captured image;
Detection time data indicating a time when a face was detected from the captured image;
And at least one of image capturing unit information data representing information about a device photographing the detection target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100112029A KR101170676B1 (en) | 2010-11-11 | 2010-11-11 | Face searching system and method based on face recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100112029A KR101170676B1 (en) | 2010-11-11 | 2010-11-11 | Face searching system and method based on face recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120050660A KR20120050660A (en) | 2012-05-21 |
KR101170676B1 true KR101170676B1 (en) | 2012-08-07 |
Family
ID=46268019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100112029A KR101170676B1 (en) | 2010-11-11 | 2010-11-11 | Face searching system and method based on face recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101170676B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102039277B1 (en) | 2018-12-07 | 2019-10-31 | 장승현 | Pedestrian face recognition system and method thereof |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6299299B2 (en) * | 2014-03-14 | 2018-03-28 | オムロン株式会社 | Event detection apparatus and event detection method |
CN113050464A (en) * | 2019-12-27 | 2021-06-29 | 广州市双敏电子产品有限公司 | Intelligent monitoring method and system based on Internet of things |
CN117812381A (en) * | 2023-12-05 | 2024-04-02 | 世优(北京)科技有限公司 | Video content making method based on artificial intelligence |
-
2010
- 2010-11-11 KR KR1020100112029A patent/KR101170676B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102039277B1 (en) | 2018-12-07 | 2019-10-31 | 장승현 | Pedestrian face recognition system and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20120050660A (en) | 2012-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102560308B1 (en) | System and method for exterior search | |
Sun et al. | SG-FCN: A motion and memory-based deep learning model for video saliency detection | |
CN111291633B (en) | Real-time pedestrian re-identification method and device | |
US9208226B2 (en) | Apparatus and method for generating evidence video | |
US10025854B2 (en) | Video searching | |
Ding et al. | Violence detection in video by using 3D convolutional neural networks | |
US9176987B1 (en) | Automatic face annotation method and system | |
US11527000B2 (en) | System and method for re-identifying target object based on location information of CCTV and movement information of object | |
JP6516832B2 (en) | Image retrieval apparatus, system and method | |
US11256945B2 (en) | Automatic extraction of attributes of an object within a set of digital images | |
KR20180015101A (en) | Method and apparatus of extracting region-of-interest video in source video | |
KR101170676B1 (en) | Face searching system and method based on face recognition | |
CN111241872A (en) | Video image shielding method and device | |
Fritz et al. | Generalization ability of region proposal networks for multispectral person detection | |
Khan et al. | Dimension invariant model for human head detection | |
CN112949539A (en) | Pedestrian re-identification interactive retrieval method and system based on camera position | |
Krishna et al. | Hybrid method for moving object exploration in video surveillance | |
e Souza et al. | Survey on visual rhythms: A spatio-temporal representation for video sequences | |
CN104680143B (en) | A kind of fast image retrieval method for video investigation | |
CN107729379B (en) | Specific vehicle retrieval method based on deep learning algorithm | |
Kansal et al. | CARF-Net: CNN attention and RNN fusion network for video-based person reidentification | |
Nautiyal et al. | An automated technique for criminal face identification using biometric approach | |
Malik et al. | A Simplified Skeleton Joints Based Approach For Human Action Recognition | |
US11403880B2 (en) | Method and apparatus for facilitating identification | |
Bouma et al. | Video content analysis on body-worn cameras for retrospective investigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151026 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160615 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |